ताज़ा और वास्तविक सामग्री के साथ स्वाभाविक रूप से भाषाएँ सीखें!

लोकप्रिय विषय
क्षेत्र के अनुसार खोजें
ए. आई. डीपफेक ने एक आई. सी. ई. अधिकारी को गलत तरीके से फंसाया और जनवरी 2026 में मिनियापोलिस में हुई गोलीबारी में पीड़ितों की गलत पहचान की, जो कोई वास्तविक फुटेज नहीं होने के बावजूद तेजी से ऑनलाइन फैल गया।
मिनियापोलिस में जनवरी 2026 की घातक गोलीबारी में पीड़ित और शूटर के AI-जनित डीपफेक सोशल मीडिया पर तेजी से फैल गए, ICE अधिकारी की पहचान को गलत तरीके से प्रकट करते हुए, पीड़ित की छवियों को डिजिटल रूप से बदलते हुए, और असंबंधित व्यक्तियों की गलत पहचान करते हुए।
अधिकारी का चेहरा दिखाने वाले कोई प्रामाणिक फुटेज नहीं होने के बावजूद, एलोन मस्क के ग्रोक जैसे उपकरणों का उपयोग अति-यथार्थवादी लेकिन मनगढ़ंत छवियां बनाने के लिए किया गया था, जिसमें स्पष्ट और अमानवीय चित्रण शामिल थे।
गलत जानकारी ने अधिकारी को स्टीव ग्रोव नाम के एक व्यक्ति से गलत तरीके से जोड़ा और अन्य व्यक्तियों को गलत तरीके से प्रस्तुत किया, जबकि फ्लोरिडा सरकार की एक क्लिप।
रॉन डेसेंटिस को इस घटना पर टिप्पणी के रूप में गलत तरीके से प्रस्तुत किया गया था।
विशेषज्ञ पुष्टि करते हैं कि अधिकारी जोनाथन रॉस है, और पीड़ित रेनी निकोल गुड थी।
यह घटना ब्रेकिंग न्यूज, जनता के विश्वास को कम करने और वास्तविकता को विकृत करने में एआई-ईंधन वाले दुष्प्रचार के खतरों को उजागर करती है।
AI deepfakes falsely implicated an ICE officer and misidentified victims in a Jan 2026 Minneapolis shooting, spreading rapidly online despite no real footage.