तस्वीरों को देखकर यूजर्स शॉक्ड हो गए कि ऐसा कैसे हो सकता है। कई ने इसे सच भी मान लिया, क्योंकि न्यूज वेबसाइट्स ने इसे मसाला खबर की तरह पेश किया। जैसाकि हमने बताया, अरुणिता कांजीलाल की तस्वीरें डीप फेक का हिस्सा है।
What is Deep Fake?
डीप फेक में मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल करके नकली वीडियो, ऑडियो और इमेजेस जनरेट की जाती हैं। उदाहरण के लिए कई तस्वीरों को जोड़कर उन्हें नया बना दिया जाता है। किसी सेलिब्रिटी के चेहरे को दूसरे के शरीर पर अटैच करके नई इमेज या वीडियो क्रिएट कर दिया जाता है। डीप फेक एकदम असली लगता है, जिस वजह से असली या नकली में अंतर कर पाना मुश्किल हो जाता है।
सोशल मीडिया पर वायरल हो रहीं अरुणिता की तस्वीरें भी फेक है। इन्हें भी किसी AI टूल से तैयार किया गया है। आम यूजर्स को यह इसलिए असली लग सकती हैं, क्योंकि एआई ने अपना काम इतनी सफाई से किया है कि असली और नकली में अंतर समझ नहीं आता। मीडिया रिपोर्टों के अनुसार, अरुणिता की टीम की ओर से भी इन तस्वीरों के फेक होने की पुष्टि कर दी गई है।
डीप फेक से जुड़ा यह पहला मामला नहीं है। रश्मिका मंदाना, काजोल और आलिया भट जैसी एक्ट्रेसेज के भी डीप फेक फुटेज सामने आ चुके हैं।
लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।