अब डीपफेक सिर्फ मजाक या फिल्मों की चीज नहीं रही। टेक्नोलॉजी के इस हथियार का गलत इस्तेमाल अब रियल लाइफ फ्रॉड में भी हो रहा है। हाल ही में सामने आई एक घटना में स्कैमर्स ने हॉलीवुड एक्टर जॉर्ज क्लूनी का डीपफेक बनाकर एक महिला को ठग लिया। रिपोर्ट्स के मुताबिक, ये मामला अर्जेंटीना का है जहां एक महिला को फेसबुक पर एक ऐसा वीडियो मिला, जिसमें जॉर्ज क्लूनी खुद उससे बात करता नजर आ रहा था। करीब छह हफ्तों तक चले इस बातचीत के बाद महिला ने यकीन कर लिया कि वह असली क्लूनी से बात कर रही है और इसी भरोसे के चलते उसने स्कैमर्स को भारी रकम ट्रांसफर कर दी।
पूरा खेल डीपफेक टेक्नोलॉजी के जरिए रचा गया था। स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी। डेलीमेल यूके की
रिपोर्ट के मुताबिक, यह डीपफेक रोजाना नए-नए वीडियो के जरिए महिला को भेजा जाता था ताकि यकीन मजबूत होता जाए। वीडियो कॉल या लाइव चैट का कोई ऑप्शन नहीं दिया गया, सिर्फ रिकॉर्डेड क्लिप्स भेजी जाती रहीं।
रिपोर्ट कहती है कि कि महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई। ये पैसे अलग-अलग बहानों से मंगवाए गए, जैसे कि जॉर्ज क्लूनी का फाउंडेशन सपोर्ट करना, प्राइवेट प्रोजेक्ट्स में इनवेस्टमेंट या ट्रैवल अरेंजमेंट्स आदि।
इस घटना ने एक बार फिर से सोशल मीडिया और AI बेस्ड फ्रॉड को लेकर चिंता बढ़ा दी है।
डीपफेक टेक्नोलॉजी इतनी एडवांस हो चुकी है कि अब आम आदमी के लिए असली और नकली में फर्क करना मुश्किल हो रहा है। साइबर एक्सपर्ट्स का कहना है कि आने वाले वक्त में ऐसे फ्रॉड्स और भी बढ़ सकते हैं, खासकर जब AI टूल्स अब पब्लिकली अवेलेबल हैं और इनका इस्तेमाल किसी भी मकसद के लिए किया जा सकता है।
इस केस के बाद लोकल अथॉरिटीज ने जांच शुरू कर दी है और लोगों को अलर्ट रहने की सलाह दी है। खास तौर पर सोशल मीडिया पर किसी भी सेलिब्रिटी, अनजान अकाउंट या संदिग्ध मैसेज से जुड़ी बातचीत में सावधानी बरतने को कहा गया है।