• होम
  • मोबाइल
  • ख़बरें
  • AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी।

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

Photo Credit: Unsplash / antonghiga

ख़ास बातें
  • स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें शख्स हूबहू जॉर्ज क्लूनी लग रहा था
  • चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी
  • महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई
विज्ञापन
अब डीपफेक सिर्फ मजाक या फिल्मों की चीज नहीं रही। टेक्नोलॉजी के इस हथियार का गलत इस्तेमाल अब रियल लाइफ फ्रॉड में भी हो रहा है। हाल ही में सामने आई एक घटना में स्कैमर्स ने हॉलीवुड एक्टर जॉर्ज क्लूनी का डीपफेक बनाकर एक महिला को ठग लिया। रिपोर्ट्स के मुताबिक, ये मामला अर्जेंटीना का है जहां एक महिला को फेसबुक पर एक ऐसा वीडियो मिला, जिसमें जॉर्ज क्लूनी खुद उससे बात करता नजर आ रहा था। करीब छह हफ्तों तक चले इस बातचीत के बाद महिला ने यकीन कर लिया कि वह असली क्लूनी से बात कर रही है और इसी भरोसे के चलते उसने स्कैमर्स को भारी रकम ट्रांसफर कर दी।

पूरा खेल डीपफेक टेक्नोलॉजी के जरिए रचा गया था। स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी। डेलीमेल यूके की रिपोर्ट के मुताबिक, यह डीपफेक रोजाना नए-नए वीडियो के जरिए महिला को भेजा जाता था ताकि यकीन मजबूत होता जाए। वीडियो कॉल या लाइव चैट का कोई ऑप्शन नहीं दिया गया, सिर्फ रिकॉर्डेड क्लिप्स भेजी जाती रहीं।

रिपोर्ट कहती है कि कि महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई। ये पैसे अलग-अलग बहानों से मंगवाए गए, जैसे कि जॉर्ज क्लूनी का फाउंडेशन सपोर्ट करना, प्राइवेट प्रोजेक्ट्स में इनवेस्टमेंट या ट्रैवल अरेंजमेंट्स आदि।

इस घटना ने एक बार फिर से सोशल मीडिया और AI बेस्ड फ्रॉड को लेकर चिंता बढ़ा दी है। डीपफेक टेक्नोलॉजी इतनी एडवांस हो चुकी है कि अब आम आदमी के लिए असली और नकली में फर्क करना मुश्किल हो रहा है। साइबर एक्सपर्ट्स का कहना है कि आने वाले वक्त में ऐसे फ्रॉड्स और भी बढ़ सकते हैं, खासकर जब AI टूल्स अब पब्लिकली अवेलेबल हैं और इनका इस्तेमाल किसी भी मकसद के लिए किया जा सकता है।

इस केस के बाद लोकल अथॉरिटीज ने जांच शुरू कर दी है और लोगों को अलर्ट रहने की सलाह दी है। खास तौर पर सोशल मीडिया पर किसी भी सेलिब्रिटी, अनजान अकाउंट या संदिग्ध मैसेज से जुड़ी बातचीत में सावधानी बरतने को कहा गया है।
Comments

लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।

ये भी पढ़े: Deepfake, deepfake scam, Deepfake fraud
नितेश पपनोई Nitesh has almost seven years of experience in news writing and reviewing tech products like smartphones, headphones, and smartwatches. At Gadgets 360, he is covering all ...और भी
Share on Facebook Gadgets360 Twitter ShareTweet Share Snapchat Reddit आपकी राय google-newsGoogle News
Turbo Read

विज्ञापन

Follow Us

विज्ञापन

#ताज़ा ख़बरें
  1. चीन ने फिर किया कमाल! दुनिया का पहला फोन जो खुद से ही सब कर लेगा! Nubia M153 लॉन्च, जानें इसकी खासियत
  2. फोन में पावर बैंक! Honor X80 में होगी 10,000mAh बैटरी, लीक में खुलासा
  3. Flipkart Buy Buy 2025 Sale: Rs 24 हजार सस्ता मिल रहा Samsung Galaxy S25 Ultra, फोन पर सबसे धांसू ऑफर
  4. नासा की चेतावनी! 4 एस्टरॉयड आज होंगे पृथ्वी के करीब, जानें कितना है खतरा
  5. एस्टरॉयड में चीनी! NASA की नई खोज ने चौंकाया
  6. Realme P4x 5G vs Vivo T4x 5G: मिडरेंज में कौन सा फोन है बेस्ट? जानें यहां
  7. सावधान! मोबाइल में खतरनाक वायरस, चुटकी में बैंक अकाउंट कर सकता है खाली
  8. OnePlus 15R में मिलेगी 7400mAh की बड़ी बैटरी, 17 दिसंबर को होगा भारत में लॉन्च
  9. Motorola Edge 70 जल्द होगा भारत में लॉन्च, 6.67 इंच डिस्प्ले, ट्रिपल रियर कैमरा यूनिट
  10. Indigo की फ्लाइट हुई कैंसल, तो कपल ने ऑनलाइन अटैंड कर लिया अपनी ही शादी का रिसेप्शन!
© Copyright Red Pixels Ventures Limited 2025. All rights reserved.
ट्रेंडिंग प्रॉडक्ट्स »
लेटेस्ट टेक ख़बरें »