• होम
  • मोबाइल
  • ख़बरें
  • AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी।

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

Photo Credit: Unsplash / antonghiga

ख़ास बातें
  • स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें शख्स हूबहू जॉर्ज क्लूनी लग रहा था
  • चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी
  • महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई
विज्ञापन
अब डीपफेक सिर्फ मजाक या फिल्मों की चीज नहीं रही। टेक्नोलॉजी के इस हथियार का गलत इस्तेमाल अब रियल लाइफ फ्रॉड में भी हो रहा है। हाल ही में सामने आई एक घटना में स्कैमर्स ने हॉलीवुड एक्टर जॉर्ज क्लूनी का डीपफेक बनाकर एक महिला को ठग लिया। रिपोर्ट्स के मुताबिक, ये मामला अर्जेंटीना का है जहां एक महिला को फेसबुक पर एक ऐसा वीडियो मिला, जिसमें जॉर्ज क्लूनी खुद उससे बात करता नजर आ रहा था। करीब छह हफ्तों तक चले इस बातचीत के बाद महिला ने यकीन कर लिया कि वह असली क्लूनी से बात कर रही है और इसी भरोसे के चलते उसने स्कैमर्स को भारी रकम ट्रांसफर कर दी।

पूरा खेल डीपफेक टेक्नोलॉजी के जरिए रचा गया था। स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी। डेलीमेल यूके की रिपोर्ट के मुताबिक, यह डीपफेक रोजाना नए-नए वीडियो के जरिए महिला को भेजा जाता था ताकि यकीन मजबूत होता जाए। वीडियो कॉल या लाइव चैट का कोई ऑप्शन नहीं दिया गया, सिर्फ रिकॉर्डेड क्लिप्स भेजी जाती रहीं।

रिपोर्ट कहती है कि कि महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई। ये पैसे अलग-अलग बहानों से मंगवाए गए, जैसे कि जॉर्ज क्लूनी का फाउंडेशन सपोर्ट करना, प्राइवेट प्रोजेक्ट्स में इनवेस्टमेंट या ट्रैवल अरेंजमेंट्स आदि।

इस घटना ने एक बार फिर से सोशल मीडिया और AI बेस्ड फ्रॉड को लेकर चिंता बढ़ा दी है। डीपफेक टेक्नोलॉजी इतनी एडवांस हो चुकी है कि अब आम आदमी के लिए असली और नकली में फर्क करना मुश्किल हो रहा है। साइबर एक्सपर्ट्स का कहना है कि आने वाले वक्त में ऐसे फ्रॉड्स और भी बढ़ सकते हैं, खासकर जब AI टूल्स अब पब्लिकली अवेलेबल हैं और इनका इस्तेमाल किसी भी मकसद के लिए किया जा सकता है।

इस केस के बाद लोकल अथॉरिटीज ने जांच शुरू कर दी है और लोगों को अलर्ट रहने की सलाह दी है। खास तौर पर सोशल मीडिया पर किसी भी सेलिब्रिटी, अनजान अकाउंट या संदिग्ध मैसेज से जुड़ी बातचीत में सावधानी बरतने को कहा गया है।
Comments

लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।

ये भी पढ़े: Deepfake, deepfake scam, Deepfake fraud
नितेश पपनोई Nitesh has almost seven years of experience in news writing and reviewing tech products like smartphones, headphones, and smartwatches. At Gadgets 360, he is covering all ...और भी
Share on Facebook Gadgets360 Twitter ShareTweet Share Snapchat Reddit आपकी राय google-newsGoogle News
Turbo Read

विज्ञापन

Follow Us

विज्ञापन

#ताज़ा ख़बरें
  1. Tesla के अमेरिकी EV में नहीं होगा चाइनीज पार्ट्स का इस्तेमाल
  2. Vivo X300 सीरीज अगले महीने होगी भारत में लॉन्च, 200 मेगापिक्सल का कैमरा
  3. Poco Pad M1 में होगी 8 जीबी रैम, 12000mAh बैटरी, लॉन्च से पहले स्पेसिफिकेशंस लीक!
  4. एलन मस्क की कंपनी में जॉब! xAI में इंजीनियर्स की भर्ती, जानें कैसे करें अप्लाई
  5. 12 महीने तक 200 Mbps फास्ट इंटरनेट, Free OTT के साथ Excitel दे रही सबसे गजब प्लान
  6. BSNL ने कर दी मौज! 251 रुपये में 100GB डेटा, अनलिमिटिड कॉल, Free बेनिफिट्स वाला धांसू प्लान
  7. Philips ला रही भारत में स्मार्टफोन, टैबलेट! Philips Pad Air के डिटेल्स लीक
  8. स्टोरेज हो गई फुल? बिना फोटो डिलीट करे ऐसे करें फ्री
  9. Mobile गर्म होने पर अपनाएं ये 5 स्टेप्स
  10. ये 10 विंडोज 11 शॉर्टकट करेंगे समय की बचत, चाहे कोई भी कर रहे हों काम
© Copyright Red Pixels Ventures Limited 2025. All rights reserved.
ट्रेंडिंग प्रॉडक्ट्स »
लेटेस्ट टेक ख़बरें »