• होम
  • मोबाइल
  • ख़बरें
  • AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी।

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

Photo Credit: Unsplash / antonghiga

ख़ास बातें
  • स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें शख्स हूबहू जॉर्ज क्लूनी लग रहा था
  • चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी
  • महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई
विज्ञापन
अब डीपफेक सिर्फ मजाक या फिल्मों की चीज नहीं रही। टेक्नोलॉजी के इस हथियार का गलत इस्तेमाल अब रियल लाइफ फ्रॉड में भी हो रहा है। हाल ही में सामने आई एक घटना में स्कैमर्स ने हॉलीवुड एक्टर जॉर्ज क्लूनी का डीपफेक बनाकर एक महिला को ठग लिया। रिपोर्ट्स के मुताबिक, ये मामला अर्जेंटीना का है जहां एक महिला को फेसबुक पर एक ऐसा वीडियो मिला, जिसमें जॉर्ज क्लूनी खुद उससे बात करता नजर आ रहा था। करीब छह हफ्तों तक चले इस बातचीत के बाद महिला ने यकीन कर लिया कि वह असली क्लूनी से बात कर रही है और इसी भरोसे के चलते उसने स्कैमर्स को भारी रकम ट्रांसफर कर दी।

पूरा खेल डीपफेक टेक्नोलॉजी के जरिए रचा गया था। स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी। डेलीमेल यूके की रिपोर्ट के मुताबिक, यह डीपफेक रोजाना नए-नए वीडियो के जरिए महिला को भेजा जाता था ताकि यकीन मजबूत होता जाए। वीडियो कॉल या लाइव चैट का कोई ऑप्शन नहीं दिया गया, सिर्फ रिकॉर्डेड क्लिप्स भेजी जाती रहीं।

रिपोर्ट कहती है कि कि महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई। ये पैसे अलग-अलग बहानों से मंगवाए गए, जैसे कि जॉर्ज क्लूनी का फाउंडेशन सपोर्ट करना, प्राइवेट प्रोजेक्ट्स में इनवेस्टमेंट या ट्रैवल अरेंजमेंट्स आदि।

इस घटना ने एक बार फिर से सोशल मीडिया और AI बेस्ड फ्रॉड को लेकर चिंता बढ़ा दी है। डीपफेक टेक्नोलॉजी इतनी एडवांस हो चुकी है कि अब आम आदमी के लिए असली और नकली में फर्क करना मुश्किल हो रहा है। साइबर एक्सपर्ट्स का कहना है कि आने वाले वक्त में ऐसे फ्रॉड्स और भी बढ़ सकते हैं, खासकर जब AI टूल्स अब पब्लिकली अवेलेबल हैं और इनका इस्तेमाल किसी भी मकसद के लिए किया जा सकता है।

इस केस के बाद लोकल अथॉरिटीज ने जांच शुरू कर दी है और लोगों को अलर्ट रहने की सलाह दी है। खास तौर पर सोशल मीडिया पर किसी भी सेलिब्रिटी, अनजान अकाउंट या संदिग्ध मैसेज से जुड़ी बातचीत में सावधानी बरतने को कहा गया है।
Comments

लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।

ये भी पढ़े: Deepfake, deepfake scam, Deepfake fraud
नितेश पपनोई Nitesh has almost seven years of experience in news writing and reviewing tech products like smartphones, headphones, and smartwatches. At Gadgets 360, he is covering all ...और भी
Share on Facebook Gadgets360 Twitter ShareTweet Share Snapchat Reddit आपकी राय google-newsGoogle News
Turbo Read

विज्ञापन

Follow Us

विज्ञापन

#ताज़ा ख़बरें
  1. LG ने मेड इन इंडिया AC भारत में किए लॉन्च, खास फीचर्स से लैस, जानें सबकुछ
  2. boAt की डैशकैम मार्केट में एंट्री! GPS, ADAS सपोर्ट के साथ लॉन्च किए 3 मॉडल, कीमत Rs 2,499 से शुरू
  3. Bharat Taxi vs Ola vs Uber vs Rapido: एक ही रूट पर किसका किराया कम?
  4. Google की ओर से खुशखबरी! Android से iPhone में चुटकी में होगी फाइल शेयर
  5. Oppo Find X9s के इंटरनेशनल मार्केट में लॉन्च की तैयारी, MediaTek Dimensity 9500s हो सकता है चिपसेट
  6. Honor 600 में होगी सेगमेंट की सबसे बड़ी बैटरी, टिप्सटर ने किया खुलासा
  7. Apple का iPhone 17e जल्द हो सकता है लॉन्च, MagSafe चार्जिंग का मिल सकता है फीचर
  8. अब अंतरिक्ष में चला पाएंगे iPhone, NASA ने दी अनुमति, मिलेगी चांद और वायुमंडल की अनोखी फोटो
  9. 13MP कैमरा, 14550mAh बैटरी के साथ Brave Ark एंड्रॉयड पीसी लॉन्च
  10. 100 फीट बड़े एस्टरॉयड से आज धरती को खतरा!
© Copyright Red Pixels Ventures Limited 2026. All rights reserved.
ट्रेंडिंग प्रॉडक्ट्स »
लेटेस्ट टेक ख़बरें »