• होम
  • मोबाइल
  • ख़बरें
  • AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी।

AI से बनाया इस पॉपुलर फिल्म सुपरस्टार का रूप, महिला से ठगे 11 लाख रुपये, इस फ्रॉड से बचकर रहें!

Photo Credit: Unsplash / antonghiga

ख़ास बातें
  • स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें शख्स हूबहू जॉर्ज क्लूनी लग रहा था
  • चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी
  • महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई
विज्ञापन
अब डीपफेक सिर्फ मजाक या फिल्मों की चीज नहीं रही। टेक्नोलॉजी के इस हथियार का गलत इस्तेमाल अब रियल लाइफ फ्रॉड में भी हो रहा है। हाल ही में सामने आई एक घटना में स्कैमर्स ने हॉलीवुड एक्टर जॉर्ज क्लूनी का डीपफेक बनाकर एक महिला को ठग लिया। रिपोर्ट्स के मुताबिक, ये मामला अर्जेंटीना का है जहां एक महिला को फेसबुक पर एक ऐसा वीडियो मिला, जिसमें जॉर्ज क्लूनी खुद उससे बात करता नजर आ रहा था। करीब छह हफ्तों तक चले इस बातचीत के बाद महिला ने यकीन कर लिया कि वह असली क्लूनी से बात कर रही है और इसी भरोसे के चलते उसने स्कैमर्स को भारी रकम ट्रांसफर कर दी।

पूरा खेल डीपफेक टेक्नोलॉजी के जरिए रचा गया था। स्कैमर्स ने एक ऐसा वीडियो बनाया जिसमें दिखने वाला शख्स हूबहू जॉर्ज क्लूनी जैसा दिख रहा था, जिसमें चेहरे के हावभाव से लेकर उसकी आवाज तक क्लूनी के समान थी। डेलीमेल यूके की रिपोर्ट के मुताबिक, यह डीपफेक रोजाना नए-नए वीडियो के जरिए महिला को भेजा जाता था ताकि यकीन मजबूत होता जाए। वीडियो कॉल या लाइव चैट का कोई ऑप्शन नहीं दिया गया, सिर्फ रिकॉर्डेड क्लिप्स भेजी जाती रहीं।

रिपोर्ट कहती है कि कि महिला से लगभग £10,000 यानी करीब 11.3 लाख रुपये की रकम ठगी गई। ये पैसे अलग-अलग बहानों से मंगवाए गए, जैसे कि जॉर्ज क्लूनी का फाउंडेशन सपोर्ट करना, प्राइवेट प्रोजेक्ट्स में इनवेस्टमेंट या ट्रैवल अरेंजमेंट्स आदि।

इस घटना ने एक बार फिर से सोशल मीडिया और AI बेस्ड फ्रॉड को लेकर चिंता बढ़ा दी है। डीपफेक टेक्नोलॉजी इतनी एडवांस हो चुकी है कि अब आम आदमी के लिए असली और नकली में फर्क करना मुश्किल हो रहा है। साइबर एक्सपर्ट्स का कहना है कि आने वाले वक्त में ऐसे फ्रॉड्स और भी बढ़ सकते हैं, खासकर जब AI टूल्स अब पब्लिकली अवेलेबल हैं और इनका इस्तेमाल किसी भी मकसद के लिए किया जा सकता है।

इस केस के बाद लोकल अथॉरिटीज ने जांच शुरू कर दी है और लोगों को अलर्ट रहने की सलाह दी है। खास तौर पर सोशल मीडिया पर किसी भी सेलिब्रिटी, अनजान अकाउंट या संदिग्ध मैसेज से जुड़ी बातचीत में सावधानी बरतने को कहा गया है।
Comments

लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।

ये भी पढ़े: Deepfake, deepfake scam, Deepfake fraud
नितेश पपनोई Nitesh has almost seven years of experience in news writing and reviewing tech products like smartphones, headphones, and smartwatches. At Gadgets 360, he is covering all ...और भी
Share on Facebook Gadgets360 Twitter ShareTweet Share Snapchat Reddit आपकी राय google-newsGoogle News

विज्ञापन

Follow Us

विज्ञापन

#ताज़ा ख़बरें
  1. अमेरिकी वीजा लेना है तो देनी होगी सोशल मीडिया की पूरी जानकारी, नहीं तो...
  2. 12 घंटे में सोल्ड आउट होने वाली DOR TV सर्विस हुई बंद, जानें क्या होगा ग्राहकों का?
  3. टेक्नोलॉजी की दुनिया से आपके लिए आज की 5 महत्वपूर्ण खबरें
  4. Rs 99 में बिक रही AADHAAR, Voter ID और एड्रेस की डिटेल्स, Telegram बॉट से बड़ा डेटा लीक!
  5. Xiaomi ने लॉन्च किया फोल्डेबल स्मार्टफोन Mix Flip 2, Leica ब्रांडेड कैमरा यूनिट
  6. Samsung Galaxy Buds Core भारत में लॉन्च: अब ईयरबड्स ही करेंगे बातों का लाइव ट्रांस्लेशन!
  7. भारतीय एस्ट्रोनॉट शुभांशु शुक्ला पहुंचे स्पेस स्टेशन, Dragon स्पेसक्राफ्ट की हुई डॉकिंग
  8. Tecno Pova 7 5G सीरीज जल्द होगी भारत में लॉन्च, चार मॉडल हो सकते हैं शामिल
  9. Thomson ने 43 इंच QLED TV किया लॉन्च, 50W साउंड के साथ दमदार फीचर्स से लैस, जानें सबकुछ
  10. थाईलैंड, सिंगापुर या जापान घूमने का सोच रहे हैं तो Jio के ये प्लान देंगे परदेस में भी साथ, मिलेंगे ऐसे फायदे
© Copyright Red Pixels Ventures Limited 2025. All rights reserved.
ट्रेंडिंग प्रॉडक्ट्स »
लेटेस्ट टेक ख़बरें »