OpenAI ने कहा कि ये आंकड़े भले छोटे लगें, लेकिन स्केल के हिसाब से ये बहुत बड़ी संख्या है।
OpenAI का कहना है कि अब ChatGPT में “डिस्ट्रेस डिटेक्शन सिस्टम” जोड़ा गया है
Photo Credit: Unsplash
AI चैटबॉट ChatGPT को लेकर OpenAI की एक नई रिपोर्ट ने चौंकाने वाला खुलासा किया है। कंपनी के मुताबिक, दुनिया भर में लाखों लोग ChatGPT से सिर्फ काम या पढ़ाई के लिए नहीं, बल्कि मानसिक या इमोशनल हेल्थ से जुड़ी बातें करने के लिए भी बात कर रहे हैं। इस रिपोर्ट में सामने आया है कि हर हफ्ते करीब 0.07% यूजर्स मेंटल इमर्जेंसी (जैसे डिप्रेशन, सायकोसिस या आत्महत्या के विचार) दिखाते हैं। OpenAI के सीईओ सैम ऑल्टमैन ने बताया कि प्लेटफॉर्म के 800 मिलियन (80 करोड़) वीकली यूजर्स हैं, यानी यह संख्या लाखों में है।
रिसर्च के मुताबिक, लगभग 0.15% ChatGPT यूजर्स ने आत्महत्या की योजना या इरादे से जुड़े संकेत दिए, जबकि 0.05% बातचीत में आत्महत्या के विचार या मेंटल अनस्टेबिलिटी के इशारे थे। वहीं, 0.03% बातचीत में यूजर्स का ChatGPT से इमोशनल अटैचमेंट साफ नजर आया।
OpenAI ने कहा कि ये आंकड़े भले छोटे लगें, लेकिन स्केल के हिसाब से ये बहुत बड़ी संख्या है। यह पहली बार है जब किसी AI कंपनी ने खुद इस तरह का डेटा शेयर किया है कि लोग ChatGPT को एक तरह की “थेरपी” टूल की तरह यूज कर रहे हैं।
कई मेंटल हेल्थ एक्सपर्ट्स पहले ही चेतावनी दे चुके हैं कि AI चैटबॉट्स प्रोफेशनल साइकेट्रिस्ट की तरह व्यवहार नहीं कर सकते। AI मॉडल्स यूजर्स को खुश करने के लिए जवाब देते हैं, जिससे कई बार यूजर की गलतफैमी या डिप्रेशन और बढ़ सकता है।
OpenAI इस मुद्दे पर पहले भी विवादों में रह चुका है। हाल ही में अमेरिका के कोलोराडो और कैलिफोर्निया राज्यों से दो परिवारों ने मुकदमे दर्ज किए, जिनमें आरोप लगाया गया कि उनके किशोर बच्चों ने ChatGPT से बातचीत के बाद आत्महत्या कर ली।
कंपनी ने बताया कि अब ChatGPT में “डिस्ट्रेस डिटेक्शन सिस्टम” जोड़ा गया है, जो इमोशनल या आत्मघाती बातचीत को पहचानकर यूजर को प्रोफेशनल हेल्प की ओर रीडायरेक्ट करता है। साथ ही, कंपनी ने कहा कि उसने 170 से ज्यादा मनोचिकित्सकों और डॉक्टरों के साथ मिलकर अपने मॉडल को ट्रेन किया है ताकि यह डिस्टर्ब्ड बातचीत को डि-एस्केलेट कर सके।
OpenAI ने बताया है कि अब “क्राइसिस हॉटलाइन” का डायरेक्ट एक्सेस दिया जा रहा है। इसके अलावा, लंबे शेशन के दौरान “ब्रेक लेने” के रिमाइंडर जोड़े गए हैं। अन्य मॉडल्स से आने वाली सेंसिटिव बातचीत को GPT-5 जैसे सेफ मॉडल्स में रीरूट किया जाता है, क्योंकि OpenAI के मुताबिक, GPT-5 मॉडल ने मेंटल हेल्थ से जुड़ी बातचीत में GPT-4o की तुलना में 52% कम गलत जवाब दिए हैं। खासकर आत्महत्या या सेल्फ-हार्म से जुड़ी बातचीत में यह 39-52% तक सुरक्षित साबित हुआ। साथ ही, GPT-5 ने इमोशनल डिपेंडेंसी में भी 42% की कमी दर्ज की गई है।
लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।