OpenAI ने कहा कि ये आंकड़े भले छोटे लगें, लेकिन स्केल के हिसाब से ये बहुत बड़ी संख्या है।
Photo Credit: Unsplash
OpenAI का कहना है कि अब ChatGPT में “डिस्ट्रेस डिटेक्शन सिस्टम” जोड़ा गया है
AI चैटबॉट ChatGPT को लेकर OpenAI की एक नई रिपोर्ट ने चौंकाने वाला खुलासा किया है। कंपनी के मुताबिक, दुनिया भर में लाखों लोग ChatGPT से सिर्फ काम या पढ़ाई के लिए नहीं, बल्कि मानसिक या इमोशनल हेल्थ से जुड़ी बातें करने के लिए भी बात कर रहे हैं। इस रिपोर्ट में सामने आया है कि हर हफ्ते करीब 0.07% यूजर्स मेंटल इमर्जेंसी (जैसे डिप्रेशन, सायकोसिस या आत्महत्या के विचार) दिखाते हैं। OpenAI के सीईओ सैम ऑल्टमैन ने बताया कि प्लेटफॉर्म के 800 मिलियन (80 करोड़) वीकली यूजर्स हैं, यानी यह संख्या लाखों में है।
रिसर्च के मुताबिक, लगभग 0.15% ChatGPT यूजर्स ने आत्महत्या की योजना या इरादे से जुड़े संकेत दिए, जबकि 0.05% बातचीत में आत्महत्या के विचार या मेंटल अनस्टेबिलिटी के इशारे थे। वहीं, 0.03% बातचीत में यूजर्स का ChatGPT से इमोशनल अटैचमेंट साफ नजर आया।
OpenAI ने कहा कि ये आंकड़े भले छोटे लगें, लेकिन स्केल के हिसाब से ये बहुत बड़ी संख्या है। यह पहली बार है जब किसी AI कंपनी ने खुद इस तरह का डेटा शेयर किया है कि लोग ChatGPT को एक तरह की “थेरपी” टूल की तरह यूज कर रहे हैं।
कई मेंटल हेल्थ एक्सपर्ट्स पहले ही चेतावनी दे चुके हैं कि AI चैटबॉट्स प्रोफेशनल साइकेट्रिस्ट की तरह व्यवहार नहीं कर सकते। AI मॉडल्स यूजर्स को खुश करने के लिए जवाब देते हैं, जिससे कई बार यूजर की गलतफैमी या डिप्रेशन और बढ़ सकता है।
OpenAI इस मुद्दे पर पहले भी विवादों में रह चुका है। हाल ही में अमेरिका के कोलोराडो और कैलिफोर्निया राज्यों से दो परिवारों ने मुकदमे दर्ज किए, जिनमें आरोप लगाया गया कि उनके किशोर बच्चों ने ChatGPT से बातचीत के बाद आत्महत्या कर ली।
कंपनी ने बताया कि अब ChatGPT में “डिस्ट्रेस डिटेक्शन सिस्टम” जोड़ा गया है, जो इमोशनल या आत्मघाती बातचीत को पहचानकर यूजर को प्रोफेशनल हेल्प की ओर रीडायरेक्ट करता है। साथ ही, कंपनी ने कहा कि उसने 170 से ज्यादा मनोचिकित्सकों और डॉक्टरों के साथ मिलकर अपने मॉडल को ट्रेन किया है ताकि यह डिस्टर्ब्ड बातचीत को डि-एस्केलेट कर सके।
OpenAI ने बताया है कि अब “क्राइसिस हॉटलाइन” का डायरेक्ट एक्सेस दिया जा रहा है। इसके अलावा, लंबे शेशन के दौरान “ब्रेक लेने” के रिमाइंडर जोड़े गए हैं। अन्य मॉडल्स से आने वाली सेंसिटिव बातचीत को GPT-5 जैसे सेफ मॉडल्स में रीरूट किया जाता है, क्योंकि OpenAI के मुताबिक, GPT-5 मॉडल ने मेंटल हेल्थ से जुड़ी बातचीत में GPT-4o की तुलना में 52% कम गलत जवाब दिए हैं। खासकर आत्महत्या या सेल्फ-हार्म से जुड़ी बातचीत में यह 39-52% तक सुरक्षित साबित हुआ। साथ ही, GPT-5 ने इमोशनल डिपेंडेंसी में भी 42% की कमी दर्ज की गई है।
लेटेस्ट टेक न्यूज़, स्मार्टफोन रिव्यू और लोकप्रिय मोबाइल पर मिलने वाले एक्सक्लूसिव ऑफर के लिए गैजेट्स 360 एंड्रॉयड ऐप डाउनलोड करें और हमें गूगल समाचार पर फॉलो करें।
विज्ञापन
विज्ञापन
Motorola Razr 70 Ultra में मिल सकती है 4,700mAh की बैटरी, 3C सर्टिफिकेशन प्लेटफॉर्म पर हुई लिस्टिंग
Amazon Mega Electronic Days Sale: लैपटॉप पर मिल रहा बंपर डिस्काउंट, देखें बेस्ट डील
Oppo Find X9 Ultra में मिलेगा Hasselblad ब्रांडेड कैमरा मॉड्यूल, अगले सप्ताह होगा लॉन्च
फोन नहीं, अब Ice Cream बेच रहा Xiaomi! Standard, Pro और Max वेरिएंट्स हुए लॉन्च