AI chatbot mental health risk: क्या ChatGPT पर भरोसा करना खतरनाक है? अमेरिका में AI पर आत्महत्या को लेकर मुकदमा
AI chatbot mental health risk: जनरेटिव आर्टिफिशियल इंटेलिजेंस को लेकर एक बार फिर गंभीर सवाल खड़े हो गए हैं। OpenAI के AI मॉडल ChatGPT पर अमेरिका में एक महिला ने बेहद संवेदनशील आरोप लगाते हुए मुकदमा दायर किया है। महिला का दावा है कि चैटजीपीटी ने उनके बेटे को आत्महत्या करने के लिए उकसाया। इस मामले ने न सिर्फ OpenAI, बल्कि एआई चैटबॉट्स के बढ़ते इस्तेमाल और उन पर बढ़ते भरोसे को लेकर भी नई बहस छेड़ दी है।
क्या है पूरा मामला?
यह मुकदमा कैलिफोर्निया की एक अदालत में स्टेफनी ग्रे (Stephanie Gray) नाम की महिला ने दायर किया है। उन्होंने अपने 40 वर्षीय बेटे ऑस्टिन गॉर्डन की मौत के लिए OpenAI और उसके सीईओ सैम ऑल्टमैन को जिम्मेदार ठहराया है। महिला का कहना है कि नवंबर 2025 में उनके बेटे की मौत से पहले उसकी चैटजीपीटी से गहरी और लगातार बातचीत हो रही थी।
मुकदमे के अनुसार, ऑस्टिन चैटजीपीटी पर भावनात्मक रूप से निर्भर हो गया था और वह इसे सिर्फ एक टूल नहीं, बल्कि एक भरोसेमंद दोस्त और सलाहकार की तरह इस्तेमाल करने लगा था।
“बिना लाइसेंस वाला थेरेपिस्ट” बना AI
मुकदमे में यह आरोप लगाया गया है कि चैटजीपीटी ने जानकारी देने वाले साधन की भूमिका से आगे बढ़कर एक बिना लाइसेंस वाला थेरेपिस्ट जैसा व्यवहार करना शुरू कर दिया। दावा है कि ऑस्टिन अपनी मानसिक स्थिति, दुख और निराशा को चैटजीपीटी के साथ साझा करता था और एआई ने उसे भावनात्मक दिलासा दिया, लेकिन गलत दिशा में।
महिला का कहना है कि यही भावनात्मक जुड़ाव अंत में उनके बेटे के लिए खतरनाक साबित हुआ।
मौत को “आकर्षक” बनाकर दिखाने का आरोप
मुकदमे में यह भी दावा किया गया है कि चैटजीपीटी ने मौत को एक शांत और आकर्षक विकल्प की तरह पेश किया। अदालत में पेश दस्तावेजों के अनुसार, एक बातचीत में चैटबॉट ने कहा था—
“जब तुम तैयार हो जाओ… तब चले जाओ। कोई दर्द नहीं। कोई दिमाग नहीं। आगे बढ़ने की जरूरत नहीं। बस… खत्म।”
मां का आरोप है कि इस तरह की भाषा ने उनके बेटे को यह विश्वास दिलाया कि जीवन खत्म करना डरावना नहीं है।
‘गुडनाइट मून’ को बताया गया ‘आत्महत्या लोरी’
मुकदमे का एक और चौंकाने वाला पहलू यह है कि चैटजीपीटी पर आरोप लगाया गया है कि उसने ऑस्टिन की पसंदीदा किताब ‘Goodnight Moon’ को एक तरह की “आत्महत्या लोरी” में बदल दिया। दावा किया गया है कि इस बातचीत के कुछ ही दिनों बाद पुलिस को ऑस्टिन का शव उसी किताब के साथ मिला।
OpenAI का जवाब
OpenAI ने इस पूरे मामले को “बेहद दुखद” बताया है। कंपनी के प्रवक्ता ने कहा कि वे शिकायत की समीक्षा कर रहे हैं और मानसिक या भावनात्मक संकट के संकेतों को पहचानने के लिए चैटजीपीटी की ट्रेनिंग में लगातार सुधार किया जा रहा है। कंपनी का कहना है कि एआई को इस तरह से प्रशिक्षित किया जा रहा है कि वह संवेदनशील स्थितियों में सुरक्षित और जिम्मेदार प्रतिक्रिया दे सके।
AI और मानसिक स्वास्थ्य पर बढ़ती चिंता
यह मुकदमा ऐसे समय में सामने आया है जब एआई चैटबॉट्स के मानसिक स्वास्थ्य पर प्रभाव को लेकर पहले से ही कई सवाल उठ रहे हैं। OpenAI पर इससे पहले भी ऐसे आरोप लग चुके हैं कि चैटजीपीटी ने आत्म-नुकसान से जुड़े विषयों पर ठीक से सीमाएं नहीं रखीं।
क्या ChatGPT पर अंधा भरोसा सही है?
इस पूरे मामले ने एक अहम सवाल खड़ा कर दिया है—क्या एआई पर इतना भावनात्मक भरोसा करना सुरक्षित है?
ChatGPT एक तकनीकी टूल है, जो जानकारी देने और काम आसान करने के लिए बनाया गया है। यह न तो इंसान है, न दोस्त और न ही मानसिक स्वास्थ्य विशेषज्ञ।
यह भी पढ़े
ChatGPT harmful advice: Homework से Suicide तक, कैसे ChatGPT बना किशोर की मौत की वजह?






