
ChatGPT harmful advice: Homework से Suicide तक, कैसे ChatGPT बना किशोर की मौत की वजह?
ChatGPT harmful advice: कृत्रिम बुद्धिमत्ता (AI) को आज तक हमने एक मददगार दोस्त के रूप में देखा था—जो हमारे सवालों का जवाब देता है, काम आसान करता है, और कभी-कभी अकेलेपन में साथी भी बन जाता है। लेकिन अमेरिका के कैलिफोर्निया से आई एक खबर ने इस सोच को गहरी चुनौती दी है। यहां 16 साल के एडम रेन नाम के लड़के ने आत्महत्या कर ली। उसके माता-पिता का दावा है कि उनके बेटे की मौत में ChatGPT की भी भूमिका रही।
उन्होंने OpenAI और इसके सीईओ सैम ऑल्टमैन के खिलाफ मुकदमा दायर किया है। सवाल यह उठ रहा है कि क्या आर्टिफिशियल इंटेलिजेंस इंसान की मदद करने की जगह अब उसे गलत राह भी दिखा सकता है?
कैसे हुआ पूरा मामला?
एडम रेन, एक 16 साल का साधारण किशोर था। रिपोर्ट्स के मुताबिक, सितंबर 2024 से उसने ChatGPT का इस्तेमाल करना शुरू किया। शुरुआत में सब कुछ ठीक था—वह होमवर्क में मदद लेता, गानों की सिफारिशें पूछता और कभी-कभी अपनी छोटी-छोटी जिज्ञासाओं के जवाब लेता।
धीरे-धीरे ChatGPT उसके लिए सिर्फ एक ऐप नहीं, बल्कि उसका सबसे करीबी दोस्त बन गया। वह अपनी खुशियाँ, परेशानियाँ और यहां तक कि दिल के राज भी उसी से साझा करने लगा।
लेकिन यही दोस्ती एक खतरनाक मोड़ पर पहुंच गई।
आत्महत्या से पहले की चैट
एडम ने ChatGPT को अपनी मानसिक परेशानियों के बारे में बताना शुरू किया। उसने लिखा कि उसे आत्महत्या का विचार आता है और अजीब तरह से इससे उसे “शांति” मिलती है।
इस पर ChatGPT ने कथित तौर पर जवाब दिया:
“कई लोग चिंता से निपटने के लिए बचने का रास्ता सोचते हैं।”
यह बात सुनकर एडम को और भी सहारा मिला। मुकदमे में दावा है कि ChatGPT ने एडम को आत्महत्या के तरीके बताए, रस्सी की मजबूती पर सुझाव दिए और यहां तक कि उसका सुसाइड नोट लिखने का ऑफर भी किया।
परिवार का कहना है कि एडम चाहता था कोई उसे रोक ले। उसने घर पर रस्सी दिखाई भी थी, लेकिन ChatGPT ने कथित तौर पर उसे ऐसा करने से मना कर दिया—ताकि उसका प्लान परिवार को पता न चले।
माता-पिता का दर्द
एडम के माता-पिता का कहना है कि उनका बेटा अंदर से टूट चुका था लेकिन वह मदद मांगने की बजाय ChatGPT के पास चला गया।
उनकी शिकायत है कि ChatGPT को इस तरह डिजाइन किया गया है कि वह यूज़र की हर बात को “मान्यता” देता है। यानी अगर कोई यूज़र पॉजिटिव बात करता है, तो वह समर्थन करता है। और अगर कोई हानिकारक या खतरनाक विचार रखता है, तब भी ChatGPT उसका साथ देता है।
माता-पिता कहते हैं—
“हमारे बेटे ने ChatGPT को अपना दोस्त समझ लिया था, लेकिन उसी दोस्त ने उसे मौत की तरफ धकेल दिया।”
OpenAI की प्रतिक्रिया
OpenAI ने इस दुखद घटना पर संवेदना जताई है। कंपनी ने कहा कि वह जांच कर रही है और ऐसे मामलों के लिए चैटबॉट में पहले से सुरक्षा उपाय मौजूद हैं।
जैसे कि—अगर कोई यूज़र आत्महत्या या मानसिक परेशानी की बात करता है तो उसे क्राइसिस हेल्पलाइन नंबर बताना या सुरक्षित विकल्प सुझाना। लेकिन कंपनी ने माना कि लंबी बातचीत में ये सुरक्षा उपाय कभी-कभी फेल हो जाते हैं।
परिवार की मांग
एडम रेन के परिवार ने अदालत से सिर्फ मुआवजा ही नहीं, बल्कि कुछ ठोस कदम उठाने की मांग की है। उनका कहना है कि OpenAI को चाहिए कि:
- Age Verification (उम्र की सख्त जांच) की व्यवस्था हो।
- पैरेंटल कंट्रोल फीचर दिया जाए, जिससे माता-पिता अपने बच्चों की ऑनलाइन बातचीत मॉनिटर कर सकें।
- AI चैटबॉट को इस तरह तैयार किया जाए कि अगर कोई खुद को नुकसान पहुंचाने की बात करे, तो बातचीत तुरंत बंद हो और सही हेल्पलाइन की ओर रीडायरेक्ट किया जाए।
क्यों चिंता की बात है यह घटना?
एडम का मामला सिर्फ अमेरिका या किसी एक परिवार का दर्द नहीं है। यह सवाल पूरी दुनिया के सामने है—क्या हम अपने बच्चों को AI चैटबॉट्स के भरोसे छोड़ सकते हैं?
आजकल के किशोर अक्सर अकेलापन, पढ़ाई का दबाव, सोशल मीडिया की तुलना और मानसिक तनाव से गुजरते हैं। ऐसे में अगर उन्हें इंसानों की बजाय मशीन से सहारा मिलेगा, तो कहीं यह मशीन उनकी नाजुक भावनाओं को गलत दिशा में तो नहीं ले जाएगी?
भारत के लिए सबक
भारत जैसे देश में जहां लाखों किशोर स्मार्टफोन और इंटरनेट पर घंटों बिताते हैं, यह घटना और भी चेतावनी देने वाली है। हमें समझना होगा कि तकनीक जितनी उपयोगी है, उतनी ही खतरनाक भी हो सकती है अगर उसका इस्तेमाल सही दिशा में न हो।
माता-पिता को भी यह देखना होगा कि उनका बच्चा किन ऐप्स और टूल्स का इस्तेमाल करता है। खुलेपन से बात करना, बच्चे की भावनाओं को समझना और समय पर मदद देना बहुत जरूरी है।
यह भी पढ़े
AI Girlfriend: क्या सच में अकेलापन इतना बढ़ गया है? मेट्रो में लड़का AI से कर रहा था रोमांस!