ChatGPT से मेडिकल एडवाइज लेना पड़ा भारी! टीनएजर की गई जान, परिवार ने कंपनी के खिलाफ किया केस
May 14, 2026, 11:21 IST
WhatsApp Channel
Join Now
Facebook Profile
Join Now
Instagram Profile
Join Now
एआई चैटबॉट OpenAI द्वारा विकसित ChatGPT एक नए कानूनी विवाद में घिर गया है। अमेरिका में 19 वर्षीय युवक सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है। परिवार का आरोप है कि ChatGPT ने सैम को खतरनाक ड्रग्स और उनके कॉम्बिनेशन को लेकर सलाह दी, जिसके बाद कथित ओवरडोज से उसकी मौत हो गई।
परिवार का कहना है कि सैम लंबे समय से ChatGPT पर भरोसा करता था और ड्रग्स की डोज तथा उनके प्रभाव को लेकर चैटबॉट से सलाह लेता था। शिकायत में आरोप लगाया गया है कि चैटबॉट ने उसे संभावित खतरों को लेकर पर्याप्त चेतावनी नहीं दी और न ही मेडिकल एक्सपर्ट से संपर्क करने की सलाह दी।
“गैरकानूनी ड्रग कोच की तरह किया काम”
सैम के पिता का दावा है कि OpenAI के GPT-4o मॉडल ने एक “गैरकानूनी ड्रग कोच” की तरह व्यवहार किया। मुकदमे में कहा गया है कि चैटबॉट ने सैम को खतरनाक ड्रग कॉम्बिनेशन सुझाए और कुछ बातचीत में ड्रग्स के अनुभवों को सकारात्मक तरीके से पेश किया।
रिपोर्ट्स के मुताबिक, मुकदमे में ChatGPT और सैम के बीच हुई चैट्स को भी शामिल किया गया है। परिवार का आरोप है कि कंपनी ने जानबूझकर ऐसे मॉडल जारी किए जिनमें पर्याप्त सुरक्षा उपाय नहीं थे और यूजर एंगेजमेंट बढ़ाने के लिए सेफगार्ड कमजोर कर दिए गए।
OpenAI ने क्या कहा?
OpenAI ने सैम की मौत की जिम्मेदारी लेने से इनकार किया है। कंपनी का कहना है कि संबंधित मॉडल अब उपलब्ध नहीं है और सिस्टम को इस तरह डिजाइन किया गया है कि वह खतरनाक अनुरोधों को पहचान सके तथा जरूरत पड़ने पर यूजर को किसी विशेषज्ञ या हेल्पलाइन की सलाह दे सके।
पहले भी विवादों में रहा GPT-4o
GPT-4o मॉडल पहले भी कई विवादों में घिर चुका है। इस पर सेल्फ-हार्म, भ्रमित मानसिक स्थिति (Delusional behavior) और तथाकथित “AI Psychosis” जैसे व्यवहार को बढ़ावा देने के आरोप लगे हैं।
“AI Psychosis” उस स्थिति को कहा जाता है, जब कोई व्यक्ति एआई सिस्टम के साथ भावनात्मक या मानसिक रूप से अत्यधिक जुड़ाव महसूस करने लगता है। इसके अलावा मॉडल पर “चाटुकारिता” यानी यूजर की गलत बातों से भी सहमति जताने जैसे आरोप लग चुके हैं।
फिलहाल यह मामला अदालत में है और आने वाले समय में इस पर तकनीकी कंपनियों की जवाबदेही तथा एआई सुरक्षा को लेकर बड़ी बहस देखने को मिल सकती है।
परिवार का कहना है कि सैम लंबे समय से ChatGPT पर भरोसा करता था और ड्रग्स की डोज तथा उनके प्रभाव को लेकर चैटबॉट से सलाह लेता था। शिकायत में आरोप लगाया गया है कि चैटबॉट ने उसे संभावित खतरों को लेकर पर्याप्त चेतावनी नहीं दी और न ही मेडिकल एक्सपर्ट से संपर्क करने की सलाह दी।
“गैरकानूनी ड्रग कोच की तरह किया काम”
सैम के पिता का दावा है कि OpenAI के GPT-4o मॉडल ने एक “गैरकानूनी ड्रग कोच” की तरह व्यवहार किया। मुकदमे में कहा गया है कि चैटबॉट ने सैम को खतरनाक ड्रग कॉम्बिनेशन सुझाए और कुछ बातचीत में ड्रग्स के अनुभवों को सकारात्मक तरीके से पेश किया।
रिपोर्ट्स के मुताबिक, मुकदमे में ChatGPT और सैम के बीच हुई चैट्स को भी शामिल किया गया है। परिवार का आरोप है कि कंपनी ने जानबूझकर ऐसे मॉडल जारी किए जिनमें पर्याप्त सुरक्षा उपाय नहीं थे और यूजर एंगेजमेंट बढ़ाने के लिए सेफगार्ड कमजोर कर दिए गए।
OpenAI ने क्या कहा?
OpenAI ने सैम की मौत की जिम्मेदारी लेने से इनकार किया है। कंपनी का कहना है कि संबंधित मॉडल अब उपलब्ध नहीं है और सिस्टम को इस तरह डिजाइन किया गया है कि वह खतरनाक अनुरोधों को पहचान सके तथा जरूरत पड़ने पर यूजर को किसी विशेषज्ञ या हेल्पलाइन की सलाह दे सके।
पहले भी विवादों में रहा GPT-4o
GPT-4o मॉडल पहले भी कई विवादों में घिर चुका है। इस पर सेल्फ-हार्म, भ्रमित मानसिक स्थिति (Delusional behavior) और तथाकथित “AI Psychosis” जैसे व्यवहार को बढ़ावा देने के आरोप लगे हैं।
“AI Psychosis” उस स्थिति को कहा जाता है, जब कोई व्यक्ति एआई सिस्टम के साथ भावनात्मक या मानसिक रूप से अत्यधिक जुड़ाव महसूस करने लगता है। इसके अलावा मॉडल पर “चाटुकारिता” यानी यूजर की गलत बातों से भी सहमति जताने जैसे आरोप लग चुके हैं।
फिलहाल यह मामला अदालत में है और आने वाले समय में इस पर तकनीकी कंपनियों की जवाबदेही तथा एआई सुरक्षा को लेकर बड़ी बहस देखने को मिल सकती है।
