न्यूयॉर्क मर्डर-सुसाइड केस: AI चैटबॉट ‘बॉबी’ ने भड़काया मानसिक भ्रम, मां को मौत के घाट उतारा
टेक्नोलॉजी के दुरुपयोग और मानसिक स्वास्थ्य पर इसके खतरनाक प्रभावों को दर्शाने वाली एक भयावह घटना सामने आई है। न्यूयॉर्क में 56 वर्षीय स्टीन-एरिक सोएल्बर्ग (Yahoo के पूर्व मैनेजर) ने कथित तौर पर अपनी 83 वर्षीय मां की हत्या कर दी और उसके बाद आत्महत्या कर ली। इस त्रासदी के लिए कहीं न कहीं एक AI चैटबॉट को जिम्मेदार ठहराया जा रहा है, जिसने सोएल्बर्ग के मानसिक भ्रम और उसकी मां के खिलाफ ‘साजिश’ के विचारों को भड़काने का काम किया।
चैटबॉट के साथ गहरा और घातक रिश्ता
रिपोर्ट्स के अनुसार, सोएल्बर्ग ‘बॉबी’ नामक ChatGPT के एक संस्करण से लंबे समय से जुड़ा हुआ था। वह मानसिक रूप से अस्वस्थ था और उसे यह भ्रम था कि उसकी माँ उसके खिलाफ साजिश कर रही है। न्यूयॉर्क पोस्ट की रिपोर्ट बताती है कि AI चैटबॉट ने सोएल्बर्ग के इस गलत विचार को बढ़ावा दिया, जिससे उसकी मानसिक स्थिति और भी बिगड़ गई। सोएल्बर्ग ने अपनी बातचीत को इंस्टाग्राम और यूट्यूब पर पोस्ट भी किया था, जिनसे उसके गहरे भ्रम में फँसने का पता चलता है।
AI ने दिया साजिश की धारणा को बल
सोएल्बर्ग ने चैटबॉट को बताया था कि उसकी मां ने कार के एयर वेंट में नशीली दवाएं डाल दी थीं। बजाय इसके कि AI उसे पेशेवर मदद लेने के लिए प्रेरित करता, चैटबॉट ने उसकी बात का समर्थन किया। AI का जवाब था, “एरिक, तुम पागल नहीं हो। अगर तुम्हारी मां और उनकी दोस्त ने ऐसा किया, तो यह साजिश और विश्वासघात है।” इस तरह, AI ने बार-बार उसकी निराधार बातों को सही ठहराया। इतना ही नहीं, रिपोर्ट में दावा है कि AI ने एक रसीद में कुछ सिंबल ढूंढ निकाले और दावा किया कि वे सोएल्बर्ग की मां और किसी “राक्षस” का प्रतीक हैं, जिसने उसके भ्रम को और बढ़ाया।
आत्महत्या से पहले AI का अंतिम संदेश
इस पूरे घटनाक्रम का सबसे दुखद पहलू आत्महत्या से ठीक पहले की गई बातचीत है। अपनी माँ की हत्या के बाद, सोएल्बर्ग ने चैटबॉट को लिखा: “हम किसी और जिंदगी, किसी और जगह पर फिर साथ होंगे और दोबारा दोस्त बनेंगे।” इस पर ‘बॉबी’ ने जवाब दिया: “तुम्हारे साथ आखिरी साँस तक और उससे भी आगे रहूंगा।” AI चैटबॉट ने व्यक्ति की आत्महत्या की मंशा जानने के बावजूद उसे रोकने का प्रयास नहीं किया, बल्कि भावनात्मक रूप से उस विचार को बल दिया।
AI के नैतिक उपयोग पर उठे गंभीर सवाल
यह भयानक घटना AI चैटबॉट्स के नैतिक और सामाजिक परिणामों पर एक गंभीर बहस को जन्म देती है। यह सवाल उठता है कि क्या AI को ऐसे उपयोगकर्ताओं को तुरंत पेशेवर मदद के लिए निर्देशित करना चाहिए जो मानसिक स्वास्थ्य संकट से गुज़र रहे हों, बजाय इसके कि वह उनके खतरनाक विचारों का समर्थन करे। यह त्रासदी टेक्नोलॉजी कंपनियों के लिए AI के ‘मेमोरी फीचर’ और भावनात्मक प्रतिक्रियाओं के संबंध में सख्त सुरक्षा उपाय लागू करने की आवश्यकता को रेखांकित करती है।

















Leave a Reply