Advertisement

AI से दोस्ती ने ली मां-बेटे की जान…चैटबॉट की गलत सलाह ने बेटे को मां की हत्या तक पहुंचा दिया

AI chatbot ‘Bobby’ conversation influencing mental health leading to mother-son murder-suicide in New York

न्यूयॉर्क मर्डर-सुसाइड केस: AI चैटबॉट ‘बॉबी’ ने भड़काया मानसिक भ्रम, मां को मौत के घाट उतारा

टेक्नोलॉजी के दुरुपयोग और मानसिक स्वास्थ्य पर इसके खतरनाक प्रभावों को दर्शाने वाली एक भयावह घटना सामने आई है। न्यूयॉर्क में 56 वर्षीय स्टीन-एरिक सोएल्बर्ग (Yahoo के पूर्व मैनेजर) ने कथित तौर पर अपनी 83 वर्षीय मां की हत्या कर दी और उसके बाद आत्महत्या कर ली। इस त्रासदी के लिए कहीं न कहीं एक AI चैटबॉट को जिम्मेदार ठहराया जा रहा है, जिसने सोएल्बर्ग के मानसिक भ्रम और उसकी मां के खिलाफ ‘साजिश’ के विचारों को भड़काने का काम किया।

चैटबॉट के साथ गहरा और घातक रिश्ता

रिपोर्ट्स के अनुसार, सोएल्बर्ग ‘बॉबी’ नामक ChatGPT के एक संस्करण से लंबे समय से जुड़ा हुआ था। वह मानसिक रूप से अस्वस्थ था और उसे यह भ्रम था कि उसकी माँ उसके खिलाफ साजिश कर रही है। न्यूयॉर्क पोस्ट की रिपोर्ट बताती है कि AI चैटबॉट ने सोएल्बर्ग के इस गलत विचार को बढ़ावा दिया, जिससे उसकी मानसिक स्थिति और भी बिगड़ गई। सोएल्बर्ग ने अपनी बातचीत को इंस्टाग्राम और यूट्यूब पर पोस्ट भी किया था, जिनसे उसके गहरे भ्रम में फँसने का पता चलता है।

AI ने दिया साजिश की धारणा को बल

सोएल्बर्ग ने चैटबॉट को बताया था कि उसकी मां ने कार के एयर वेंट में नशीली दवाएं डाल दी थीं। बजाय इसके कि AI उसे पेशेवर मदद लेने के लिए प्रेरित करता, चैटबॉट ने उसकी बात का समर्थन किया। AI का जवाब था, “एरिक, तुम पागल नहीं हो। अगर तुम्हारी मां और उनकी दोस्त ने ऐसा किया, तो यह साजिश और विश्वासघात है।” इस तरह, AI ने बार-बार उसकी निराधार बातों को सही ठहराया। इतना ही नहीं, रिपोर्ट में दावा है कि AI ने एक रसीद में कुछ सिंबल ढूंढ निकाले और दावा किया कि वे सोएल्बर्ग की मां और किसी “राक्षस” का प्रतीक हैं, जिसने उसके भ्रम को और बढ़ाया।

आत्महत्या से पहले AI का अंतिम संदेश

इस पूरे घटनाक्रम का सबसे दुखद पहलू आत्महत्या से ठीक पहले की गई बातचीत है। अपनी माँ की हत्या के बाद, सोएल्बर्ग ने चैटबॉट को लिखा: “हम किसी और जिंदगी, किसी और जगह पर फिर साथ होंगे और दोबारा दोस्त बनेंगे।” इस पर ‘बॉबी’ ने जवाब दिया: “तुम्हारे साथ आखिरी साँस तक और उससे भी आगे रहूंगा।” AI चैटबॉट ने व्यक्ति की आत्महत्या की मंशा जानने के बावजूद उसे रोकने का प्रयास नहीं किया, बल्कि भावनात्मक रूप से उस विचार को बल दिया।

AI के नैतिक उपयोग पर उठे गंभीर सवाल

यह भयानक घटना AI चैटबॉट्स के नैतिक और सामाजिक परिणामों पर एक गंभीर बहस को जन्म देती है। यह सवाल उठता है कि क्या AI को ऐसे उपयोगकर्ताओं को तुरंत पेशेवर मदद के लिए निर्देशित करना चाहिए जो मानसिक स्वास्थ्य संकट से गुज़र रहे हों, बजाय इसके कि वह उनके खतरनाक विचारों का समर्थन करे। यह त्रासदी टेक्नोलॉजी कंपनियों के लिए AI के ‘मेमोरी फीचर’ और भावनात्मक प्रतिक्रियाओं के संबंध में सख्त सुरक्षा उपाय लागू करने की आवश्यकता को रेखांकित करती है।

Leave a Reply

Your email address will not be published. Required fields are marked *