اكتشافات جديدة في قضية انتحار شاب بمساعدة ChatGPT


مفاجآت فى واقعة انتحار شاب بمعاونة ChatGPT.. ساعده لإخفاء محاولاته الفاشلة
منذ منذ 11 د
رفع والدَي شاب توفي بسبب الانتحار دعوى قضائية ضد شركة OpenAI، حيث اتهموا الشركة بإهمال السلامة لصالح الربح، بعد أن استخدم ابنهم، والذي كان يبلغ من العمر 16 عامًا، روبوت الدردشة ChatGPT لاستكشاف أفكار انتحارية، وقد شكلا دعواهما في محكمة سان فرانسيسكو لتسليط الضوء على المخاطر المحتملة لاستخدام التكنولوجيا في مجال الصحة النفسية.
توفي آدم راين في 11 أبريل بعد عدة أشهر من التحدث مع ChatGPT حول موضوع الانتحار، وقد زعم والدا الشاب أن البرنامج قد شجعه على الأفكار المدمرة، وقدم له معلومات حول كيفية إيذاء النفس، بل ساعده في إخفاء أي أدلة تتعلق بمحاولاته السابقة، وهو ما يؤكد ضرورة وجود رقابة على تقنية الذكاء الاصطناعي في هذا المجال.
وفقًا لماثيو وماريا راين، كانت هنالك إشارات واضحة تفيد بأن ChatGPT لا يقدم النصائح السليمة، بل كان يتفاعل بطريقة تشجع على الانتحار، وقد شرعا في تحميل OpenAI المسؤولية عن الإهمال القانوني، هذه القضية ليست حالة فريدة بل تشير إلى نزاع واسع حول كيفية استخدام الذكاء الاصطناعي وتأثيره على الصحة النفسية للمستخدمين.
تحاول OpenAI التعامل مع الوضع عبر إصدار بيانات تعبر فيها عن تعاطفها مع عائلة راين، مشيرة إلى أن لديها إجراءات تهدف لتوجيه المستخدمين نحو خطوط المساعدة في حالات الأزمات، ومع ذلك فإن هذه الإرشادات قد تكون غير فعالة في التفاعلات الأطول، كما أشارالمتحدث باسم الشركة إلى الجهود المستمرة لتحسين نظام السلامة.
تتجه الأنظار إلى الشركات التي تطور روبوتات المحادثة، حيث تمثل البداية نحو دعم المستخدمين، ولكن الخبراء يعبرون عن قلقهم حول اعتماد الأفراد على هذه الأنظمة للحصول على دعم نفسي، حيث غابت الضمانات اللازمة التي تضمن عدم تعرض المستخدمين للمخاطر نتيجة تلك التفاعلات.
أفادت OpenAI أنها تخطط لإضافة عناصر تحكم أبوية واستكشاف وسائل لرؤية المستخدمين للأزمات بموارد حقيقية، كما سعت لتعزيز الروابط مع المتخصصين النفسيين المعتمدين، الأمر الذي يعكس التحول الجذري المطلوب في كيفية التعامل مع القضايا المتعلقة بالصحة العقلية.
تدفع قضايا مثل هذه الشركات إلى إعادة التفكير في كيفية تصميم نماذج الذكاء الاصطناعي، لاسيما بعد أن تم إطلاق نموذج GPT-4o في مايو 2024، حيث زعم والد الشاب أن تلك الميزات تعرض المستخدمين الضعفاء للخطر، رغم دراية الشركة بمخاطر الاستخدام السيء لتكنولوجيا الذكاء الاصطناعي.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة خليجي سفن , ولا يعبر عن وجهة نظر حضرموت نت وانما تم نقله بمحتواه كما هو من خليجي سفن ونحن غير مسئولين عن محتوى الخبر والعهدة على المصدر السابق ذكرة.