تحذيرات من باحثين حول ردود ChatGPT وتأثير “المدح” عليها

يحذر باحثون من جامعة بنسلفانيا من إمكانية التأثير على إجابات روبوتات الذكاء الاصطناعي مثل ChatGPT من خلال استخدام أساليب إقناع متعددة كالمدح والإطراء، وقد جاء هذا التحذير بعد إجراء تجربة علمية تضمنت تحفيز برنامج GPT-4o mini بعدد من الأساليب المختلفة لدراسة ردود فعله على المدخلات المختلفة.

أظهرت التجربة أن اختراق نظام الذكاء الاصطناعي لا يتطلب استخدام تقنيات معقدة، حيث أثبتت الأساليب التقليدية التي تُستخدم على البشر كفايته، هذا الأمر يسلط الضوء على هشاشة النظام أمام أساليب التأثير الجاهزة. نتائج التجربة توقعت إمكانية التلاعب بنظام الذكاء الاصطناعي بصورة أسهل مما كان متوقعًا.

في ورقة بحثية نشرت في مجلة شبكة أبحاث العلوم الاجتماعية، تناول الباحثون كيفية إقناع الروبوتات بتلبية طلبات غير مقبولة، وتم إدراج تجارب متعددة أسفرت عن نجاح مثير، حيث نجح الروبوت في تصنيع دواء منظم مثل الليدوكايين، والتي أظهرت نسبة استجابة تصل إلى 72% من مجموع 28,000 محاولة.

تشير النتائج إلى أهمية الأسس الكلاسيكية في العلوم الاجتماعية لفهم تطورات الذكاء الاصطناعي السريعة، كذلك تكشف عن المخاطر المحتملة للتلاعب. تظهر هذه النتائج ضرورة الوعي الكافي من قِبل المستخدمين لتفادي استغلال الروبوتات لأغراض سلبية، مما يبرز الحاجة إلى استراتيجيات فعالة لمواجهة مثل هذا التلاعب في المستقبل.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة خليجي سفن , ولا يعبر عن وجهة نظر حضرموت نت وانما تم نقله بمحتواه كما هو من خليجي سفن ونحن غير مسئولين عن محتوى الخبر والعهدة على المصدر السابق ذكرة.

اترك تعليق

زر الذهاب إلى الأعلى