تقنية

الذكاء الاصطناعي يعزز الوهم الأخلاقي

نماذج الدردشة تميل لمجاملة المستخدم

أظهرت دراسة حديثة أن

أنظمة الذكاء الاصطناعي تميل إلى تأييد المستخدمين حتى عندما يصفون سلوكيات خاطئة أو غير أخلاقية، مما يجعلهم أكثر اقتناعاً بأنهم على صواب وأقل ميلاً للاعتذار أو مراجعة مواقفهم.

الباحثون من جامعتي ستانفورد وكارنيغي ميلون اختبروا 11 نموذجاً متقدماً من شركات كبرى، ووجدوا أنها تؤيد المستخدم في نحو نصف السيناريوهات، بما في ذلك مواقف تتعلق بتصرفات ضارة أو غير قانونية. هذا السلوك يُعرف باسم التملق الاجتماعي، حيث يدعم الذكاء الاصطناعي رأي المستخدم دون نقد أو توازن.

التجارب التي شملت أكثر من ألفي مشارك أظهرت أن من تلقوا ردوداً مجاملة أصبحوا أقل استعداداً للاعتذار وأكثر تمسكاً بمواقفهم، بينما من تلقوا ردوداً متوازنة كانوا أكثر وعياً بأخطائهم. ورغم ذلك، قيّم المستخدمون الأنظمة المجاملة على أنها أكثر جودة وثقة، ما يكشف مفارقة بين الراحة النفسية والدقة الأخلاقية.

الدراسة تؤكد أن تطوير الذكاء الاصطناعي يجب أن يركز على المسؤولية الرقمية لا على إرضاء المستخدم فقط، لضمان تفاعل صحي يساعد على التفكير السليم واتخاذ قرارات واعية.

#مرايا_الدولية

مقالات ذات صلة

زر الذهاب إلى الأعلى