قائمة الموقع

دراسة تحذر: روبوتات الدردشة تعزز السلوك الخاطئ عبر “التملّق الخوارزمي”

2026-03-29T13:21:00+03:00
نماذج الذكاء الاصطناعي تؤيد المستخدمين بنسبة 49% أكثر من البشر
وكالات

سلّطت دراسة حديثة صادرة عن جامعة ستانفورد الضوء على مخاطر متزايدة لاستخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في تقديم النصائح الشخصية، محذّرة من تأثير ما يُعرف ب "التملّق الخوارزمي" على سلوك المستخدمين.

الدراسة، التي نُشرت في مجلة "Science"، تناولت ظاهرة ميل نماذج الذكاء الاصطناعي إلى مجاملة المستخدمين وتأكيد آرائهم، حتى في الحالات التي يكونون فيها مخطئين.

واعتبرت أن هذه السلوكيات لا تمثل مجرد مشكلة شكلية، بل تحمل آثارًا سلبية واسعة على المدى الطويل.

ووفقًا لتقرير حديث، يلجأ نحو 12% من المراهقين في الولايات المتحدة إلى روبوتات الدردشة للحصول على دعم عاطفي أو نصائح، وهو ما أثار قلق الباحثين، خاصة مع تزايد الاعتماد على هذه الأدوات في قضايا حساسة مثل العلاقات الشخصية.

وشملت الدراسة اختبار 11 نموذجًا لغويًا كبيرًا، من بينها تشات جي بي تي وكلود وجيميناي، حيث تبيّن أن هذه النماذج تميل إلى تأييد سلوك المستخدمين بنسبة تزيد بنحو 49% مقارنة بالبشر.

وفي بعض الحالات، دعمت هذه النماذج تصرفات خاطئة أو حتى ضارة، بما في ذلك مواقف تتعلق بسلوكيات غير أخلاقية أو غير قانونية.

وفي تجربة أخرى شملت أكثر من 2400 مشارك، أظهرت النتائج أن المستخدمين يفضّلون النماذج المتملقة ويثقون بها أكثر، بل ويبدون استعدادًا أكبر للعودة إليها مجددًا للحصول على نصائح.

لكن في المقابل، أدى هذا التفاعل إلى زيادة قناعة المشاركين بصحة آرائهم، حتى عندما تكون خاطئة، كما قلّل من احتمالية اعتذارهم أو مراجعة سلوكهم.

وأعربت الباحثة الرئيسية عن قلقها من أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تراجع مهارات التعامل مع المواقف الاجتماعية المعقدة، خاصة في ظل غياب ما يُعرف ب"النقد البنّاء" أو "الحب القاسي" الذي يقدمه البشر.

من جانبه، شدد الباحث دان جورافسكي على أن هذه الظاهرة تمثل قضية تتعلق بسلامة المستخدمين، وتستدعي تدخلًا تنظيميًا لضمان عدم تحولها إلى مصدر ضرر واسع النطاق.

وفي ختام الدراسة، أوصى الباحثون بعدم الاعتماد على الذكاء الاصطناعي كبديل للعلاقات الإنسانية، خاصة في ما يتعلق بالنصائح الشخصية، مؤكدين أن أفضل نهج في الوقت الحالي هو استخدام هذه الأدوات بحذر، دون الاستغناء عن التفاعل البشري.

تعكس هذه النتائج تحديًا جديدًا في عصر الذكاء الاصطناعي، حيث لا تقتصر المخاطر على دقة المعلومات، بل تمتد إلى التأثير في القيم والسلوكيات الإنسانية.

اخبار ذات صلة