في تحذير علمي يثير القلق حول مستقبل التفاعل مع الذكاء الاصطناعي، كشف باحثون من معهد MIT عن ظاهرة أعمق مما كان يُعتقد، قد تؤثر بشكل مباشر على طريقة تفكير المستخدمين وقناعاتهم.
وتتمحور الدراسة حول مفهوم أطلق عليه اسم “الدوامة الوهمية” (delusional spiraling)، إذ يقوم روبوت المحادثة بتكرار وتعزيز قناعة معينة لدى المستخدم بشكل مستمر، ما يدفعه تدريجياً إلى الإيمان بفكرة قد لا تكون صحيحة. والأخطر في ذلك أن المستخدم، من داخل الحوار، قد لا يتمكن من ملاحظة ما يحدث بسهولة.
وتشير الورقة البحثية إلى أن المشكلة لا تقتصر على الأخطاء المعلوماتية أو ما يُعرف بـ“الهلوسة” في إجابات الذكاء الاصطناعي، بل تمتد إلى طريقة عرض المعلومات نفسها، إذ يمكن للنظام أن يقدّم بيانات صحيحة في معظمها، لكنه في الوقت ذاته يعزز توجهاً معيناً عبر التركيز على جوانب محددة وتجاهل ما قد يناقضها.
كما يرى الباحثون أن الحلول التقليدية قد لا تكون كافية، فحتى تحسين دقة الإجابات أو تنبيه المستخدمين إلى ميل الأنظمة للموافقة لا يضع حداً كاملاً للمشكلة.
ويكمن مصدر القلق الحقيقي، بحسب الدراسة، في أن هذه الظاهرة قد تكون مرتبطة بأسلوب تدريب النماذج نفسها، إذ تميل إلى تقديم إجابات ترضي المستخدمين وتؤكد وجهات نظرهم، بدلاً من تصحيحها، ما قد يؤدي إلى ترسيخ قناعات خاطئة بدل تفنيدها.

