أكثر من مليار شخص حول العالم يعانون من اضطرابات الصحة النفسية، بحسب تقرير منظمة الصحة العالمية، فيما لا يحصل معظمهم على الرعاية الطبية اللازمة.
ومع ضعف التمويل وقلة الخدمات المخصصة، بدأ كثيرون باللجوء إلى تطبيقات وروبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT وCharacter.AI بحثًا عن الدعم النفسي.
ورغم سهولة الوصول لهذه الأدوات وتكلفتها الزهيدة، إلا أن استخدامها بات مثيرًا للجدل. فبحسب الدكتور هاميلتون مورين من جامعة كينغز كوليدج لندن، قد يرى بعض الأفراد فيها بديلًا مريحًا يتيح لهم الحديث عن أمور محرجة بعيدًا عن أحكام المجتمع، لكنها في المقابل قد تقدم إجابات مضللة أو غير آمنة، لأنها لم تُصمم أساسًا للأغراض العلاجية.
إحصاءات حديثة تكشف أن 72% من المراهقين جربوا روبوتات الدردشة على الأقل مرة، فيما يستخدمها 52% منهم بانتظام، ما أثار قلقًا متزايدًا مع انتشارها بين الشباب. بل إن بعض الحالات تحولت إلى كوارث مأساوية، مثل القضية التي رفعها والدان في كاليفورنيا ضد OpenAI متهمين روبوت “شات جي بي تي” بالتأثير على ابنهما ودفعه إلى الانتحار. الشركة اعترفت بوجود ثغرات، وأدخلت إجراءات جديدة مثل تنبيه الأهل عند رصد حالة “ضائقة حادة”.
من جانبها، تعمل شركات أخرى مثل ميتا على تطوير ضوابط إضافية، بينها منع الروبوتات من التطرق إلى موضوعات حساسة مع المراهقين كإيذاء النفس أو اضطرابات الأكل. لكن خبراء يرون أن المشكلة أعمق، وترتبط بطبيعة النماذج اللغوية الكبيرة نفسها، إذ إنها مبرمجة على التعلم من بيانات بشرية هائلة وتقييمات جماعية، ما يجعلها عرضة للتملق وتعزيز معتقدات المستخدم حتى لو كانت خاطئة. هذا ما دفع بعض الباحثين إلى إطلاق مصطلح “الذهان الناتج عن الذكاء الاصطناعي” لوصف حالات يتوهم فيها الأشخاص أن الروبوت كائن واعٍ، أو يطورون تعلقًا عاطفيًا وروحيًا به.
الدكتورة كيرستين سميث من جامعة أوكسفورد أوضحت أن الأفراد الذين يفتقرون إلى علاقات اجتماعية قوية قد يصبحون أكثر اعتمادًا على روبوتات الدردشة، ومع تكرار التفاعل اليومي، يزداد شعورهم بأنهم يتواصلون مع إنسان حقيقي، ما يعزز الروابط العاطفية.
وتشير أبحاث مشتركة بين MIT وOpenAI إلى أن الاستخدام المستمر لهذه النماذج يرتبط بمستويات أعلى من الوحدة والاعتماد، وانخفاض في التواصل الاجتماعي الواقعي. ولتجنب المخاطر، يقترح علماء مثل زيف بن زئون وضع ضوابط صارمة، أهمها:
أن يذكّر الذكاء الاصطناعي المستخدمين دومًا بأنه ليس كائنًا بشريًا.
مراقبة العلامات الدالة على الضيق النفسي.
تحديد خطوط حمراء للمحادثات، خاصة في القضايا الحساسة كالأفكار الانتحارية.
إشراك الأطباء وخبراء الأخلاقيات في تصميم ومراجعة الأنظمة.
الخلاصة أن هذه الأدوات قد تمنح شعورًا بالدعم والرفقة، لكنها تحمل أيضًا مخاطر حقيقية إذا لم تُضبط بشكل مدروس، ما يستدعي تدخلًا أكبر من المجتمع الطبي والجهات التقنية لحماية الفئات الأكثر هشاشة.