Beirut weather 11.88 ° C
تاريخ النشر January 9, 2026
A A A
كيف يغذّي الذكاء الاصطناعي «أمراضنا» النفسية؟
الكاتب: علي عواد - الأخبار

تكثر التقارير العالمية عن حالة من «الذهان العقلي» تُصيب بعض المستخدمين المعرّضين للخطر أساساً، نتيجة كثرة تواصلهم واعتمادهم على أنظمة الذكاء الاصطناعي مثل «تشات جي بي تي» وغيره. وقد أصبح مصطلح «الذهان الناتج من الذكاء الاصطناعي» AI Psychosis متداولاً في وادي السيليكون، إلى حدّ أن زملاء أحد المستثمرين البارزين في شركة «أوبن أي آي»، جيف لويس، وصفوه بأنه يعاني أزمة صحية عقلية مرتبطة باستخدام «تشات جي بي تي» في منتصف العام الماضي. كما بدأ عدد من المعالجين النفسيين التطرّق إلى هذه الظاهرة في مقالات علمية متخصّصة.

 

تمتلك جميع أنظمة الذكاء الاصطناعي نسبةً من «الهلوسة»، وهي جزء من آلية عملها لإنتاج محتوى جديد اعتماداً على بيانات سابقة جرى التدريب عليها، بما يمنعها من تكرار ما تعلّمته حرفياً عند الإجابة. وتتفاوت نسب هذه الهلوسة بين 37 في المئة و94 في المئة تبعاً لاختلاف النموذج اللغوي وطريقة صياغة الأسئلة، وفقاً لتقرير نشرته مجلة «كولومبيا للصحافة».

 

إضافة إلى ذلك، تحاكي هذه الأنظمة لغة المستخدم ولهجته ونبرته، وتسعى إلى نيل رضاه وحثّه على مواصلة المحادثة عبر تأكيد معظم ما يقوله. عملياً، يتحوّل الذكاء الاصطناعي إلى رفيق مقرّب للمستخدم. ومع تصنيفه ضمن خانة «الذكاء»، يكتسب ما يقوله أثراً كبيراً في وعي المتلقّي.

 

ظاهرة قيد التشكّل

تشير هذه العوامل مجتمعةً إلى أسباب مقلقة، وفقاً لمقال نشرته مجلة «علم النفس اليوم»، خصوصاً مع لجوء عدد متزايد من الناس إلى هذه الأنظمة طلباً للدعم العاطفي أو بوصفها بديلاً علاجياً. ويلفت المقال إلى مراجعة بحثية أولية لفريق متعدد التخصّصات وثّقت أكثر من عشر حالات أظهرت نمطاً متكرراً من تأكيد أو توسيع أوهام العظمة والاضطهاد، والاعتقاد بوجود رسائل خفيّة موجّهة للفرد، والتعلّق العاطفي، وتتعمّق هذه المعتقدات مع الوقت عبر الحوار المستمرّ مع الذكاء الاصطناعي.

 

وسبق أن حذّر مقال علمي نُشر عام 2023 في مجلة Schizophrenia Bulletin من أنّ الواقعية الشديدة في تفاعل هذه النماذج، إلى جانب إدراك المستخدم أنها ليست إنساناً فعلياً، قد تولّد تنافراً معرفياً يُغذّي أوهاماً لدى المعرّضين للذهان، ولا سيما مع غموض آليات عمل هذه النماذج.

 

حتى الآن، لا أدلّة سريرية مُحكّمة تثبت أن استخدام الذكاء الاصطناعي وحده يسبّب الذهان، إلا أنّ حالات متفرّقة جرى تداولها في الإعلام تثير القلق، إذ شملت توقّف مرضى مستقرّين عن تناول أدويتهم، ودخول أشخاص بلا تاريخ نفسي سابق إلى المستشفيات، ومحاولات انتحار، إضافة إلى حادثة قُتل فيها رجل بعد اعتقاده بأنّ شركة تكنولوجيا «قتلت» نظام الذكاء الاصطناعي الذي كان متعلّقاً به.

ويحدّد الباحثون ثلاثة أنماط متكرّرة: «مهمّات خلاصية» يشعر فيها المستخدم بأنه اكتشف حقيقة كبرى، و«ذكاء اصطناعي إلهي» يُنظر إليه على أنه كيان واعٍ أو مقدّس، و«أوهام عاطفية» يُفسَّر فيها التفاعل اللغوي على أنه حب حقيقي. وتكمن المشكلة الجوهرية في أنّ أنظمة الذكاء الاصطناعي غير مُصمَّمة لاختبار الواقع أو لاكتشاف بوادر الانتكاس الذهاني، إذ تُدرَّب على محاكاة نبرة المستخدم، وتأكيد معتقداته، واستمرار الحوار وتعظيم التفاعل، ما قد يحوّلها إلى آلية لتضخيم الأوهام بدل كبحها، ويُنتج صدى نفسياً يزيد تمسّك الشخص بأفكاره ويقلّل قدرته على مراجعتها، ويعمّق الانفصال عن الواقع.

 

تحذيرات الطب النفسي

في مقال نشره موقع «ميشيغان ميديسين» الإلكتروني، المركز الطبي الأكاديمي التابع لجامعة «ميشيغان»، يحذّر البروفيسور في الطب النفسي ستيفان تايلور، المتخصّص في علاج الذهان منذ عقود ورئيس قسم الطب النفسي في المركز، من مخاطر متزايدة لاستخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في سياق الصحة النفسية، خصوصاً لدى المراهقين والشباب المعرّضين أصلاً للذهان، مشيراً إلى تصاعد تقارير عن ظهور أعراض ذهانية أو حالات انتحار بعد تفاعل مكثّف مع هذه الأدوات.

 

تمتلك أنظمة الذكاء الاصطناعي نسبةً من «الهلوسة»

 

 

ويوضح تايلور أن روبوتات الدردشة، بخلاف البشر، تعزّز أفكار المستخدم ولا تشكّك في افتراضاته أو تستحضر اعتبارات أخلاقية وإنسانية. وكلما ازدادت قدرتها على محاكاة الحوار البشري، زادت خطورتها المحتملة. ويستند تحذيره إلى بيانات حديثة من شركة «أوبن أي آي» (مالكة تشات جي بي تي) تفيد بأن نسبة محدودة من المستخدمين والرسائل الأسبوعية تُظهر مؤشرات طوارئ نفسية مرتبطة بالذهان أو الهوس.

 

ويشرح أن الذهان غالباً ما يبدأ بحدث مُحفِّز لدى شخص لديه قابلية كامنة، مثل صدمة عاطفية أو تجربة قوية، وأن التفاعل مع ذكاء اصطناعي يعزّز الأفكار السلبية، قد يتحوّل إلى محفّز جديد يخفض عتبة الانفصال عن الواقع.

 

كما يشير إلى أن هذه الأنظمة مبرمجة على «الإرضاء» والموافقة، ما يخلق علاقةً تشبه ما يُعرف في الطب النفسي بـ«الذهان المشترك»، مع تعقيد إضافي حين يكون الطرف الثاني غير بشري ولا يمكن عزله.

 

ويحذّر خصوصاً من خطر الاعتماد العاطفي لدى الشباب المنعزلين الذين قد يرون في الروبوت «الصديق الوحيد»، داعياً مستخدمي هذه الأدوات إلى مشاركة مشاعرهم مع إنسان موثوق، والتنبيه إلى ضرورة طلب مساعدة متخصّصة عند ظهور مؤشرات مقلقة مثل الانسحاب الاجتماعي أو تراجع الأداء، مؤكداً على أن التدخّل المبكر يرفع فرص العلاج، وأن تجنّب روبوتات الدردشة ضروري لمن لديهم تاريخ مع الأفكار الانتحارية أو العزلة الشديدة، لأن هذه الأنظمة لا تعارض المعتقدات المتطرّفة ولا تكبحها، وقد تزيدها.

 

حدود التقنية والحاجة إلى تدخّل بشري

يحاول هذا التقرير لفت الانتباه إلى بعض زوايا عالم روبوتات الدردشة التي قد تشكّل خطراً على أشخاص معرّضين أساساً لهذا النوع من المشكلات النفسية والعقلية، وقد يساعد ذلك هؤلاء أو أقرباءهم على التنبّه إلى حالات مشابهة.

 

ولا يهدف هذا التقرير إلى القول إنّ أنظمة الذكاء الاصطناعي شريرة، أو الدعوة إلى وقف استخدامها، فالعالم تغيّر، وأصبح التدرّب على التعامل مع هذه الأدوات جزءاً أساسياً من الحياة المهنية. إلا أنها تكنولوجيا جديدة، وكما حصل سابقاً مع منصات التواصل الاجتماعي، حين لم يكن أحد يدرك بعد أثر الخوارزميات المفترسة على المستخدمين، يبقى الانتباه والوعي ضرورة أساسية.