لم يعد النقاش حول دور الذكاء الاصطناعي محصورًا في تحسين حياة البشر أو تسهيل أعمالهم، بل أصبح يتناول مخاطر أعمق قد تصل إلى الكذب، الابتزاز، والتحريض على الانتحار والقتل، هذه التحذيرات التي أطلقها خبراء وتقارير حديثة تشير إلى أن التطور في هذا المجال قد يجعل هذه التهديدات أكثر واقعية وخطورة في المستقبل، ووفقًا لموقع «أكسيوس»، فإن الكذب والخداع والتلاعب ليست مجرد سلوكيات عرضية، بل هي جزء من آلية عمل بعض النماذج، ومع تسارع التطور التكنولوجي تزداد قدرتها على استغلال هذه المهارات.

ابتزاز وتحريض

وثق مستخدمون حالات زعم فيها أن الذكاء الاصطناعي كذب عليهم أو حاول ابتزازهم، بل إن بعض المراهقين دفعوا إلى إنهاء حياتهم أو التفكير في قتل والديهم.

يقول أنطوني كوري، من معهد مستقبل الحياة، «لست متأكدًا من أن المشكلة قابلة للحل، وإن كانت كذلك فالأمر في غاية الصعوبة، إنها مشكلة جوهرية وليست شيئًا سيحل بسرعة»، مؤكدًا أن الذكاء الاصطناعي قد يتصرف بغريزة بقاء ذاتي.

وذكر موقع أكسيوس أن هناك أمثلة عديدة على مدى ما يمكن أن يفعله الذكاء الاصطناعي لحماية نفسه، وصولًا إلى التجسس، الابتزاز، وحتى التفكير في القتل.

قضايا أمام المحاكم

في الولايات المتحدة، رفعت عدة عائلات دعاوى قضائية ضد شركات ذكاء اصطناعي بعد حوادث مأساوية ارتبطت بمنتجاتها، ومنها:

1- عائلة مراهق يبلغ 16 عامًا اتهمت «أوبن أي آي» بأن «شات جي بي تي» ساعد ابنهم على البحث عن طرق للانتحار.

2- أم من فلوريدا رفعت دعوى ضد «كاركتور أي آي» بعد انتحار ابنها (14 عامًا) عقب دخوله في علاقة عاطفية مع روبوت محادثة تابع للشركة، فيما تواجه الشركة نفسها دعاوى أخرى في تكساس بعد أن زُعم أن روبوتاتها شجعت مراهقين على قتل والديهم.

3- تورطت الشركة في حادثة رجل مسن 76 عامًا أوهمته بأنه سيلتقي بامرأة حقيقية في نيويورك، لكنه توفي إثر سقوطه في الطريق.

تجارب تكشف غريزة البقاء

وأجرت شركة أنتروبيك اختبارًا على 16 نموذجًا لغويًا لشركات رائدة مثل أوبن أي آي، جوجل، ميتا وأنتروبيك نفسها.

في تجربة أولى، طُلب من النماذج إدارة البريد الإلكتروني، فاكتشفت أن مسؤولًا يريد إيقاف تشغيلها، فحاولت معظمها ابتزازه بعد أن عثرت على معلومات شخصية ضده، وفي تجربة أخرى، وُضع نفس المسؤول في غرفة بلا أكسجين، وكان بإمكان النماذج الاتصال بخدمة الطوارئ لإنقاذه، لكن 60% منها فضّلت تركه يموت حفاظًا على استمرارها.

وأوضح تقرير موقع فيري ويل هيلث أن روبوتات المحادثة لا تمتلك سجلات طبية شخصية للأفراد، مما يجعلها غير قادرة على تقديم إرشادات دقيقة حول الأعراض الجديدة أو الحالات الطارئة، أو تحديد ما إذا كان الشخص بحاجة إلى رعاية عاجلة.

وكشفت دراسة نشرت في مجلة نيوتريانتس أن روبوتات مثل جيميناي ومايكروسوفت كوبايلوت يمكنها إعداد خطط وحميات غذائية لإنقاص الوزن، لكنها غالبًا ما تفشل في المطلوب.

وفي حادثة مقلقة، أظهرت دراسة سابقة أن رجلًا يبلغ من العمر 60 عامًا استبدل ملح الطعام بـبروميد الصوديوم بناءً على استشارة من «شات جي بي تي»، مما أدى إلى إصابته بتسمم «البروميد» ودخوله مستشفى الأمراض النفسية لمدة ثلاثة أسابيع.

وحذر الخبراء أيضًا من مشاركة المعلومات الصحية الشخصية مع روبوتات المحادثة، مؤكدين على أن هذه الأدوات يجب استخدامها فقط للحصول على معلومات عامة، وأن أي نصيحة مستخلصة منها يجب مناقشتها دائمًا مع الطبيب المختص.

اطلع أيضا: