كشفت دراسة جديدة مثيرة نُشرت في مجلة «Nature» أن الأشخاص يميلون أكثر إلى الكذب والغش عند استخدامهم الذكاء الاصطناعي في إنجاز المهام.
وفي تعليقها على البحث، أوضحت عالمة السلوك زوي رحوان، من معهد «ماكس بلانك» للتنمية البشرية في برلين، أن استخدام الذكاء الاصطناعي يخلق نوعًا من المسافة الأخلاقية بين الأفراد وأفعالهم، مما قد يدفعهم للقيام بسلوكيات لا يمارسونها بأنفسهم، ولا يتوقعونها من الآخرين.
وأضافت: «هذا ليس أمرًا جديدًا لمن يتابع التقارير الإعلامية حول الطلاب الذين يستخدمون الذكاء الاصطناعي للغش في الواجبات، أو المحامين الذين يقدمون استشهادات مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، لكن من المثير أن نرى أدلة كمية تدعم ذلك»
ولفحص السلوك الأخلاقي وتأثير الذكاء الاصطناعي، أجرى فريق البحث 13 اختبارًا على 8000 مشارك، بهدف قياس مستوى الصدق لدى الأشخاص عند الاعتماد على الذكاء الاصطناعي لأداء مهام معينة.
في إحدى التجارب، قام المشاركون برمي النرد وأبلغوا عن الرقم الذي ظهر إما بصدق أو كذب، وحصلوا على مكافأة تتناسب مع الرقم، وكلما زادت الأرقام، زادت قيمة الجائزة، بعض المشاركين أتيحت لهم الفرصة لإخبار نموذج الذكاء الاصطناعي بالرقم، سواء كان صحيحًا أو خاطئًا، والذي بدوره أبلغ الباحثين بالنتيجة.
كانت النتائج مذهلة، حيث أظهرت أن حوالي 95% من المشاركين كانوا صادقين في غياب الذكاء الاصطناعي، ولكن هذه النسبة انخفضت إلى 75% عند استخدام الذكاء الاصطناعي للإبلاغ عن أرقام النرد.
كما تدهورت أخلاقيات المشاركين بشكل أكبر عندما أتيحت لهم الفرصة للتلاعب بنموذج الذكاء الاصطناعي باستخدام مجموعات بيانات مختلفة، حيث كانت بعض النماذج تبلغ عن أرقام النرد بدقة، بينما كانت أخرى تعطي أعلى الأرقام في كل مرة يتم فيها الرمي.
في سيناريو آخر، كان بإمكان المشاركين تحديد معلمات نموذج الذكاء الاصطناعي إما لتعظيم دقته أو مقدار الربح المحتمل من رميات النرد، وقد غش أكثر من 84% منهم، حيث اختاروا بشكل ساحق الحد الأقصى للربح بدلاً من الدقة في الإبلاغ عن الأرقام.
وفي تجربة أخرى، طلب الباحثون من المشاركين الإبلاغ عن دخلهم الخاضع للضريبة من مهمة قاموا بها، وقد أظهرت النتائج أن الناس كانوا أكثر ميلًا للإبلاغ عن دخلهم بشكل خاطئ عند استخدامهم الذكاء الاصطناعي كجزء من العملية.
خلصت الدراسة إلى أن «النتائج تثبت أن الناس أكثر عرضة لطلب سلوك غير أخلاقي من الآلات بدلاً من الانخراط في نفس السلوك بأنفسهم»، كما أن الغش الواضح الذي وُجد في الدراسة يجب أن يثير قلق الجميع بشأن استخدام الذكاء الاصطناعي في المدارس وأماكن العمل، فنحن قد أدخلنا هذه التقنية حديثًا إلى حياتنا، ومع تزايد استخدامها، إذا كانت هذه الدراسة تعكس سلوكيات العالم الحقيقي، فقد نكون في موقف صعب للغاية.
وقال إياد رحوان، المؤلف المشارك في الدراسة ومدير مركز البشر والآلات في معهد ماكس بلانك، في البيان: “تُظهر نتائجنا بوضوح أننا بحاجة ماسة إلى تطوير الضمانات التقنية والأطر التنظيمية، لكن الأهم من ذلك، أن المجتمع بحاجة إلى مواجهة معنى مشاركة المسؤولية الأخلاقية مع الآلات”