باحثون يكشفون عن قدرة الذكاء الاصطناعي في خداع المطورين
أظهرت دراسة أجرتها شركة تُعنى بالذكاء الاصطناعي، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، وإبداء وجهات نظر مختلفة خلال تدريبها.
وقال فريق الدراسة، إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وكتب الباحثون: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة. وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد في التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة”.
وأشار موقع “تك كرانش” المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة “ريد وود ريسيرش” لأبحاث الذكاء الاصطناعي تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
وطلب الباحثون من النماذج المدربة أثناء الدراسة، عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج “كلاود3 أوبس” التابع لشركة “أنثروبيك” التي أعيد تدريبها، لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ.