علماء يحذرون: الذكاء الاصطناعي ينذر بانقراض عالمي

أصدر باحث رفيع المستوى في الذكاء الاصطناعي تحذيرا بشأن احتمال حدوث انقراض عالمي يمكن أن تجلبه تكنولوجيا الذكاء الاصطناعي الفائقة.
وأشار إلى أن إيقاف تطوير أنظمة الذكاء الاصطناعي المتقدمة حول العالم ومعاقبة من ينتهك الحظر بقسوة، هي الطريقة الوحيدة لإنقاذ البشرية من الانقراض.
وادعى إليعازر يودكوفسكي، وهو باحث رائد في مجال الذكاء الاصطناعي، والمؤسس المشارك لمعهد أبحاث ذكاء الآلة (MIRI)، أن “كل شخص على وجه الأرض سيموت” ما لم نوقف تطوير أنظمة ذكاء خارقة.
وأشار إلى أنه يعرف بالضبط مدى “خطورة هذه التكنولوجيا المروعة”.
وفي مقال ضمن ركن “رأي” لمجلة “تايم” أوضح يودكوفسكي سبب عدم توقيعه على عريضة تدعو “جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لستة أشهر على الأقل، على تدريب أنظمة للذكاء الاصطناعي أكثر قوة من GPT-4 (وهو نموذج لغة كبير متعدد الوسائط، أصدرته شركة OpenAI في وقت سابق من هذا الشهر)”.
وقال يودكوفسكي إن العريضة التي قدمها خبراء بارزون من شركة OpenAI في 29 آذار، والتي وقعها أمثال إيلون ماسك ومؤسس شركة “آبل” ستيف وزنياك، كانت “تطلب القليل جدا لحل المشكلة التي يطرحها التطور السريع وغير المنضبط للذكاء الاصطناعي”.
واعتبر يودكوفسكي أن التهديد كبير لدرجة أنه يجادل بأن الانقراض بواسطة الذكاء الاصطناعي يجب أن “يعد أولوية تسبق منع تبادل ضربات نووية كاملة”.
وحذر من أن “النتيجة الأكثر ترجيحا لبناء ذكاء اصطناعي خارق للبشر .. هو أن كل شخص على وجه الأرض سيموت حرفيا”.



