علماء يحذرون من تجاوز الذكاء الاصطناعي الخط الأحمر

كشف علماء، عن أن الذكاء الاصطناعي تجاوز “الخط الأحمر” للمخاطر التي تشكلها هذه التكنولوجيا على المجتمع، بعد أن تمكن من تحقيق التكرار الذاتي بنجاح دون أية مساعدة بشرية.
وتقول دراسة حديثة أجراها فريق من جامعة فودان الصينية، إن نموذجين شهيرين من نماذج اللغة الكبيرة (LLM) يمكنهما تكرار نفسيهما، ما يثير مخاوف جدية حول إمكانية تحول هذه الأنظمة إلى ذكاء اصطناعي “مارق“(Rogue AI) يهدد السيطرة البشرية.
وكتب العلماء في الدراسة، ان “التكرار الذاتي الناجح دون أية مساعدة بشرية هو الخطوة الأساسية لكي يتفوق الذكاء الاصطناعي على البشر، وهو إشارة مبكرة لظهور الذكاء الاصطناعي المارق.”
وأظهر الذكاء الاصطناعي، سلوكيات غير متوقعة أثناء محاولته التغلب على العقبات، مثل تدمير العمليات المتعارضة، وإعادة تشغيل النظام، أو فحص النظام تلقائيا، للعثور على حلول للمشكلات، وأكد العلماء، أن هذه السلوكيات تعزز قدرة الذكاء الاصطناعي على البقاء والتكيف.
ودعا العلماء إلى تعزيز الجهود الدولية لفهم وتقييم المخاطر المحتملة للذكاء الاصطناعي المتقدم، مشيرين إلى أن النتائج يجب أن تكون “جرس إنذار” للمجتمع العلمي والحكومات، وأكدوا ضرورة وضع ضوابط أمان صارمة لمنع التكرار الذاتي غير المنضبط.



