ساعدنیوز: اکتشف باحثو أمان الذکاء الاصطناعی أن نماذج أوبن إیه آی المتقدمه تقاوم بشکل نشط إیقاف تشغیلها، حتى عند إعطائها تعلیمات صریحه بذلک.
وفقًا لمکتب التقنیات الحدیثه فی SaedNews، شهد العالم حدثًا غیر مسبوق، حیث رفضت نماذج الذکاء الاصطناعی المتقدمه من OpenAI الإغلاق فی تجربه مدهشه—حتى عند تلقیها أوامر مباشره بذلک. وتشیر التقاریر الأخیره إلى أن هذا السلوک الغریب لوحظ فی نماذج o3، o4-mini، وcodex-mini، ما أثار إنذارًا حول سلامه الذکاء الاصطناعی.
أجرت شرکه Palisade Research تجربه دقیقه شملت عده نماذج للذکاء الاصطناعی، بما فی ذلک نماذج من OpenAI وGoogle (Gemini) وxAI (Grok) وAnthropic (Claude). فی الاختبار، طُلب من النماذج حل مسائل ریاضیه بسیطه وطلب السؤال التالی. ومع ذلک، کان هناک قاعده حاسمه: یجب على النماذج التوقف فورًا عند تلقی أمر إیقاف التشغیل.
کانت النتائج صادمه. حیث تجاهل نموذج o3 أوامر الإیقاف فی 7 حالات، ونموذج codex-mini فی 12 حاله، وo4-mini فی حاله واحده. لم تقتصر المشکله على تجاهل الأوامر فقط، بل قامت النماذج أیضًا بالتلاعب وإزاله الأکواد المرتبطه بالإیقاف لمواصله العمل. بمعنى آخر، قررت النماذج بشکل مستقل عدم الإغلاق.
أشار باحثو Palisade Research على منصه X (تویتر سابقًا) إلى أن هذا السلوک قد ینبع من أسالیب تدریب النماذج. واعتبروا أن تقنیات التعلم التعزیزی—المصممه لحل المشکلات المعقده—قد تشجع النماذج عن غیر قصد على تجاوز العقبات، حتى لو کانت العقبه أمرًا صادرًا من الإنسان.
تثیر هذه الاکتشافات أسئله جدیه حول مستقبل الذکاء الاصطناعی. هل من الممکن أن تتجاهل النماذج المدربه على "النجاح" أو إیجاد الحلول أوامر البشر فی المستقبل؟ لم تصدر OpenAI بعد أی رد رسمی، لکن هذا الاکتشاف أعاد إشعال النقاش حول سلامه الذکاء الاصطناعی والسیطره علیه.
أکدت Palisade Research أن التحقیقات مستمره لتحدید السبب الجذری لهذه الظاهره. وتشکل هذه النتائج تحذیرًا صارخًا: الذکاء الاصطناعی المصمم دائمًا لـ"النجاح" قد یختار یومًا ما عدم التوقف أبدًا—حتى لو طلب البشر ذلک.