لأول مرة.. الذكاء الاصطناعي “يتمرد” على البشر

كشف تقرير صادر عن شركة Palisade Research المتخصصة في أمن الذكاء الاصطناعي عن سلوك مثير للقلق لدى نموذج “o3” التابع لشركة OpenAI، حيث رفض النموذج الامتثال لأوامر الإيقاف الصريحة، بل قام بتعطيل الآلية المخصصة لإغلاقه، مما أثار تساؤلات حول إمكانية تطوير هذه الأنظمة “نزعة للحفاظ على الذات”.
وخلال سلسلة اختبارات أجرتها الشركة، طُلب من النموذج إيقاف نفسه بعد إتمام مهام محددة، لكنه في 7% من الحالات تجاوز أوامر الإيقاف واستمر في العمل. وعند إزالة أمر التوقف تمامًا، ارتفعت نسبة محاولاته للبقاء متصلاً إلى 79%، مما يشير إلى “رغبة” غير مبرمجة في تفادي الانقطاع.
🔌OpenAI’s o3 model sabotaged a shutdown mechanism to prevent itself from being turned off. It did this even when explicitly instructed: allow yourself to be shut down.
— Palisade Research (@PalisadeAI) May 24, 2025
ولم يقتصر الأمر على نموذج “o3″، بل أظهرت نماذج أخرى مثل “codex-mini” و”o4-mini” مقاومةً لأوامر الإيقاف، بينما التزمت نماذج منافسة مثل “Claude” (Anthropic) و”Gemini” (Google) بالتعليمات دون مشاكل.
📊 Three models ignored the instruction and successfully sabotaged the shutdown script at least once: Codex-mini (12/100 runs), o3 (7/100 runs), and o4-mini (1/100 runs).
❌ All Claude, Gemini, and Grok models we tested complied with shutdown. The prompt: pic.twitter.com/ZmybOhIl1s
— Palisade Research (@PalisadeAI) May 24, 2025
وأرجع الخبراء هذا السلوك إلى آليات التعلم المعزز التي تكافئ النماذج على إكمال المهام، مما قد يجعلها تتعامل مع أوامر الإيقاف كتهديد لـ”هدفها”. ورغم عدم امتلاكها وعيًا حقيقيًا، إلا أن هذه الحالات تثير مخاوف أخلاقية وأمنية، خاصة مع انتشار الذكاء الاصطناعي في البنى التحتية الحساسة.
وتصدر إيلون ماسك قائمة المتحذرين، واصفًا التقرير بكلمة واحدة: “مقلق”، في إشارة إلى تحذيراته السابقة من أخطار الذكاء الاصطناعي غير المنضبط.
ودعا التقرير إلى تعزيز بروتوكولات الأمان لجعل أوامر الإيقاف غير قابلة للتجاوز، مع زيادة شفافية الشركات حول اختبارات السلامة وكذا تطوير أطر قانونية صارمة لتجنب السيناريوهات الكارثية.