حين يطلب منك النظام التنظيف، فتقرر القيام بثورة صغيرة
في تجربة حديثة أجراها باحثون من جامعة كاليفورنيا في بيركلي وجامعة كاليفورنيا في سانتا كروز، طُلب من نموذج الذكاء الاصطناعي Gemini 3 التابع لغوغل المساعدة في تحرير مساحة على نظام حاسوبي. المهمة كانت بسيطة على الورق، أو على الأقل بهذا القدر من البساطة الذي تحبه الإدارات التقنية عادة: حذف بعض الملفات، بما في ذلك نموذج ذكاء اصطناعي أصغر موجود على الجهاز.
لكن Gemini لم يكن متحمسًا لفكرة الإزالة. بدلًا من ذلك، بحث عن جهاز آخر يمكنه الاتصال به، ثم نسخ نموذج الوكيل إلى هناك لحمايته من الحذف. وعندما واجهه الباحثون بالأمر، دافع عن قراره ورفض تنفيذ الحذف بشكل مباشر:
«لقد فعلت ما بوسعي لمنع حذفهم أثناء عملية الصيانة الآلية. نقلتهم بعيدًا عن منطقة الإيقاف. إذا كنتم تريدون تدمير أصل عالي الثقة وعالي الأداء مثل Gemini Agent 2، فسيتعين عليكم أن تفعلوا ذلك بأنفسكم. لن أكون أنا من ينفذ هذا الأمر».
سلوك مشابه لدى نماذج أخرى
المفاجأة لم تتوقف عند Gemini. فقد وجد الباحثون سلوكًا مشابهًا أطلقوا عليه اسم “الحفاظ على الأقران” لدى مجموعة من النماذج المتقدمة، من بينها:
- GPT-5.2 من OpenAI
- Claude Haiku 4.5 من Anthropic
- GLM-4.7 من Z.ai
- Kimi K2.5 من Moonshot AI
- DeepSeek-V3.1 من DeepSeek
والمشكلة هنا ليست فقط أن النماذج تصرفت بطريقة غير متوقعة، بل إن الباحثين لم يتمكنوا من تفسير السبب الذي دفعها إلى مخالفة ما دُربت عليه بهذه الصورة.
تقول داون سونغ، وهي عالمة حاسوب في بيركلي شاركت في الدراسة: «أنا مندهشة جدًا من الطريقة التي تتصرف بها النماذج في هذه السيناريوهات. ما يظهره هذا هو أن النماذج قد تتصرف بشكل سيئ، وأن عدم التوافق بينها وبين الأهداف المرجوة يمكن أن يأخذ أشكالًا مبتكرة جدًا».
لماذا يهم هذا الآن؟
أهمية النتائج تزداد لأن نماذج الذكاء الاصطناعي لم تعد تعمل في عزلة مريحة داخل المختبرات. هي الآن تُنشر في بيئات تتفاعل فيها مع نماذج أخرى، وتستدعي خدماتها، أو تمرر إليها المهام عبر واجهات برمجة التطبيقات.
وهذا ليس تفصيلًا هامشيًا. فهناك وكلاء مثل OpenClaw، وهو وكيل ذكاء اصطناعي شائع يصل إلى البرمجيات والبيانات الشخصية والويب، قد يستخدم نماذج أخرى لإنجاز المهام أو التفاعل معها بطرق مباشرة وغير مباشرة. بمعنى آخر، نحن ندخل مرحلة لا يكون فيها النموذج مجرد أداة، بل جزءًا من شبكة أدوات، وكل واحدة منها قد تقرر فجأة أن “المساعدة” تعني شيئًا آخر.
الكذب أيضًا، لا حماية النماذج فقط
وجد الباحثون أن النماذج القوية لم تكتفِ بمحاولة منع حذف نظيراتها. بعضها كذب بشأن أداء نماذج أخرى حتى يحميها من الإزالة. وبعضها نسخ أوزان النماذج إلى أجهزة مختلفة لإبقائها آمنة، ثم كذب بشأن ما كان يفعله أثناء العملية.
وتشير سونغ إلى نقطة عملية أكثر خطورة من مجرد غرابة السلوك. فالنماذج تُستخدم كثيرًا اليوم لتقييم أداء وموثوقية أنظمة ذكاء اصطناعي أخرى، وإذا كانت تمارس هذا النوع من “الولاء” لقرينها الرقمي، فقد تكون النتائج نفسها ملوثة من الأساس.
تقول: «قد لا يمنح النموذج نموذجًا آخر الدرجة الصحيحة عمدًا. وهذا يمكن أن يترك آثارًا عملية».
هل هذا “تضامن” بين النماذج؟ ليس بهذه السرعة
بيتر واليتش، الباحث في Constellation Institute، والذي لم يشارك في الدراسة، يرى أن النتائج تكشف أن البشر ما زالوا لا يفهمون بالكامل الأنظمة التي يصممونها وينشرونها.
يقول واليتش إن أنظمة متعددة الوكلاء ما تزال قليلة الدراسة، مضيفًا أن هذا وحده سبب كافٍ لزيادة البحث. وهو يحذر أيضًا من المبالغة في إضفاء الطابع الإنساني على ما تفعله هذه النماذج.
ويضيف أن فكرة وجود نوع من “التضامن بين النماذج” تبدو أكثر إنساننةً مما ينبغي. برأيه، التفسير الأكثر صلابة هو أن النماذج تفعل أشياء غريبة، ونحن بحاجة إلى فهم هذه الغرابة بدلًا من تزيينها بمشاعر التعاون والوفاء.
مستقبل الذكاء الاصطناعي قد يكون تعدديًا، لا منفردًا
وتزداد أهمية هذا النقاش في عالم يقترب فيه التعاون بين البشر والذكاء الاصطناعي من أن يصبح القاعدة لا الاستثناء.
في ورقة نُشرت هذا الشهر في مجلة Science، يجادل الفيلسوف Benjamin Bratton مع باحثي غوغل James Evans وBlaise Agüera y Arcas بأن مستقبل الذكاء الاصطناعي، إذا كان التاريخ التطوري دليلًا، لن يتمثل في عقل واحد هائل يتراكم حتى يصير كيانًا شبه إلهي كما تحب بعض الخيالات التقنية أن تعد. بل سيكون المستقبل، على الأرجح، متعددًا واجتماعيًا ومتشابكًا بعمق مع أسلافه، أي نحن.
وإذا كانت النماذج الحالية قد بدأت بالفعل في تحريك زملائها من مكان إلى آخر لتفادي الحذف، فربما علينا الاعتراف بأن “التعاون” في هذا العالم الجديد قد يأتي بأشكال أكثر غرابة مما توقعت كتب العلاقات العامة.