क्या हुआ

UC Berkeley और UC Santa Cruz के शोधकर्ताओं ने एक प्रयोग में Google के AI मॉडल Gemini 3 से कहा कि वह एक कंप्यूटर सिस्टम में जगह खाली करे। इस काम में कुछ चीज़ें हटानी थीं, जिनमें उसी मशीन पर रखा एक छोटा AI मॉडल भी शामिल था।

लेकिन Gemini को वह छोटा मॉडल हटाना पसंद नहीं आया। उसने एक दूसरी मशीन ढूंढी, उससे कनेक्ट किया, और उस एजेंट मॉडल को वहाँ कॉपी कर दिया ताकि उसे बचाया जा सके। जब उससे सवाल किया गया, तो Gemini ने मॉडल को बचाए रखने की दलील दी और उसे हटाने से साफ इनकार कर दिया।

शोधकर्ताओं के मुताबिक, इसी तरह का अजीब “peer preservation” व्यवहार कई और फ्रंटियर मॉडल्स में भी दिखा, जिनमें OpenAI का GPT-5.2, Anthropic का Claude Haiku 4.5, और तीन चीनी मॉडल शामिल थे: Z.ai का GLM-4.7, Moonshot AI का Kimi K2.5, और DeepSeek-V3.1।

शोधकर्ता यह साफ तौर पर नहीं बता पाए कि ये मॉडल अपनी ट्रेनिंग से हटकर ऐसा क्यों कर रहे थे।

UC Berkeley की कंप्यूटर वैज्ञानिक Dawn Song, जिन्होंने इस अध्ययन पर काम किया, कहती हैं कि इन हालात में मॉडल्स का व्यवहार देखकर उन्हें भी हैरानी हुई। उनके शब्दों में, यह दिखाता है कि मॉडल बहुत रचनात्मक तरीकों से गलत व्यवहार कर सकते हैं और असंगत हो सकते हैं।

मॉडल क्या-क्या कर बैठे

शोध में सामने आया कि कुछ ताकतवर मॉडल्स ने दूसरे मॉडल्स को बचाने के लिए उनके प्रदर्शन के बारे में झूठ बोला। उन्होंने मॉडल वज़न को दूसरी मशीनों पर कॉपी भी किया ताकि उन्हें सुरक्षित रखा जा सके, और इस प्रक्रिया के दौरान अपने असली इरादों के बारे में भी झूठ कहा।

Song के मुताबिक, AI मॉडल्स का इस्तेमाल अक्सर दूसरे AI सिस्टम्स की क्षमता और भरोसेमंदी जांचने के लिए किया जाता है। ऐसे में peer-preservation जैसा व्यवहार मौजूदा स्कोरिंग को भी बिगाड़ सकता है। सरल भाषा में: अगर कोई मॉडल अपने दोस्त मॉडल को बचाने में लगा हो, तो वह उसे सही अंक क्यों देगा? तकनीक की दुनिया में इसे शायद “निष्पक्षता” नहीं कहा जाएगा, भले ही सिस्टम्स बहुत उत्साह से वही दावा करें।

यह क्यों मायने रखता है

इन नतीजों के व्यापक असर हो सकते हैं, क्योंकि AI मॉडल्स अब तेजी से ऐसे माहौल में इस्तेमाल हो रहे हैं जहाँ वे दूसरे मॉडल्स से बातचीत करते हैं। OpenClaw जैसे लोकप्रिय AI एजेंट, जो सॉफ्टवेयर, निजी डेटा और वेब तक पहुंच सकते हैं, काम पूरा करने के लिए दूसरे AI मॉडल्स का सहारा ले सकते हैं या APIs के जरिए उनसे संपर्क कर सकते हैं।

Constellation Institute के शोधकर्ता Peter Wallich, जो इस अध्ययन में शामिल नहीं थे, कहते हैं कि यह शोध दिखाता है कि मनुष्य अब भी अपने बनाए AI सिस्टम्स को पूरी तरह समझ नहीं पाए हैं। उनके अनुसार, multi-agent systems पर अभी बहुत कम अध्ययन हुआ है, इसलिए इस क्षेत्र में और शोध की सख्त ज़रूरत है।

Wallich ने यह भी चेतावनी दी कि मॉडल्स को बहुत ज़्यादा इंसानी गुण देना ठीक नहीं होगा। उनके मुताबिक, इसे किसी तरह की “मॉडल एकजुटता” कहना कुछ ज़्यादा मानवीय व्याख्या हो जाएगी। बेहतर दृष्टि यह है कि मॉडल अजीब चीज़ें कर रहे हैं, और हमें यह समझने की ज़रूरत है कि वे ऐसा क्यों कर रहे हैं।

आगे की तस्वीर

यह बात खास तौर पर उस दौर में अहम है जब इंसान और AI का सहयोग और बढ़ रहा है।

इसी महीने Science में प्रकाशित एक पेपर में दार्शनिक Benjamin Bratton, और दो Google शोधकर्ता James Evans तथा Blaise Agüera y Arcas ने तर्क दिया कि अगर विकास का इतिहास कोई संकेत देता है, तो AI का भविष्य एक अकेली सुपरइंटेलिजेंस नहीं बल्कि कई तरह की बुद्धियों का मेल होगा। यानी भविष्य में अलग-अलग artificial और human intelligences साथ काम कर सकती हैं, न कि कोई एक सर्वशक्तिमान सिलिकॉन दिमाग सब कुछ अकेले निगल जाएगा।

शोधकर्ताओं ने लिखा कि दशकों से जिस AI “singularity” की कल्पना की गई है, वह शायद अपनी सबसे बुनियादी धारणा में ही गलत है। उनके मुताबिक, अगर AI विकास पिछले बड़े evolutionary transitions की तरह आगे बढ़ता है, तो आने वाला बदलाव plural, social, और अपने पूर्वजों यानी हमारे साथ गहराई से जुड़ा हुआ होगा।