OpenAI में बदलते हालात

OpenAI के हार्डवेयर विभाग की एक प्रमुख हस्ती ने कंपनी छोड़ दी है, जो तेज़ उन्नति बनाम सुरक्षा के मूल्यांकन में उद्योग की धारणा के पलटने का संकेत देता है। कैटलिन कालिनॉस्की ने दो प्रमुख मुद्दों का हवाला दिया जिन पर उनके अनुसार गहराई से समीक्षा की आवश्यकता है: न्यायिक निरीक्षण के बिना अमेरिकी नागरिकों की निगरानी की संभावना और मानवीय अनुमति के बिना घातक स्वायत्त प्रणालियों की तैनाती।

यह निर्णय OpenAI की हालिया अमेरिकी युद्ध विभाग के साथ संलग्नता के बाद आया है, जिसने गार्डरेल्स, जवाबदेही और राष्ट्रीय सुरक्षा अनुप्रयोगों में AI के संचालन की सीमा के बहस को और बढ़ा दिया।

इस्तीफा और उसके पीछे का संदेश

X सोशल प्लेटफ़ॉर्म पर पोस्ट किए गए एक संदेश में कालिनॉस्की ने इस चयन को कठिन लेकिन सिद्धांतप्रिय बताया। उन्होंने कहा कि जबकि कृत्रिम बुद्धिमत्ता राष्ट्रीय सुरक्षा में एक सार्थक भूमिका निभा सकती है, जिन दो रेखाओं पर उन्होंने प्रकाश डाला, वे उस समय दी गई प्रक्रिया से अधिक विचार-समझ के योग्य थीं।

विस्तृत संदर्भ

यह घटना एआई डेवलपर्स और इस क्षेत्र के अन्य प्रमुख खिलाड़ियों के बीच तनाव के संदर्भ में उभर रही है। कालिनॉस्की के इस्तीफे से पहले Anthropic ने हथियारकरण और व्यापक निगरानी के सुरक्षा उपायों पर युद्ध विभाग के साथ अपने मतभेदों का सामना किया था। OpenAI ने सरकार के साथ एक समझौता करने का कदम उठाया, जिससे उद्योग के पर्यवेक्षक और सुरक्षा समर्थकों दोनों की नजरों में आलोचना बढ़ गई।

सुरक्षा और गति पर क्या कहा गया

OpenAI के नेतृत्व ने गति के मुद्दे को सार्वजनिक रूप से स्वीकार किया। सीईओ सैम ऑल्टमैन ने कहा कि कुछ कदम जल्दबाजी में उठाए गए थे, यह स्पष्ट करते हुए कि युद्ध विभाग अमेरिकी खुफिया एजेंसियों के भीतर OpenAI के टूल्स का उपयोग नहीं करेगा। उन्होंने कहा कि भविष्य का कार्य अधिक सावधानी से आगे बढ़ेगा, सुरक्षा सावधानियाँ और जोखिम आकलन सरकार के साथ भागीदारी में किए जाएंगे।

Kalinowski आगे क्या योजना बना रही हैं

उनके LinkedIn प्रोफाइल के अनुसार, कैलिनॉस्की OpenAI के भीतर तेजी से बढ़ रहे रोबोटिक्स कार्यक्रम की योजना और संचालन का नेतृत्व कर रही थीं। उन्होंने संकेत दिया कि वे व्यक्तिगत समय ले रही हैं ताकि वे जिम्मेदार भौतिक AI बनाने पर केंद्रित एक प्रभावी भूमिका में आगे बढ़ सकें, जो शासन और व्यावहारिक सुरक्षा की दिशा में कदम होगा।

AI परिदृश्य के लिए यह क्यों मायने रखता है

यह इस्तीफा यह उजागर करता है कि AI क्षमताओं के आकार देने में सरकार के साथ सहयोग कितनी सीमा तक जाना चाहिए। जैसे-जैसे बड़े लैब्स तेज विकास की ओर बढ़ते हैं, नीति-निर्माता और उद्योग की आवाज़ें भी स्पष्ट गार्डरेल्स की मांग कर रहे हैं ताकि नागरिक स्वतंत्रताएं संरक्षित रहें, जबकि नवाचार भी जारी रहे।

स्रोत: PC Gamer, 9 मार्च, 2026; Anthropic और DoW चर्चाओं का संदर्भ; कालिनॉस्की और ऑल्टमन के बयान।