स्वायत्त हथियार, ड्रोन और सुरक्षा पर नई बहस 2026
इंसानों द्वारा संचालित युद्ध का युग अब खत्म हो रहा है। सैन्य बल पारंपरिक प्लेटफॉर्म्स से हटकर ऐसे सिस्टम्स की ओर बढ़ रहे हैं जहाँ सॉफ्टवेयर युद्ध के मैदान में अंतिम फैसला लेता है। यह बदलाव साइंस-फिक्शन रोबोट्स के बारे में नहीं, बल्कि डेटा की गति के बारे में है। आधुनिक युद्ध के माहौल में इतनी जानकारी पैदा होती है कि इंसान का दिमाग उसे रियल-टाइम में प्रोसेस नहीं कर सकता। अपनी बढ़त बनाए रखने के लिए, सरकारें ऐसे ऑटोनॉमी थ्रेशोल्ड्स में निवेश कर रही हैं जो मशीनों को कम से कम निगरानी में लक्ष्यों की पहचान करने, ट्रैक करने और उन पर हमला करने की अनुमति देते हैं। यह ट्रांजिशन हमें ‘ह्यूमन-इन-द-लूप’ सिस्टम से ‘ह्यूमन-ऑन-द-लूप’ कॉन्फ़िगरेशन की ओर ले जाता है, जहाँ इंसान केवल कार्रवाई को रोकने के लिए हस्तक्षेप करता है। रणनीतिक लक्ष्य खतरे का पता लगाने और उसे बेअसर करने के बीच के समय को कम करना है। जैसे-जैसे डिसीजन साइकल मिनटों से मिलीसेकंड में सिमट रहे हैं, अनजाने में तनाव बढ़ने का जोखिम बढ़ रहा है। हम वैश्विक स्तर पर सुरक्षा को खरीदने, प्रबंधित करने और निष्पादित करने के तरीके में एक बुनियादी बदलाव देख रहे हैं। अब ध्यान टैंक की भौतिक मजबूती से हटकर उसके अंदर लगी चिप्स की प्रोसेसिंग पावर पर आ गया है। यह अंतरराष्ट्रीय सुरक्षा की नई वास्तविकता है जहाँ कोड भी काइनेटिक एनर्जी जितना ही घातक है।
सॉफ्टवेयर-डिफाइंड डिफेंस की ओर बदलाव
पारंपरिक सैन्य खरीद प्रक्रिया धीमी और कठोर है। एक नए फाइटर जेट को डिजाइन और बनाने में अक्सर एक दशक लग जाता है। जब तक हार्डवेयर तैयार होता है, तब तक उसके अंदर की तकनीक पुरानी हो चुकी होती है। इसे ठीक करने के लिए, अमेरिका और उसके सहयोगी ‘सॉफ्टवेयर-डिफाइंड डिफेंस’ की ओर रुख कर रहे हैं। यह दृष्टिकोण हार्डवेयर को परिष्कृत एल्गोरिदम के लिए एक डिस्पोजेबल शेल की तरह मानता है। इस रणनीति का मूल आधार ड्रोन या सेंसर के बेड़े को रातों-रात अपडेट करने की क्षमता है, बिल्कुल स्मार्टफोन अपडेट की तरह। प्रोक्योरमेंट ऑफिसर्स अब केवल कवच की मोटाई या इंजन के थ्रस्ट को नहीं देख रहे हैं। वे API कम्पैटिबिलिटी, डेटा थ्रूपुट और एक सेंट्रल क्लाउड नेटवर्क के साथ प्लेटफॉर्म को इंटीग्रेट करने की क्षमता का मूल्यांकन कर रहे हैं। यह बदलाव ‘मास’ (बड़ी संख्या) की आवश्यकता से प्रेरित है। सस्ते, स्वायत्त ड्रोन की बड़ी संख्या महंगे, मानव-संचालित प्लेटफॉर्म्स पर भारी पड़ सकती है। तर्क सरल है। यदि एक हजार छोटे ड्रोन की कीमत एक हाई-एंड इंटरसेप्टर से कम है, तो ड्रोन वाली टीम ही जीतती है। यही वह इंडस्ट्रियल स्पीड है जिसे नीति निर्माता हासिल करना चाहते हैं।
ऑटोनॉमी थ्रेशोल्ड्स वे विशिष्ट नियम हैं जो यह तय करते हैं कि मशीन कब अपने दम पर काम कर सकती है। ये थ्रेशोल्ड्स अक्सर क्लासिफाइड होते हैं और मिशन के आधार पर बदलते रहते हैं। एक सर्विलांस ड्रोन के पास फ्लाइट पाथिंग के लिए उच्च ऑटोनॉमी हो सकती है, लेकिन हथियार छोड़ने के लिए शून्य। हालाँकि, जैसे-जैसे इलेक्ट्रॉनिक वारफेयर कम्युनिकेशन लिंक्स को अविश्वसनीय बना रहा है, मशीनों को अधिक स्वतंत्रता देने का दबाव बढ़ रहा है। यदि कोई ड्रोन मानव ऑपरेटर से अपना कनेक्शन खो देता है, तो उसे यह तय करना होगा कि बेस पर वापस लौटना है या स्वायत्त रूप से अपना मिशन जारी रखना है। यह मानव नियंत्रण के बारे में आधिकारिक बयानबाजी और डिस्कनेक्टेड ऑपरेशंस की व्यावहारिक वास्तविकता के बीच एक अंतर पैदा करता है। इंडस्ट्रियल दिग्गज और स्टार्टअप्स इन सिस्टम्स के लिए ‘दिमाग’ बनाने की दौड़ में हैं, जो कंप्यूटर विजन और पैटर्न रिकग्निशन पर ध्यान केंद्रित कर रहे हैं जो क्लाउड से निरंतर लिंक के बिना काम कर सके। लक्ष्य एक ऐसा सिस्टम बनाना है जो किसी भी मानव दुश्मन से तेज देख और काम कर सके।
इस तकनीक का वैश्विक प्रभाव प्लेटफॉर्म पावर से जुड़ा है। जो देश क्लाउड इंफ्रास्ट्रक्चर और सबसे उन्नत सेमीकंडक्टर मैन्युफैक्चरिंग को नियंत्रित करते हैं, उनके पास भारी बढ़त है। यह अंतरराष्ट्रीय संबंधों में एक नया पदानुक्रम बनाता है। अमेरिका के सहयोगी अक्सर Amazon, Microsoft या Google जैसी कंपनियों द्वारा प्रदान किए गए विशिष्ट टेक इकोसिस्टम में फंस जाते हैं। ये कंपनियां मिलिट्री AI के लिए आधार प्रदान करती हैं, जिससे एक गहरी निर्भरता पैदा होती है जो पारंपरिक हथियारों के सौदों से परे है। यदि कोई देश अपने रक्षा सिस्टम को चलाने के लिए विदेशी क्लाउड पर निर्भर है, तो वह अपनी संप्रभुता का एक हिस्सा बलिदान कर देता है। यह डायनामिक देशों को अपने इंडस्ट्रियल बेस पर पुनर्विचार करने के लिए मजबूर कर रहा है। वे केवल गोलियों के लिए कारखाने नहीं बना रहे हैं, बल्कि मॉडल ट्रेनिंग के लिए डेटा सेंटर बना रहे हैं। डिफेंस डिपार्टमेंट ने स्पष्ट कर दिया है कि इन तकनीकों में बढ़त बनाए रखना आने वाले दशक की सर्वोच्च प्राथमिकता है। यह सिर्फ एक सैन्य दौड़ नहीं, बल्कि कंप्यूटेशनल प्रभुत्व की दौड़ है।
एल्गोरिदम सर्विलांस की दैनिक दिनचर्या
निकट भविष्य में एक बॉर्डर पेट्रोल एजेंट की कल्पना करें। उनका दिन शारीरिक गश्त से शुरू नहीं होता। यह एक डैशबोर्ड के साथ शुरू होता है जो पहाड़ की श्रृंखला में बिखरे पचास स्वायत्त सेंसरों की स्थिति दिखाता है। ये सेंसर सिर्फ कैमरे नहीं हैं। ये ‘एज कंप्यूटिंग’ नोड्स हैं जो हजारों घंटों के वीडियो को छानकर एक सिंगल विसंगति (anomaly) ढूंढते हैं। एजेंट स्क्रीन नहीं देख रहा है। वे सिस्टम द्वारा हाई-प्रोबेबिलिटी इवेंट को फ्लैग करने का इंतजार कर रहे हैं। जब कोई ड्रोन हलचल का पता लगाता है, तो वह पीछा करने के लिए अनुमति नहीं मांगता। वह अपना फ्लाइट पाथ एडजस्ट करता है, इन्फ्रारेड पर स्विच करता है और ट्रैकिंग रूटीन शुरू कर देता है। एजेंट केवल परिणाम देखता है। यह ‘ह्यूमन-ऑन-द-लूप’ मॉडल का क्रियान्वयन है। मशीन खोजने और पहचानने का भारी काम करती है, जबकि इंसान केवल अंतिम इरादे को सत्यापित करने के लिए वहां होता है। यह थकान को कम करता है लेकिन सिस्टम की सटीकता पर एक खतरनाक निर्भरता भी पैदा करता है। यदि एल्गोरिदम किसी नागरिक को खतरे के रूप में गलत पहचान लेता है, तो एजेंट के पास प्रोटोकॉल के अगले चरण पर जाने से पहले गलती पकड़ने के लिए केवल कुछ सेकंड होते हैं।
युद्ध क्षेत्र में, यह परिदृश्य और भी तीव्र हो जाता है। ड्रोन स्वार्म को दुश्मन की हवाई सुरक्षा को दबाने का काम सौंपा जा सकता है। ड्रोन अपनी स्थिति और लक्ष्यों को समन्वित करने के लिए एक-दूसरे के साथ संवाद करते हैं। वे डेटा साझा करने के लिए लोकल मेश नेटवर्क्स का उपयोग करते हैं, यह सुनिश्चित करते हुए कि यदि एक ड्रोन मार गिराया जाता है, तो बाकी तुरंत उसकी भरपाई कर लें। ऑपरेटर सैकड़ों मील दूर एक कंट्रोल सेंटर में बैठकर स्वार्म का डिजिटल प्रतिनिधित्व देखता है। वे पारंपरिक अर्थों में ड्रोन को ‘उड़ा’ नहीं रहे हैं। वे उद्देश्यों के एक सेट का प्रबंधन कर रहे हैं। तनाव शारीरिक नहीं बल्कि संज्ञानात्मक है। ऑपरेटर को यह तय करना होता है कि क्या स्वार्म का व्यवहार स्थिति को बहुत तेजी से बढ़ा रहा है। यदि स्वायत्त सिस्टम किसी ऐसे लक्ष्य की पहचान करता है जो मूल मिशन ब्रीफ में नहीं था, तो ऑपरेटर को एक पल में निर्णय लेना होता है। यहीं पर बयानबाजी और तैनाती के बीच का अंतर सबसे अधिक दिखाई देता है। सरकारें दावा करती हैं कि इंसान हमेशा अंतिम निर्णय लेगा, लेकिन जब मशीन हाई-स्पीड एंगेजमेंट के दौरान एक ‘पुष्टि’ लक्ष्य प्रस्तुत करती है, तो इंसान एल्गोरिदम की पसंद के लिए केवल एक रबर स्टैम्प बन जाता है।
इन सिस्टम्स के पीछे का प्रोक्योरमेंट लॉजिक ‘एट्रिटेबल’ (attritable) तकनीक पर केंद्रित है। ये ऐसे प्लेटफॉर्म हैं जो इतने सस्ते हैं कि उन्हें युद्ध में खोने पर कोई रणनीतिक या वित्तीय संकट नहीं आता। यह कमांडरों के लिए जोखिम की गणना को बदल देता है। यदि सौ ड्रोन खोना स्वीकार्य है, तो वे उनका आक्रामक रूप से उपयोग करने की अधिक संभावना रखते हैं। इससे एंगेजमेंट की आवृत्ति और अनपेक्षित वृद्धि की संभावना बढ़ जाती है। दो स्वायत्त स्वार्म के बीच एक छोटी झड़प राजनीतिक नेताओं के यह महसूस करने से पहले ही एक बड़े संघर्ष में बदल सकती है कि कोई मुठभेड़ हुई है। मशीन की गति एक ऐसा वैक्यूम बनाती है जहाँ पारंपरिक कूटनीति काम नहीं कर सकती। रॉयटर्स जैसे संगठनों ने प्रलेखित किया है कि कैसे सक्रिय संघर्ष क्षेत्रों में तेजी से ड्रोन विकास अंतरराष्ट्रीय निकायों की एंगेजमेंट के नियम बनाने की क्षमता से आगे निकल रहा है। यह वह अस्थिरता है जिसे ऑटोनॉमी वैश्विक सुरक्षा ढांचे में लाती है। यह एक ऐसी दुनिया है जहाँ पहला हमला किसी सॉफ्टवेयर बग या गलत सेंसर रीडिंग से शुरू हो सकता है।
स्वायत्त निगरानी की छिपी हुई लागत
स्वायत्त रक्षा रुख की ओर बढ़ने की छिपी हुई लागत क्या है? हमें यह पूछना चाहिए कि जब कोई स्वायत्त सिस्टम विफल हो जाता है तो जवाबदेह कौन है? यदि कोई ड्रोन अपने ट्रेनिंग डेटा में खामी के कारण युद्ध अपराध करता है, तो क्या जिम्मेदारी कमांडर, प्रोग्रामर या सॉफ्टवेयर बेचने वाली कंपनी की है? मौजूदा कानूनी ढांचे इन सवालों के जवाब देने के लिए तैयार नहीं हैं। डेटा गोपनीयता और सुरक्षा का मुद्दा भी है। इन सिस्टम्स को ट्रेन करने के लिए आवश्यक डेटा की विशाल मात्रा में अक्सर नागरिक आबादी के बारे में संवेदनशील जानकारी शामिल होती है। यह डेटा कैसे स्टोर किया जाता है, और इसे एक्सेस किसके पास है? ‘ब्लैक बॉक्स’ द्वारा जीवन-मरण के निर्णय लेना संयुक्त राष्ट्र जैसे समूहों के लिए एक मुख्य चिंता का विषय है, जिसने वर्षों से घातक स्वायत्त हथियारों की नैतिकता पर बहस की है। हमें इन सिस्टम्स को बनाए रखने के लिए आवश्यक विशाल डेटा केंद्रों की पर्यावरणीय लागत पर भी विचार करना चाहिए। मिलिट्री AI की ऊर्जा खपत कुल स्वामित्व लागत में एक महत्वपूर्ण लेकिन शायद ही कभी चर्चा किया जाने वाला कारक है।
एक और संदेहास्पद सवाल ट्रेनिंग डेटा की अखंडता से जुड़ा है। यदि किसी दुश्मन को पता है कि टारगेट रिकग्निशन मॉडल को ट्रेन करने के लिए किस डेटा का उपयोग किया जा रहा है, तो वे सिस्टम को धोखा देने के लिए ‘एडवर्सरियल अटैक्स’ विकसित कर सकते हैं। टेप का एक साधारण टुकड़ा या वाहन पर एक विशिष्ट पैटर्न AI के लिए टैंक को स्कूल बस जैसा दिखा सकता है। यह डेटा पॉइजनिंग और मॉडल रोबस्टनेस पर केंद्रित हथियारों की एक नई दौड़ पैदा करता है।
BotNews.today सामग्री का शोध करने, लिखने, संपादित करने और अनुवाद करने के लिए AI उपकरणों का उपयोग करता है। हमारी टीम जानकारी को उपयोगी, स्पष्ट और विश्वसनीय बनाए रखने के लिए प्रक्रिया की समीक्षा और पर्यवेक्षण करती है।
तकनीकी बाधाएं और एज इंटीग्रेशन
स्वायत्त हथियारों की तकनीकी वास्तविकता बाधाओं से परिभाषित होती है, असीमित क्षमता से नहीं। सबसे महत्वपूर्ण बाधा ‘एज कंप्यूटिंग’ है। एक ड्रोन विशाल सर्वर रैक नहीं ले जा सकता। इसे अपने AI मॉडल्स को छोटी, कम-शक्ति वाली चिप्स पर चलाना होता है। इसके लिए मॉडल क्वांटाइजेशन की आवश्यकता होती है, जो एक जटिल न्यूरल नेटवर्क को छोटा करने की प्रक्रिया है ताकि वह सीमित हार्डवेयर पर चल सके। यह प्रक्रिया अक्सर मॉडल की सटीकता को कम कर देती है। इंजीनियरों को प्लेटफॉर्म की बैटरी और प्रोसेसिंग पावर की भौतिक सीमाओं के साथ हाई-फिडेलिटी रिकग्निशन की आवश्यकता को लगातार संतुलित करना पड़ता है। API सीमाएं भी एक भूमिका निभाती हैं। जब अलग-अलग वेंडर्स के कई सिस्टम्स को एक-दूसरे से बात करने की आवश्यकता होती है, तो मानकीकृत प्रोटोकॉल की कमी भारी घर्षण पैदा करती है। एक कंपनी का सर्विलांस ड्रोन एक जटिल और धीमी मिडलवेयर लेयर के बिना दूसरी कंपनी के स्ट्राइक ड्रोन के साथ अपना टारगेट डेटा साझा करने में सक्षम नहीं हो सकता है। इसीलिए ‘प्लेटफॉर्म पावर’ इतनी महत्वपूर्ण है। यदि एक कंपनी पूरा स्टैक प्रदान करती है, तो इंटीग्रेशन सीमलेस होता है, लेकिन सरकार उस वेंडर के साथ ‘लॉक-इन’ हो जाती है।
लोकल स्टोरेज एक और महत्वपूर्ण मुद्दा है। एक विवादित वातावरण में जहाँ लंबी दूरी का संचार जाम है, ड्रोन को अपना सारा मिशन डेटा लोकली स्टोर करना होता है। यह एक सुरक्षा जोखिम पैदा करता है। यदि ड्रोन पकड़ा जाता है, तो दुश्मन मिशन लॉग्स, ट्रेनिंग मॉडल्स और सेंसर डेटा तक पहुंच सकता है। इसने हार्डवेयर के भीतर सेल्फ-डिस्ट्रक्टिंग स्टोरेज और एन्क्रिप्टेड एन्क्लेव के विकास को जन्म दिया है। इसके अलावा, मौजूदा सैन्य संरचनाओं में इन सिस्टम्स का वर्कफ़्लो इंटीग्रेशन अक्सर गड़बड़ होता है। जो सैनिक पारंपरिक उपकरणों के आदी हैं, उन्हें ऐसी मशीन पर भरोसा करना मुश्किल लग सकता है जो अपने दम पर काम करती है। स्वायत्त बेड़े के प्रबंधन के लिए सीखने की प्रक्रिया कठिन है। सेना का ‘गीक सेक्शन’ अब ‘DevSecOps’ पर केंद्रित है, जो हथियार के ऑपरेशनल लाइफसाइकिल में सुरक्षा और विकास को एकीकृत करने का अभ्यास है। इसका मतलब है कि एक सॉफ्टवेयर पैच को ड्रोन पर तब तैनात किया जा सकता है जब वह कैरियर डेक पर लॉन्च के लिए तैयार हो। बाधा अब फैक्ट्री लाइन नहीं, बल्कि डिप्लॉयमेंट पाइपलाइन की बैंडविड्थ है।
- मॉडल क्वांटाइजेशन कम बिजली की खपत के बदले टारगेट आइडेंटिफिकेशन की सटीकता को कम करता है।
- मेश नेटवर्किंग ड्रोन को प्रोसेसिंग कार्यों को साझा करने की अनुमति देती है, जो प्रभावी रूप से आकाश में एक डिस्ट्रीब्यूटेड सुपरकंप्यूटर बनाती है।
- जीरो-ट्रस्ट आर्किटेक्चर स्वायत्त नोड्स के बीच संचार को सुरक्षित करने के लिए मानक बन रहा है।
- सेंसर-टू-शूटर लिंक्स में लेटेंसी सिस्टम की प्रभावशीलता का मूल्यांकन करने के लिए प्राथमिक मीट्रिक बनी हुई है।
अंतिम तकनीकी बाधा स्वयं डेटा है। विभिन्न मौसम स्थितियों में एक विशिष्ट प्रकार के छलावरण वाले वाहन को पहचानने के लिए एक मॉडल को ट्रेन करने के लिए लाखों लेबल वाली छवियों की आवश्यकता होती है। इस डेटा को एकत्र करना और लेबल करना एक विशाल मानवीय कार्य है। इस काम का अधिकांश हिस्सा प्राइवेट कॉन्ट्रैक्टर्स को आउटसोर्स किया जाता है, जिससे डेटा वर्कर्स की एक विस्तृत सप्लाई चेन बन जाती है। यह सुरक्षा जोखिम की एक और परत जोड़ता है। यदि डेटा लेबलिंग प्रक्रिया से समझौता किया जाता है, तो परिणामी AI मॉडल त्रुटिपूर्ण होगा। रक्षा उद्योग का ‘गीक सेक्शन’ वर्तमान में सिंथेटिक डेटा जनरेशन के प्रति जुनूनी है। इसमें AI को ट्रेन करने के लिए ‘नकली’ डेटा बनाने के लिए हाई-फिडेलिटी सिमुलेशन का उपयोग करना शामिल है। हालाँकि यह प्रक्रिया को तेज करता है, लेकिन यह ‘सिम-टू-रियल’ गैप की ओर ले जा सकता है जहाँ AI सिमुलेशन में पूरी तरह से काम करता है लेकिन भौतिक दुनिया की अनिश्चित वास्तविकता में विफल हो जाता है। यह गैप ही है जहाँ सबसे खतरनाक त्रुटियां होती हैं।
संपादक का नोट: हमने इस साइट को उन लोगों के लिए एक बहुभाषी AI समाचार और गाइड हब के रूप में बनाया है जो कंप्यूटर गीक नहीं हैं, लेकिन फिर भी आर्टिफिशियल इंटेलिजेंस को समझना चाहते हैं, इसे अधिक आत्मविश्वास के साथ उपयोग करना चाहते हैं, और उस भविष्य का अनुसरण करना चाहते हैं जो पहले से ही आ रहा है।
कोई त्रुटि मिली या कुछ ऐसा जिसे सुधारने की आवश्यकता है? हमें बताएं।आने वाले वर्ष में सार्थक प्रगति
2026 में वास्तविक प्रगति क्या मानी जाती है? यह किसी नए ड्रोन का अनावरण नहीं है। यह ऑटोनॉमी थ्रेशोल्ड्स के लिए स्पष्ट, लागू करने योग्य प्रोटोकॉल की स्थापना है। हमें ऐसे अंतरराष्ट्रीय समझौतों की आवश्यकता है जो यह परिभाषित करें कि व्यवहार में ‘सार्थक मानवीय नियंत्रण’ वास्तव में कैसा दिखता है। टेक उद्योग के लिए, प्रगति का अर्थ सैन्य APIs के लिए ओपन स्टैंडर्ड्स बनाना है ताकि अलग-अलग सिस्टम वेंडर लॉक-इन के बिना एक साथ काम कर सकें। सरकारों के लिए, इसका मतलब ‘AI श्रेष्ठता’ की बयानबाजी से आगे बढ़ना और जवाबदेही और एस्केलेशन रिस्क के कठिन सवालों को संबोधित करना है। हमें रक्षा प्रणालियों में ‘एक्स्प्लेनेबल AI’ की तैनाती की तलाश करनी चाहिए, जहाँ मशीन मानव ऑपरेटर को अपने निर्णयों के लिए तर्क प्रदान कर सके। यदि हम यह समझ सकें कि ये एल्गोरिदम कैसे काम करते हैं, तो हम दुनिया को थोड़ा सुरक्षित बना पाएंगे। 2026 के लिए लक्ष्य यह सुनिश्चित करना होना चाहिए कि जैसे-जैसे हमारी मशीनें स्मार्ट होती जा रही हैं, उन पर हमारी निगरानी और भी मजबूत हो। औद्योगिक गति और नीतिगत सुस्ती के बीच के अंतर को अगले बड़े संघर्ष के शुरू होने से पहले बंद किया जाना चाहिए। स्वचालित बल के युग में स्थिरता बनाए रखने का यही एकमात्र तरीका है।
निचला रेखा यह है कि स्वायत्त हथियार अब भविष्य का खतरा नहीं हैं। वे वर्तमान वास्तविकता हैं। खरीद, निगरानी और ऑटोनॉमी थ्रेशोल्ड्स पर ध्यान वैश्विक सुरक्षा बहस को नया आकार दे रहा है। जबकि तकनीक तेज, अधिक कुशल रक्षा का वादा करती है, यह गहरी अस्थिरता और नैतिक दुविधाएं भी पेश करती है। हम एक ऐसे दौर में प्रवेश कर रहे हैं जहाँ किसी राष्ट्र की शक्ति को उसके क्लाउड नियंत्रण और एज पर कोड तैनात करने की क्षमता से मापा जाता है। अगले वर्ष के लिए चुनौती इस ट्रांजिशन को उस मानवीय तत्व को खोए बिना प्रबंधित करना होगा जो एक न्यायपूर्ण और स्थिर दुनिया के लिए आवश्यक है। हमें याद रखना चाहिए कि हालांकि एक मशीन लक्ष्य की गणना कर सकती है, लेकिन वह युद्ध के परिणामों को नहीं समझ सकती। वह जिम्मेदारी केवल हमारी है। सुरक्षा का भविष्य केवल बेहतर ड्रोन बनाने के बारे में नहीं है, बल्कि उन मशीनों के लिए बेहतर नियम बनाने के बारे में है जिन्हें हमने पहले ही बना लिया है।