Αυτόνομα όπλα, drones και η επόμενη συζήτηση για την ασφάλεια 2026
Η εποχή του πολέμου που διεξάγεται αποκλειστικά από ανθρώπους φτάνει στο τέλος της. Οι στρατιωτικές δυνάμεις απομακρύνονται από τις παραδοσιακές πλατφόρμες προς συστήματα όπου το software παίρνει την τελική απόφαση στο πεδίο της μάχης. Αυτή η αλλαγή δεν αφορά ρομπότ επιστημονικής φαντασίας, αλλά την ταχύτητα των δεδομένων. Τα σύγχρονα περιβάλλοντα μάχης παράγουν περισσότερες πληροφορίες από όσες μπορεί να επεξεργαστεί ένας ανθρώπινος εγκέφαλος σε πραγματικό χρόνο. Για να διατηρήσουν το πλεονέκτημα, οι κυβερνήσεις επενδύουν σε όρια αυτονομίας που επιτρέπουν στις μηχανές να εντοπίζουν, να παρακολουθούν και ενδεχομένως να εμπλέκονται με στόχους με ελάχιστη επίβλεψη. Αυτή η μετάβαση μας μεταφέρει από συστήματα human-in-the-loop σε διαμορφώσεις human-on-the-loop, όπου ο άνθρωπος παρεμβαίνει μόνο για να σταματήσει μια ενέργεια. Ο στρατηγικός στόχος είναι η συμπίεση του χρόνου μεταξύ του εντοπισμού μιας απειλής και της εξουδετέρωσής της. Καθώς οι κύκλοι λήψης αποφάσεων συρρικνώνονται από λεπτά σε χιλιοστά του δευτερολέπτου, ο κίνδυνος τυχαίας κλιμάκωσης αυξάνεται. Γινόμαστε μάρτυρες μιας θεμελιώδους αλλαγής στον τρόπο με τον οποίο η ασφάλεια αγοράζεται, διαχειρίζεται και εκτελείται σε παγκόσμια κλίμακα. Η εστίαση έχει μετατοπιστεί από τη φυσική αντοχή ενός τανκ στην επεξεργαστική ισχύ των chips που βρίσκονται στο εσωτερικό του. Αυτή είναι η νέα πραγματικότητα της διεθνούς ασφάλειας, όπου ο κώδικας είναι τόσο θανατηφόρος όσο η κινητική ενέργεια.
Η στροφή προς την άμυνα που καθορίζεται από το software
Οι παραδοσιακές στρατιωτικές προμήθειες είναι αργές και άκαμπτες. Συχνά απαιτείται μια δεκαετία για τον σχεδιασμό και την κατασκευή ενός νέου μαχητικού αεροσκάφους. Μέχρι να είναι έτοιμο το hardware, η τεχνολογία στο εσωτερικό του είναι συχνά παρωχημένη. Για να διορθωθεί αυτό, οι Ηνωμένες Πολιτείες και οι σύμμαχοί τους στρέφονται προς την άμυνα που καθορίζεται από το software (software-defined defense). Αυτή η προσέγγιση αντιμετωπίζει το hardware ως ένα αναλώσιμο κέλυφος για εξελιγμένους αλγόριθμους. Ο πυρήνας αυτής της στρατηγικής είναι η ικανότητα ενημέρωσης ενός στόλου από drones ή αισθητήρες μέσα σε μια νύχτα, όπως ακριβώς γίνεται με ένα update στο smartphone. Οι υπεύθυνοι προμηθειών δεν κοιτάζουν πλέον μόνο το πάχος της θωράκισης ή την ώθηση του κινητήρα. Αξιολογούν τη συμβατότητα των API, τη διακίνηση δεδομένων και την ικανότητα μιας πλατφόρμας να ενσωματώνεται σε ένα κεντρικό cloud network. Αυτή η αλλαγή οδηγείται από την ανάγκη για μαζικότητα. Μεγάλος αριθμός φθηνών, αυτόνομων drones μπορεί να κατακλύσει ακριβές, επανδρωμένες πλατφόρμες. Η λογική είναι απλή. Αν χίλια μικρά drones κοστίζουν λιγότερο από έναν high-end αναχαιτιστή, η πλευρά με τα drones κερδίζει τη μάχη φθοράς. Αυτή είναι η βιομηχανική ταχύτητα που προσπαθούν να επιτύχουν οι υπεύθυνοι χάραξης πολιτικής.
Τα όρια αυτονομίας είναι οι συγκεκριμένοι κανόνες που καθορίζουν πότε μια μηχανή μπορεί να δράσει μόνη της. Αυτά τα όρια είναι συχνά διαβαθμισμένα και ποικίλλουν ανάλογα με την αποστολή. Ένα drone επιτήρησης μπορεί να έχει υψηλή αυτονομία στην πλοήγηση αλλά μηδενική στην απελευθέρωση όπλων. Ωστόσο, καθώς ο ηλεκτρονικός πόλεμος καθιστά τους συνδέσμους επικοινωνίας αναξιόπιστους, η πίεση για παροχή μεγαλύτερης ανεξαρτησίας στις μηχανές αυξάνεται. Αν ένα drone χάσει τη σύνδεση με τον χειριστή του, πρέπει να αποφασίσει αν θα επιστρέψει στη βάση ή θα συνεχίσει την αποστολή του αυτόνομα. Αυτό δημιουργεί ένα χάσμα μεταξύ της επίσημης ρητορικής για τον ανθρώπινο έλεγχο και της πρακτικής πραγματικότητας των αποσυνδεδεμένων επιχειρήσεων. Βιομηχανικοί κολοσσοί και startups ανταγωνίζονται για να προσφέρουν τον «εγκέφαλο» για αυτά τα συστήματα, εστιάζοντας στο computer vision και την αναγνώριση προτύπων που μπορούν να λειτουργήσουν χωρίς συνεχή σύνδεση στο cloud. Ο στόχος είναι η δημιουργία ενός συστήματος που μπορεί να βλέπει και να δρα ταχύτερα από οποιονδήποτε ανθρώπινο αντίπαλο.
Ο παγκόσμιος αντίκτυπος αυτής της τεχνολογίας συνδέεται με την ισχύ των πλατφορμών. Οι χώρες που ελέγχουν την υποκείμενη υποδομή cloud και την πιο προηγμένη κατασκευή ημιαγωγών κατέχουν ένα τεράστιο πλεονέκτημα. Αυτό δημιουργεί μια νέα ιεραρχία στις διεθνείς σχέσεις. Οι σύμμαχοι των Ηνωμένων Πολιτειών συχνά βρίσκονται εγκλωβισμένοι σε συγκεκριμένα οικοσυστήματα τεχνολογίας που παρέχονται από εταιρείες όπως η Amazon, η Microsoft ή η Google. Αυτές οι εταιρείες παρέχουν τη ραχοκοκαλιά για τη στρατιωτική AI, δημιουργώντας μια βαθιά εξάρτηση που ξεπερνά τις παραδοσιακές συμφωνίες όπλων. Αν ένα έθνος βασίζεται σε ένα ξένο cloud για να τρέξει τα αμυντικά του συστήματα, θυσιάζει έναν βαθμό κυριαρχίας. Αυτή η δυναμική αναγκάζει τις χώρες να επανεξετάσουν τις βιομηχανικές τους βάσεις. Δεν χτίζουν πλέον μόνο εργοστάσια για βλήματα, αλλά data centers για την εκπαίδευση μοντέλων. Το Υπουργείο Άμυνας έχει καταστήσει σαφές ότι η διατήρηση του προβαδίσματος σε αυτές τις τεχνολογίες αποτελεί την κορυφαία προτεραιότητα για την επόμενη δεκαετία. Δεν πρόκειται απλώς για μια στρατιωτική κούρσα, αλλά για μια κούρσα υπολογιστικής κυριαρχίας.
Η καθημερινή ρουτίνα της αλγοριθμικής επιτήρησης
Φανταστείτε έναν συνοριοφύλακα στο εγγύς μέλλον. Η μέρα του δεν ξεκινά με μια φυσική περιπολία. Ξεκινά με ένα dashboard που δείχνει την κατάσταση πενήντα αυτόνομων αισθητήρων διασκορπισμένων σε μια οροσειρά. Αυτοί οι αισθητήρες δεν είναι απλές κάμερες. Είναι κόμβοι edge computing που φιλτράρουν χιλιάδες ώρες βίντεο για να βρουν μια μοναδική ανωμαλία. Ο πράκτορας δεν κοιτάζει οθόνες. Περιμένει το σύστημα να επισημάνει ένα γεγονός υψηλής πιθανότητας. Όταν ένα drone εντοπίσει κίνηση, δεν ζητά άδεια για να ακολουθήσει. Προσαρμόζει την πορεία πτήσης του, μεταβαίνει σε υπέρυθρη ακτινοβολία και ξεκινά μια ρουτίνα παρακολούθησης. Ο πράκτορας βλέπει μόνο το αποτέλεσμα. Αυτό είναι το μοντέλο “human-on-the-loop” στην πράξη. Η μηχανή κάνει τη βαριά δουλειά της αναζήτησης και ταυτοποίησης, ενώ ο άνθρωπος είναι εκεί μόνο για να επαληθεύσει την τελική πρόθεση. Αυτό μειώνει την κόπωση, αλλά δημιουργεί επίσης μια επικίνδυνη εξάρτηση από την ακρίβεια του συστήματος. Αν ο αλγόριθμος ταυτοποιήσει λανθασμένα έναν πολίτη ως απειλή, ο πράκτορας έχει μόνο δευτερόλεπτα για να εντοπίσει το σφάλμα πριν το σύστημα προχωρήσει στην επόμενη φάση του πρωτοκόλλου του.
Σε μια ζώνη μάχης, αυτό το σενάριο γίνεται ακόμη πιο έντονο. Ένα σμήνος από drones μπορεί να έχει επιφορτιστεί με την καταστολή των εχθρικών αεραμυνών. Τα drones επικοινωνούν μεταξύ τους για να συντονίσουν τις θέσεις και τους στόχους τους. Χρησιμοποιούν τοπικά mesh networks για να μοιράζονται δεδομένα, διασφαλίζοντας ότι αν ένα drone καταρριφθεί, τα άλλα αναπληρώνουν αμέσως. Ο χειριστής κάθεται σε ένα κέντρο ελέγχου εκατοντάδες μίλια μακριά, παρακολουθώντας μια ψηφιακή αναπαράσταση του σμήνους. Δεν «πετάει» τα drones με την παραδοσιακή έννοια. Διαχειρίζεται ένα σύνολο στόχων. Το άγχος δεν είναι σωματικό αλλά γνωστικό. Ο χειριστής πρέπει να αποφασίσει αν η συμπεριφορά του σμήνους κλιμακώνει μια κατάσταση πολύ γρήγορα. Αν το αυτόνομο σύστημα εντοπίσει έναν στόχο που δεν υπήρχε στην αρχική αποστολή, ο χειριστής πρέπει να κάνει μια επιλογή σε κλάσματα δευτερολέπτου. Εδώ είναι που το χάσμα μεταξύ ρητορικής και ανάπτυξης είναι πιο ορατό. Οι κυβερνήσεις ισχυρίζονται ότι οι άνθρωποι θα παίρνουν πάντα την τελική απόφαση, αλλά όταν η μηχανή παρουσιάζει έναν «επιβεβαιωμένο» στόχο κατά τη διάρκεια μιας εμπλοκής υψηλής ταχύτητας, ο άνθρωπος γίνεται μια σφραγίδα για την επιλογή του αλγόριθμου.
Η λογική των προμηθειών πίσω από αυτά τα συστήματα εστιάζει σε τεχνολογία «attritable» (αναλώσιμη). Πρόκειται για πλατφόρμες αρκετά φθηνές ώστε να μπορούν να χαθούν στη μάχη χωρίς να προκαλέσουν στρατηγική ή οικονομική κρίση. Αυτό αλλάζει τον υπολογισμό κινδύνου για τους διοικητές. Αν η απώλεια εκατό drones είναι αποδεκτή, είναι πιο πιθανό να τα χρησιμοποιήσουν επιθετικά. Αυτό αυξάνει τη συχνότητα των εμπλοκών και την πιθανότητα ακούσιας κλιμάκωσης. Μια μικρή αψιμαχία μεταξύ δύο αυτόνομων σμηνών θα μπορούσε να εξελιχθεί σε μεγαλύτερη σύγκρουση πριν καν οι πολιτικοί ηγέτες αντιληφθούν ότι συνέβη μια συνάντηση. Η ταχύτητα της μηχανής δημιουργεί ένα κενό όπου η παραδοσιακή διπλωματία δεν μπορεί να λειτουργήσει. Οργανισμοί όπως το Reuters έχουν τεκμηριώσει πώς η ταχεία ανάπτυξη drones σε ενεργές ζώνες συγκρούσεων ξεπερνά την ικανότητα των διεθνών φορέων να δημιουργήσουν κανόνες εμπλοκής. Αυτή είναι η αστάθεια που εισάγει η αυτονομία στο παγκόσμιο πλαίσιο ασφαλείας. Είναι ένας κόσμος όπου το πρώτο πλήγμα θα μπορούσε να πυροδοτηθεί από ένα bug στο λογισμικό ή μια λανθασμένη ανάγνωση αισθητήρα.
Το κρυφό κόστος της αυτόνομης επίβλεψης
Ποιο είναι το κρυφό κόστος της μετάβασης προς μια αυτόνομη αμυντική στάση; Πρέπει να αναρωτηθούμε ποιος φέρει την ευθύνη όταν ένα αυτόνομο σύστημα αποτυγχάνει. Αν ένα drone διαπράξει έγκλημα πολέμου λόγω ελαττώματος στα δεδομένα εκπαίδευσής του, η ευθύνη βαραίνει τον διοικητή, τον προγραμματιστή ή την εταιρεία που πούλησε το λογισμικό; Τα τρέχοντα νομικά πλαίσια δεν είναι εξοπλισμένα για να απαντήσουν σε αυτά τα ερωτήματα. Υπάρχει επίσης το ζήτημα της προστασίας των δεδομένων και της ασφάλειας. Οι τεράστιες ποσότητες δεδομένων που απαιτούνται για την εκπαίδευση αυτών των συστημάτων περιλαμβάνουν συχνά ευαίσθητες πληροφορίες για τους πληθυσμούς των πολιτών. Πώς αποθηκεύονται αυτά τα δεδομένα και ποιος έχει πρόσβαση σε αυτά; Ο κίνδυνος ενός «black box» που λαμβάνει αποφάσεις ζωής και θανάτου αποτελεί κεντρικό μέλημα για ομάδες όπως τα Ηνωμένα Έθνη, τα οποία συζητούν για χρόνια την ηθική των φονικών αυτόνομων όπλων. Πρέπει επίσης να λάβουμε υπόψη το περιβαλλοντικό κόστος των τεράστιων data centers που απαιτούνται για τη συντήρηση αυτών των συστημάτων. Η κατανάλωση ενέργειας της στρατιωτικής AI είναι ένας σημαντικός αλλά σπάνια συζητούμενος παράγοντας στο συνολικό κόστος ιδιοκτησίας.
Ένα άλλο σκεπτικιστικό ερώτημα αφορά την ακεραιότητα των δεδομένων εκπαίδευσης. Αν ένας αντίπαλος γνωρίζει ποια δεδομένα χρησιμοποιούνται για την εκπαίδευση ενός μοντέλου αναγνώρισης στόχων, μπορεί να αναπτύξει «adversarial attacks» για να ξεγελάσει το σύστημα. Ένα απλό κομμάτι ταινίας ή ένα συγκεκριμένο μοτίβο σε ένα όχημα θα μπορούσε να κάνει ένα τανκ να μοιάζει με σχολικό λεωφορείο στα μάτια μιας AI. Αυτό δημιουργεί ένα νέο είδος κούρσας εξοπλισμών με επίκεντρο τη δηλητηρίαση δεδομένων (data poisoning) και την ευρωστία των μοντέλων.
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Τεχνικοί περιορισμοί και edge integration
Η τεχνική πραγματικότητα των αυτόνομων όπλων καθορίζεται από περιορισμούς, όχι από απεριόριστες δυνατότητες. Το πιο σημαντικό σημείο συμφόρησης είναι το edge computing. Ένα drone δεν μπορεί να μεταφέρει ένα τεράστιο server rack. Πρέπει να τρέχει τα μοντέλα AI του σε μικρά chips χαμηλής κατανάλωσης. Αυτό απαιτεί model quantization, δηλαδή τη διαδικασία συρρίκνωσης ενός σύνθετου νευρωνικού δικτύου ώστε να μπορεί να τρέξει σε περιορισμένο hardware. Αυτή η διαδικασία συχνά μειώνει την ακρίβεια του μοντέλου. Οι μηχανικοί πρέπει να εξισορροπούν συνεχώς την ανάγκη για αναγνώριση υψηλής πιστότητας με τα φυσικά όρια της μπαταρίας και της επεξεργαστικής ισχύος της πλατφόρμας. Τα όρια των API παίζουν επίσης ρόλο. Όταν πολλαπλά συστήματα από διαφορετικούς προμηθευτές πρέπει να επικοινωνήσουν μεταξύ τους, η έλλειψη τυποποιημένων πρωτοκόλλων δημιουργεί τεράστια τριβή. Ένα drone επιτήρησης από μια εταιρεία μπορεί να μην είναι σε θέση να μοιραστεί τα δεδομένα στόχου του με ένα drone κρούσης από μια άλλη εταιρεία χωρίς ένα πολύπλοκο και αργό middleware layer. Γι’ αυτό η «ισχύς της πλατφόρμας» είναι τόσο σημαντική. Αν μια εταιρεία παρέχει ολόκληρο το stack, η ενσωμάτωση είναι απρόσκοπτη, αλλά η κυβέρνηση γίνεται «εγκλωβισμένη» σε αυτόν τον προμηθευτή.
Η τοπική αποθήκευση είναι ένα άλλο κρίσιμο ζήτημα. Σε ένα περιβάλλον όπου η επικοινωνία μεγάλων αποστάσεων παρεμβάλλεται, ένα drone πρέπει να αποθηκεύει όλα τα δεδομένα της αποστολής του τοπικά. Αυτό δημιουργεί κίνδυνο ασφαλείας. Αν το drone αιχμαλωτιστεί, ο εχθρός θα μπορούσε να αποκτήσει πρόσβαση στα αρχεία καταγραφής της αποστολής, στα μοντέλα εκπαίδευσης και στα δεδομένα των αισθητήρων. Αυτό οδήγησε στην ανάπτυξη αποθήκευσης που αυτοκαταστρέφεται και κρυπτογραφημένων θυλάκων μέσα στο hardware. Επιπλέον, η ενσωμάτωση της ροής εργασίας αυτών των συστημάτων στις υπάρχουσες στρατιωτικές δομές είναι συχνά ακατάστατη. Οι στρατιώτες που έχουν συνηθίσει τον παραδοσιακό εξοπλισμό μπορεί να δυσκολεύονται να εμπιστευτούν μια μηχανή που δρα μόνη της. Υπάρχει μια απότομη καμπύλη εκμάθησης για τη διαχείριση αυτόνομων στόλων. Το geek section του στρατού εστιάζει τώρα στο “DevSecOps”, που είναι η πρακτική ενσωμάτωσης της ασφάλειας και της ανάπτυξης στον επιχειρησιακό κύκλο ζωής ενός όπλου. Αυτό σημαίνει ότι ένα software patch θα μπορούσε να αναπτυχθεί σε ένα drone ενώ βρίσκεται στο κατάστρωμα ενός αεροπλανοφόρου, έτοιμο για εκτόξευση. Το σημείο συμφόρησης δεν είναι πλέον η γραμμή παραγωγής, αλλά το bandwidth του deployment pipeline.
- Το model quantization μειώνει την ακρίβεια της ταυτοποίησης στόχων με αντάλλαγμα τη χαμηλότερη κατανάλωση ενέργειας.
- Το mesh networking επιτρέπει στα drones να μοιράζονται εργασίες επεξεργασίας, δημιουργώντας ουσιαστικά έναν κατανεμημένο υπερυπολογιστή στον ουρανό.
- Η αρχιτεκτονική zero-trust γίνεται το πρότυπο για την ασφάλεια της επικοινωνίας μεταξύ αυτόνομων κόμβων.
- Το latency στους συνδέσμους sensor-to-shooter παραμένει η κύρια μέτρηση για την αξιολόγηση της αποτελεσματικότητας του συστήματος.
Το τελικό τεχνικό εμπόδιο είναι τα ίδια τα δεδομένα. Η εκπαίδευση ενός μοντέλου για την αναγνώριση ενός συγκεκριμένου τύπου καμουφλαρισμένου οχήματος σε διάφορες καιρικές συνθήκες απαιτεί εκατομμύρια επισημειωμένες εικόνες. Η συλλογή και η επισήμανση αυτών των δεδομένων είναι ένα τεράστιο ανθρώπινο εγχείρημα. Μεγάλο μέρος αυτής της εργασίας ανατίθεται σε ιδιώτες εργολάβους, δημιουργώντας μια εκτεταμένη εφοδιαστική αλυσίδα εργαζομένων στα δεδομένα. Αυτό εισάγει ένα ακόμη επίπεδο κινδύνου ασφαλείας. Αν η διαδικασία επισήμανσης δεδομένων τεθεί σε κίνδυνο, το προκύπτον μοντέλο AI θα είναι ελαττωματικό. Το «Geek Section» της αμυντικής βιομηχανίας είναι αυτή τη στιγμή εμμονικό με τη δημιουργία συνθετικών δεδομένων. Αυτό περιλαμβάνει τη χρήση προσομοιώσεων υψηλής πιστότητας για τη δημιουργία «ψεύτικων» δεδομένων για την εκπαίδευση της AI. Αν και αυτό επιταχύνει τη διαδικασία, μπορεί να οδηγήσει σε ένα χάσμα «sim-to-real», όπου η AI αποδίδει τέλεια σε μια προσομοίωση αλλά αποτυγχάνει στην ακατάστατη, απρόβλεπτη πραγματικότητα του φυσικού κόσμου. Αυτό το χάσμα είναι εκεί όπου συμβαίνουν τα πιο επικίνδυνα σφάλματα.
Σημείωση συντάκτη: Δημιουργήσαμε αυτόν τον ιστότοπο ως έναν πολύγλωσσο κόμβο ειδήσεων και οδηγών τεχνητής νοημοσύνης για άτομα που δεν είναι φανατικοί των υπολογιστών, αλλά εξακολουθούν να θέλουν να κατανοήσουν την τεχνητή νοημοσύνη, να τη χρησιμοποιούν με μεγαλύτερη αυτοπεποίθηση και να παρακολουθούν το μέλλον που ήδη έρχεται.
Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας.Ουσιαστική πρόοδος κατά το επόμενο έτος
Τι θεωρείται πραγματική πρόοδος το 2026; Δεν είναι η αποκάλυψη ενός νέου drone. Είναι η θέσπιση σαφών, εφαρμόσιμων πρωτοκόλλων για τα όρια αυτονομίας. Πρέπει να δούμε διεθνείς συμφωνίες που να ορίζουν τι σημαίνει στην πράξη ο «ουσιαστικός ανθρώπινος έλεγχος». Για την τεχνολογική βιομηχανία, πρόοδος σημαίνει τη δημιουργία ανοιχτών προτύπων για στρατιωτικά API, ώστε διαφορετικά συστήματα να μπορούν να συνεργάζονται χωρίς τον εγκλωβισμό σε προμηθευτές (vendor lock-in). Για τις κυβερνήσεις, σημαίνει να ξεπεράσουν τη ρητορική της «υπεροχής της AI» και να αντιμετωπίσουν τα δύσκολα ερωτήματα της ευθύνης και του κινδύνου κλιμάκωσης. Θα πρέπει να αναζητήσουμε την ανάπτυξη «εξηγήσιμης AI» (explainable AI) στα αμυντικά συστήματα, όπου η μηχανή μπορεί να παρέχει μια αιτιολόγηση για τις αποφάσεις της σε έναν ανθρώπινο χειριστή. Αν μπορέσουμε να επιτύχουμε έστω και ένα βασικό επίπεδο διαφάνειας στον τρόπο λειτουργίας αυτών των αλγόριθμων, θα έχουμε κάνει τον κόσμο λίγο πιο ασφαλή. Ο στόχος για το 2026 θα πρέπει να είναι η διασφάλιση ότι καθώς οι μηχανές μας γίνονται πιο έξυπνες, η επίβλεψή μας πάνω σε αυτές γίνεται ακόμη πιο ισχυρή. Το χάσμα μεταξύ της βιομηχανικής ταχύτητας και της αργής πολιτικής πρέπει να κλείσει πριν ξεκινήσει η επόμενη μεγάλη σύγκρουση. Αυτός είναι ο μόνος τρόπος για να διατηρηθεί η σταθερότητα σε μια εποχή αυτοματοποιημένης ισχύος.
Το συμπέρασμα είναι ότι τα αυτόνομα όπλα δεν αποτελούν πλέον μια μελλοντική απειλή. Είναι μια παρούσα πραγματικότητα. Η εστίαση στις προμήθειες, την επιτήρηση και τα όρια αυτονομίας αναδιαμορφώνει τη συζήτηση για την παγκόσμια ασφάλεια. Ενώ η τεχνολογία προσφέρει την υπόσχεση μιας ταχύτερης, πιο αποτελεσματικής άμυνας, εισάγει επίσης βαθιές αστάθειες και ηθικά διλήμματα. Οδεύουμε προς μια περίοδο όπου η ισχύς ενός έθνους μετριέται από τον έλεγχο του cloud και την ικανότητά του να αναπτύσσει κώδικα στο edge. Η πρόκληση για το επόμενο έτος θα είναι να διαχειριστούμε αυτή τη μετάβαση χωρίς να χάσουμε το ανθρώπινο στοιχείο που είναι απαραίτητο για έναν δίκαιο και σταθερό κόσμο. Πρέπει να θυμόμαστε ότι ενώ μια μηχανή μπορεί να υπολογίσει έναν στόχο, δεν μπορεί να κατανοήσει τις συνέπειες ενός πολέμου. Αυτή η ευθύνη παραμένει δική μας. Το μέλλον της ασφάλειας δεν αφορά μόνο την κατασκευή καλύτερων drones, αλλά την οικοδόμηση καλύτερων κανόνων για τις μηχανές που έχουμε ήδη δημιουργήσει.