Πώς η Τεχνητή Νοημοσύνη έγινε το μεγαλύτερο πολιτικό θέμα στην τεχνολογία
Η Τεχνητή Νοημοσύνη (AI) πέρασε από τα εργαστήρια στο επίκεντρο των παγκόσμιων πολιτικών συγκρούσεων. Δεν είναι πλέον απλώς ένα τεχνικό θέμα για μηχανικούς ή μια περιέργεια για τους πρώτους χρήστες. Σήμερα, η AI αποτελεί βασικό εργαλείο πολιτικής επιρροής. Κυβερνήσεις και εταιρείες χρησιμοποιούν την τεχνολογία για να διαμορφώσουν την κοινή γνώμη, να ελέγξουν τη ροή των πληροφοριών και να επιβάλουν την εθνική κυριαρχία. Αυτή η αλλαγή συνέβη ραγδαία. Πριν από λίγα χρόνια, η συζήτηση αφορούσε την αποδοτικότητα και τον αυτοματισμό. Τώρα, επικεντρώνεται στην κυριαρχία και την επιρροή. Τα πολιτικά διακυβεύματα είναι υψηλά, καθώς η τεχνολογία καθορίζει ποιος ελέγχει το αφήγημα του μέλλοντος. Κάθε απόφαση πολιτικής και κάθε εταιρική ρητορική κρύβει μια ατζέντα. Η κατανόηση αυτών των κινήτρων είναι απαραίτητη για όποιον προσπαθεί να κατανοήσει τον σύγχρονο κόσμο. Η AI δεν είναι μια ουδέτερη δύναμη. Είναι ο καθρέφτης των προτεραιοτήτων εκείνων που την κατασκευάζουν και τη ρυθμίζουν. Αυτό το άρθρο εξετάζει τις πολιτικές δυνάμεις που δρουν και τις συνέπειες για το παγκόσμιο κοινό.
Η μετάβαση από τον κώδικα στην εξουσία
Το πολιτικό πλαίσιο της Τεχνητής Νοημοσύνης συνήθως εμπίπτει σε δύο κατηγορίες. Η μία πλευρά εστιάζει στην ασφάλεια και τον υπαρξιακό κίνδυνο. Η άλλη εστιάζει στην καινοτομία και τον εθνικό ανταγωνισμό. Και οι δύο προοπτικές εξυπηρετούν συγκεκριμένους πολιτικούς στόχους. Όταν μια μεγάλη tech εταιρεία προειδοποιεί για τους κινδύνους της ανεξέλεγκτης AI, συχνά υποστηρίζει κανονισμούς που θα δυσκόλευαν τα μικρότερα startups να ανταγωνιστούν. Αυτή είναι μια κλασική μορφή ρυθμιστικής δέσμευσης. Παρουσιάζοντας την τεχνολογία ως επικίνδυνη, οι καθιερωμένοι παίκτες διασφαλίζουν ότι μόνο όσοι διαθέτουν τεράστιους πόρους μπορούν να συμμορφωθούν με τον νόμο. Αυτό δημιουργεί ένα τείχος γύρω από τα επιχειρηματικά τους μοντέλα, ενώ παράλληλα εμφανίζονται κοινωνικά υπεύθυνοι. Πρόκειται για μια στρατηγική χρήση του φόβου για τη διατήρηση ενός πλεονεκτήματος στην αγορά.
Οι πολιτικοί έχουν τα δικά τους κίνητρα. Στις Ηνωμένες Πολιτείες, η AI συζητείται συχνά ως προτεραιότητα εθνικής ασφάλειας. Αυτό το πλαίσιο επιτρέπει την αύξηση της χρηματοδότησης για αμυντικά έργα και δικαιολογεί εμπορικούς περιορισμούς σε ανταγωνιστές όπως η Κίνα. Μετατρέποντας την AI σε ζήτημα εθνικής επιβίωσης, η κυβέρνηση μπορεί να παρακάμψει τις συνηθισμένες συζητήσεις για την ιδιωτικότητα ή τις πολιτικές ελευθερίες. Στην Ευρωπαϊκή Ένωση, η ρητορική αφορά συχνά τα ανθρώπινα δικαιώματα και την ψηφιακή κυριαρχία. Αυτό επιτρέπει στην ΕΕ να τοποθετηθεί ως παγκόσμιος ρυθμιστής, ακόμη και αν στερείται των τεράστιων tech εταιρειών που βρίσκονται στις ΗΠΑ ή την Κίνα. Κάθε περιοχή χρησιμοποιεί την AI για να προβάλει τις αξίες της και να προστατεύσει τα οικονομικά της συμφέροντα. Η τεχνολογία είναι το μέσο, αλλά η εξουσία είναι το μήνυμα.
Η σύγχυση που φέρνουν οι περισσότεροι άνθρωποι σε αυτό το θέμα είναι η πεποίθηση ότι αυτές οι συζητήσεις αφορούν την ίδια την τεχνολογία. Δεν είναι έτσι. Οι τεχνικές δυνατότητες ενός large language model είναι δευτερεύουσες μπροστά στο ερώτημα του ποιος αποφασίζει τι επιτρέπεται να λέει αυτό το μοντέλο. Όταν μια κυβέρνηση επιβάλλει ότι η AI πρέπει να ευθυγραμμίζεται με ορισμένες αξίες, ουσιαστικά δημιουργεί μια νέα μορφή soft power. Γι’ αυτό η μάχη για το open source AI είναι τόσο έντονη. Τα open source μοντέλα αντιπροσωπεύουν μια απώλεια ελέγχου τόσο για τις big tech όσο και για τις κυβερνήσεις. Αν ο καθένας μπορεί να τρέξει ένα ισχυρό μοντέλο στο δικό του hardware, η ικανότητα των κεντρικών αρχών να ελέγχουν την πληροφορία εξαφανίζεται. Γι’ αυτό βλέπουμε μια πίεση για τον περιορισμό της κυκλοφορίας των model weights με το πρόσχημα της δημόσιας ασφάλειας.
Εθνικά συμφέροντα και παγκόσμια τριβή
Ο παγκόσμιος αντίκτυπος της AI είναι πιο ορατός στον αγώνα για την υπολογιστική ισχύ (compute). Η πρόσβαση σε high end chips έχει γίνει το νέο πετρέλαιο. Οι χώρες που ελέγχουν την εφοδιαστική αλυσίδα των ημιαγωγών κατέχουν τεράστιο πλεονέκτημα. Αυτό οδήγησε σε μια σειρά ελέγχων εξαγωγών και εμπορικών πολέμων που έχουν ελάχιστη σχέση με το λογισμικό και τα πάντα να κάνουν με το hardware. Οι Ηνωμένες Πολιτείες έχουν περιορίσει την πώληση προηγμένων GPUs σε ορισμένες περιοχές για να αποτρέψουν την εκπαίδευση μοντέλων που θα μπορούσαν να χρησιμοποιηθούν για στρατιωτικούς σκοπούς ή σκοπούς επιτήρησης. Αυτή είναι μια άμεση χρήση της τεχνολογικής πολιτικής ως εργαλείο εξωτερικής πολιτικής. Αναγκάζει άλλα έθνη να επιλέξουν πλευρές και δημιουργεί ένα κατακερματισμένο παγκόσμιο τεχνολογικό περιβάλλον.
Η Κίνα ακολουθεί μια διαφορετική στρατηγική. Στόχος τους είναι η ενσωμάτωση της AI σε κάθε πτυχή της κοινωνικής και βιομηχανικής ζωής για να διασφαλιστεί η σταθερότητα και η αποδοτικότητα. Για την κινεζική κυβέρνηση, η AI είναι ένας τρόπος διαχείρισης ενός τεράστιου πληθυσμού και διατήρησης ανταγωνιστικού πλεονεκτήματος στη μεταποίηση. Αυτό δημιουργεί ένα σημείο τριβής με τις δυτικές δημοκρατίες που δίνουν προτεραιότητα στην ατομική ιδιωτικότητα. Ωστόσο, η διάκριση είναι συχνά θολή. Οι δυτικές κυβερνήσεις ενδιαφέρονται επίσης για τη χρήση της AI για επιτήρηση και προγνωστική αστυνόμευση. Η διαφορά βρίσκεται συχνά στη ρητορική παρά στην πράξη. Και οι δύο πλευρές βλέπουν την τεχνολογία ως τρόπο ενίσχυσης της κρατικής εξουσίας και παρακολούθησης της διαφωνίας.
Τα αναπτυσσόμενα έθνη βρίσκονται στη μέση. Κινδυνεύουν να γίνουν αποικίες δεδομένων για τους tech γίγαντες του βορρά. Τα περισσότερα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των πιο ισχυρών μοντέλων του κόσμου προέρχονται από τον παγκόσμιο νότο, αλλά τα οφέλη αυτής της τεχνολογίας συγκεντρώνονται σε λίγες πλούσιες πόλεις. Αυτό δημιουργεί μια νέα μορφή ψηφιακής ανισότητας. [Insert Your AI Magazine Domain Here] δημοσίευσε μια ολοκληρωμένη ανάλυση πολιτικής AI για το πώς αυτές οι δυναμικές μετατοπίζουν την ισορροπία του παγκόσμιου εμπορίου. Χωρίς τη δική τους υποδομή AI, πολλές χώρες θα βρεθούν εξαρτημένες από ξένες πλατφόρμες για τις βασικές τους ψηφιακές υπηρεσίες. Αυτή η εξάρτηση αποτελεί σημαντικό πολιτικό ρίσκο που παραμένει σε μεγάλο βαθμό άλυτο στα διεθνή φόρουμ.
Συγκεκριμένες συνέπειες για το κοινό
Τα πρακτικά διακυβεύματα της πολιτικής της AI γίνονται καλύτερα αντιληπτά στο πλαίσιο των εκλογών και της εργασίας. Τα deepfakes και η αυτοματοποιημένη παραπληροφόρηση δεν είναι πλέον θεωρητικές απειλές. Είναι ενεργά εργαλεία που χρησιμοποιούνται από πολιτικές καμπάνιες για να δυσφημίσουν αντιπάλους και να μπερδέψουν τους ψηφοφόρους. Αυτό δημιουργεί μια κατάσταση όπου η αλήθεια είναι πιο δύσκολο να επαληθευτεί, οδηγώντας σε γενική πτώση της εμπιστοσύνης του κοινού. Όταν οι άνθρωποι δεν μπορούν να συμφωνήσουν σε βασικά γεγονότα, η δημοκρατική διαδικασία καταρρέει. Αυτό ωφελεί όσους ευδοκιμούν στο χάος ή όσους θέλουν να δικαιολογήσουν πιο περιοριστικό έλεγχο στο διαδίκτυο. Η απάντηση στην παραπληροφόρηση μέσω AI είναι συχνά μια έκκληση για περισσότερη λογοκρισία, η οποία ενέχει τους δικούς της πολιτικούς κινδύνους.
Σκεφτείτε μια μέρα στη ζωή ενός campaign manager. Ξεκινούν το πρωί σαρώνοντας τα social media για βίντεο του υποψηφίου τους που έχουν δημιουργηθεί από AI. Μέχρι το μεσημέρι, πρέπει να αναπτύξουν τα δικά τους εργαλεία AI για να στοχεύσουν μικρο-ομάδες ψηφοφόρων με εξατομικευμένα μηνύματα. Αυτά τα μηνύματα είναι σχεδιασμένα για να προκαλούν συγκεκριμένες συναισθηματικές αντιδράσεις με βάση δεδομένα που έχουν συλλεχθεί από χιλιάδες πηγές. Μέχρι το βράδυ, συζητούν αν θα κυκλοφορήσουν ένα συνθετικό ηχητικό κλιπ ενός αντιπάλου για να αποσπάσουν την προσοχή από ένα πραγματικό σκάνδαλο. Σε αυτό το περιβάλλον, ο υποψήφιος με την καλύτερη ομάδα AI έχει τεράστιο πλεονέκτημα έναντι αυτού με τις καλύτερες ιδέες. Η τεχνολογία έχει μετατρέψει τη δημοκρατική διαδικασία σε έναν πόλεμο αλγορίθμων.
Για τους δημιουργούς και τους εργαζόμενους, η πολιτική ιστορία αφορά την ιδιοκτησία και την εκτόπιση. Οι κυβερνήσεις αποφασίζουν επί του παρόντος αν οι εταιρείες AI μπορούν να εκπαιδεύονται σε υλικό που προστατεύεται από πνευματικά δικαιώματα χωρίς άδεια. Αυτή είναι μια πολιτική επιλογή μεταξύ των συμφερόντων της tech βιομηχανίας και των δικαιωμάτων των ατόμων. Αν ο νόμος ευνοεί τις tech εταιρείες, θα οδηγήσει σε μια μαζική μεταφορά πλούτου από τη δημιουργική τάξη στους tech γίγαντες. Αν ο νόμος ευνοεί τους δημιουργούς, θα μπορούσε να επιβραδύνει την ανάπτυξη της τεχνολογίας. Οι περισσότεροι πολιτικοί προσπαθούν να βρουν μια μέση λύση, αλλά η πίεση από τους λομπίστες είναι έντονη. Το αποτέλεσμα θα καθορίσει την οικονομική πραγματικότητα για εκατομμύρια ανθρώπους για τις επόμενες δεκαετίες.
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Το ζήτημα της εργασίας χρησιμοποιείται επίσης ως πολιτικό εργαλείο. Ορισμένοι πολιτικοί χρησιμοποιούν την απειλή της απώλειας θέσεων εργασίας λόγω AI για να υποστηρίξουν το καθολικό βασικό εισόδημα ή ισχυρότερα συνδικάτα. Άλλοι το χρησιμοποιούν για να υποστηρίξουν την απορρύθμιση ώστε να βοηθήσουν τις εταιρείες να παραμείνουν ανταγωνιστικές. Η πραγματικότητα είναι ότι η AI πιθανότατα θα κάνει και τα δύο: θα δημιουργήσει νέες ευκαιρίες και θα καταστρέψει παλιές. Το πολιτικό ερώτημα είναι ποιος θα επωμιστεί το κόστος αυτής της μετάβασης. Επί του παρόντος, το βάρος πέφτει στον μεμονωμένο εργαζόμενο να προσαρμοστεί. Υπάρχει ελάχιστη πολιτική για την προστασία εκείνων των οποίων οι δεξιότητες καθίστανται παρωχημένες από το λογισμικό. Αυτή η έλλειψη δράσης είναι από μόνη της μια πολιτική δήλωση για την αξία της εργασίας στην εποχή του αυτοματισμού.
Ερωτήματα για τους αρχιτέκτονες της πολιτικής
Ο σωκρατικός σκεπτικισμός είναι απαραίτητος κατά την αξιολόγηση της πολιτικής για την AI. Πρέπει να ρωτήσουμε ποιος πληρώνει πραγματικά για τα «δωρεάν» εργαλεία AI που χρησιμοποιούμε καθημερινά. Το κρυφό κόστος είναι συχνά η ιδιωτικότητά μας και τα δεδομένα μας. Όταν μια κυβέρνηση παρέχει επιδοτήσεις σε μια εταιρεία AI, τι παίρνει ως αντάλλαγμα; Είναι μια υπόσχεση για καλύτερες δημόσιες υπηρεσίες ή είναι μια κερκόπορτα για επιτήρηση; Πρέπει επίσης να ρωτήσουμε για τον περιβαλλοντικό αντίκτυπο. Η ενέργεια που απαιτείται για την εκπαίδευση και τη λειτουργία αυτών των μοντέλων είναι τεράστια. Ποιος πληρώνει για το αποτύπωμα άνθρακα ενός chatbot; Συχνά, είναι οι κοινότητες που ζουν κοντά στα data centers που υποφέρουν από τις συνέπειες της αυξημένης ζήτησης ενέργειας και χρήσης νερού.
Ένα άλλο δύσκολο ερώτημα αφορά την έννοια της ευθυγράμμισης (alignment). Όταν λέμε ότι μια AI πρέπει να είναι ευθυγραμμισμένη με τις ανθρώπινες αξίες, για ποιες αξίες μιλάμε; Ένα μοντέλο ευθυγραμμισμένο με τις αξίες ενός κοσμικού φιλελεύθερου στο Σαν Φρανσίσκο θα φαίνεται πολύ διαφορετικό από ένα ευθυγραμμισμένο με έναν παραδοσιακό στο Ριάντ. Αναγκάζοντας την AI να ακολουθεί ένα συγκεκριμένο σύνολο αξιών, ουσιαστικά κωδικοποιούμε μια συγκεκριμένη κοσμοθεωρία στην υποδομή του διαδικτύου. Αυτή είναι μια μορφή πολιτιστικού ιμπεριαλισμού που σπάνια συζητείται στους tech κύκλους. Υποθέτει ότι υπάρχει ένα ενιαίο σύνολο παγκόσμιων αξιών με το οποίο όλοι μπορούν να συμφωνήσουν, κάτι που είναι ιστορικά και πολιτικά ψευδές.
Τέλος, πρέπει να ρωτήσουμε για τις μακροπρόθεσμες συνέπειες της ανάθεσης της λήψης αποφάσεων σε αλγορίθμους. Αν χρησιμοποιούμε AI για να καθορίσουμε ποιος παίρνει δάνειο, ποιος παίρνει δουλειά ή ποιος παίρνει εγγύηση, αφαιρούμε την ανθρώπινη ευθύνη από το σύστημα. Όταν μια AI κάνει λάθος, δεν υπάρχει κανείς να θεωρηθεί υπεύθυνος. Αυτή είναι μια σημαντική πολιτική μετατόπιση που υπονομεύει το κράτος δικαίου. Αντικαθιστά διαφανείς, αμφισβητήσιμες αποφάσεις με αποτελέσματα «μαύρου κουτιού». Πρέπει να ρωτήσουμε αν είμαστε πρόθυμοι να ανταλλάξουμε την αυτονομία μας για χάρη της αποδοτικότητας. Η απάντηση σε αυτό το ερώτημα θα καθορίσει αν η AI υπηρετεί την ανθρωπότητα ή αν η ανθρωπότητα γίνει ένα data point για τις μηχανές.
Η υποδομή του ελέγχου
Το geek κομμάτι αυτής της συζήτησης εστιάζει στους τεχνικούς τρόπους με τους οποίους η πολιτική ενσωματώνεται στο λογισμικό. Ένας από τους πιο σημαντικούς τομείς είναι τα όρια και το throttling των APIs. Μεγάλοι πάροχοι όπως η OpenAI ή η Google μπορούν ουσιαστικά να φιμώσουν ορισμένα είδη έρευνας ή εμπορικής δραστηριότητας περιορίζοντας την πρόσβαση στα μοντέλα τους. Αν ένας προγραμματιστής δημιουργήσει ένα εργαλείο που ο πάροχος βρίσκει πολιτικά άβολο, μπορεί απλώς να κόψει το API. Αυτό καθιστά τους παρόχους τους απόλυτους λογοκριτές της εποχής της AI. Οι προγραμματιστές εξετάζουν όλο και περισσότερο την τοπική αποθήκευση και την τοπική εκτέλεση μοντέλων για να αποφύγουν αυτή την εξάρτηση. Το να τρέχεις ένα μοντέλο όπως το Llama 3 σε τοπικό hardware είναι μια πολιτική πράξη κυριαρχίας.
Η ενσωμάτωση στη ροή εργασίας (workflow integration) είναι ένα άλλο πεδίο μάχης. Όταν η AI ενσωματώνεται σε εργαλεία όπως το Microsoft Word ή το Google Docs, αρχίζει να προτείνει όχι μόνο γραμματική, αλλά και ιδέες. Οι προεπιλεγμένες ρυθμίσεις αυτών των εργαλείων μπορούν να ωθήσουν εκατομμύρια ανθρώπους προς ορισμένους τρόπους σκέψης. Αυτή είναι μια λεπτή αλλά ισχυρή μορφή επιρροής. Οι μηχανικοί συζητούν επί του παρόντος πώς να δημιουργήσουν «αφιλτράριστα» μοντέλα που δεν έχουν αυτές τις ενσωματωμένες προκαταλήψεις. Ωστόσο, αυτά τα μοντέλα επικρίνονται συχνά ως επικίνδυνα ή προσβλητικά. Η τεχνική πρόκληση είναι να δημιουργηθεί ένα σύστημα που είναι χρήσιμο χωρίς να είναι χειραγωγικό. Αυτό είναι επί του παρόντος ένα άλυτο πρόβλημα στον τομέα του machine learning.
Η τοπική αποθήκευση δεδομένων γίνεται επίσης μια σημαντική τεχνική και πολιτική απαίτηση. Πολλές κυβερνήσεις επιβάλλουν ότι τα δεδομένα των πολιτών τους πρέπει να αποθηκεύονται σε servers εντός των συνόρων τους. Αυτό είναι γνωστό ως data residency. Είναι μια τεχνική απάντηση στον πολιτικό φόβο ότι ξένες κυβερνήσεις θα μπορούσαν να έχουν πρόσβαση σε ευαίσθητες πληροφορίες μέσω του cloud. Για τις tech εταιρείες, αυτό σημαίνει την κατασκευή ακριβών τοπικών υποδομών και την πλοήγηση σε έναν περίπλοκο ιστό τοπικών νόμων. Για τους χρήστες, σημαίνει ότι τα δεδομένα τους μπορεί να είναι πιο ασφαλή από ξένους κατασκόπους αλλά πιο ευάλωτα στη δική τους κυβέρνηση. Η τεχνική αρχιτεκτονική του διαδικτύου επανασχεδιάζεται για να ταιριάζει στα σύνορα του έθνους-κράτους.
Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας.Λίστα τεχνικών προκλήσεων στην πολιτική της AI:
- Model weights και η συζήτηση για την πρόσβαση σε open source.
- Διακυβέρνηση της υπολογιστικής ισχύος και παρακολούθηση των high end GPUs.
- Προέλευση δεδομένων και νομικά δικαιώματα των συνόλων εκπαίδευσης.
- Αλγοριθμική διαφάνεια και δυνατότητα ελέγχου των συστημάτων «μαύρου κουτιού».
- Ενεργειακή απόδοση και βιώσιμη κλιμάκωση των data centers.
Το πραγματικό κόστος του αφηγήματος
Το συμπέρασμα είναι ότι η AI έγινε πολιτική ιστορία επειδή είναι το πιο ισχυρό εργαλείο κοινωνικής μηχανικής που δημιουργήθηκε ποτέ. Η ρητορική γύρω από την τεχνολογία σπάνια αφορά τον ίδιο τον κώδικα. Αφορά το ποιος θα ελέγχει το μέλλον της πληροφορίας, της εργασίας και της εθνικής ισχύος. Βλέπουμε μια μετατόπιση από το ανοιχτό, χωρίς σύνορα διαδίκτυο προς έναν πιο κατακερματισμένο και ελεγχόμενο ψηφιακό κόσμο. Αυτή η αλλαγή καθοδηγείται από τη συνειδητοποίηση ότι η AI είναι πολύ σημαντική για να αφεθεί στους μηχανικούς.