Γιατί η πολιτική για την AI εξελίσσεται σε αγώνα εξουσίας [2024]
Η πολιτική για την AI δεν είναι πλέον ένα εξειδικευμένο θέμα για ακαδημαϊκούς ή δικηγόρους. Είναι μια μάχη υψηλού ρίσκου για πολιτική και οικονομική επιρροή. Κυβερνήσεις και tech giants παλεύουν να ορίσουν τους κανόνες, γιατί όποιος ελέγχει τα standards, ελέγχει το μέλλον της παγκόσμιας βιομηχανίας. Δεν πρόκειται απλώς για το πώς θα σταματήσουμε ένα πρόγραμμα από το να κάνει λάθη. Πρόκειται για το ποιος κατέχει τα δεδομένα σας, ποιος φέρει την ευθύνη όταν ένα σύστημα προκαλεί ζημιά και ποια έθνη θα ηγηθούν της παγκόσμιας οικονομίας την επόμενη δεκαετία. Οι πολιτικοί χρησιμοποιούν τον φόβο για να δικαιολογήσουν τον αυστηρό έλεγχο, ενώ οι εταιρείες χρησιμοποιούν την υπόσχεση της προόδου για να αποφύγουν την εποπτεία. Η πραγματικότητα είναι ένα μπερδεμένο παιχνίδι διελκυστίνδας όπου το κοινό καταλήγει συχνά να είναι το σχοινί. Πολλοί πιστεύουν ότι η πολιτική για την AI αφορά την αποτροπή μιας sci-fi καταστροφής. Στην πραγματικότητα, αφορά φοροαπαλλαγές, νομική προστασία και κυριαρχία στην αγορά. Ο αγώνας είναι ορατός σε κάθε νέο regulation και σε κάθε δημόσια ακρόαση. Ο έλεγχος της πληροφορίας είναι το απόλυτο έπαθλο σε αυτή τη σύγχρονη σύγκρουση.
Οι κρυφοί μηχανισμοί της αλγοριθμικής διακυβέρνησης
Στον πυρήνα της, η πολιτική για την AI είναι το σύνολο των κανόνων που διέπουν τον τρόπο με τον οποίο δημιουργείται και χρησιμοποιείται η τεχνητή νοημοσύνη. Σκεφτείτε το σαν τον κώδικα οδικής κυκλοφορίας για το software. Χωρίς αυτούς τους κανόνες, οι εταιρείες μπορούν να κάνουν ό,τι θέλουν με τις πληροφορίες σας. Με υπερβολικούς κανόνες, η καινοτομία μπορεί να επιβραδυνθεί. Η συζήτηση συνήθως χωρίζεται σε δύο στρατόπεδα. Η μία πλευρά θέλει ανοιχτή πρόσβαση ώστε όλοι να μπορούν να χτίσουν τα δικά τους εργαλεία. Η άλλη πλευρά θέλει αυστηρή αδειοδότηση ώστε μόνο λίγες έμπιστες εταιρείες να μπορούν να λειτουργούν μεγάλα μοντέλα. Εδώ έρχεται το πολιτικό όφελος. Αν ένας πολιτικός υποστηρίζει την big tech, μιλάει για εθνική ασφάλεια και νίκη σε έναν παγκόσμιο αγώνα. Αν θέλει να φανεί προστάτης του λαού, μιλάει για ασφάλεια και αντικατάσταση θέσεων εργασίας. Αυτές οι θέσεις αφορούν συχνά περισσότερο την εικόνα παρά την ίδια την τεχνολογία.
Κοινές παρανοήσεις θολώνουν αυτή τη συζήτηση. Πολλοί πιστεύουν ότι η πολιτική για την AI είναι μια επιλογή μεταξύ ασφάλειας και ταχύτητας. Αυτό είναι ένα ψευδές δίλημμα. Μπορείτε να έχετε και τα δύο, αλλά απαιτεί ένα επίπεδο διαφάνειας που οι περισσότερες εταιρείες αρνούνται να παρέχουν. Ένας άλλος μύθος είναι ότι το regulation συμβαίνει μόνο σε ομοσπονδιακό επίπεδο. Στην πραγματικότητα, πόλεις και πολιτείες ψηφίζουν τους δικούς τους νόμους για την αναγνώριση προσώπου και τους αλγόριθμους προσλήψεων. Αυτό δημιουργεί ένα συνονθύλευμα κανόνων που είναι δύσκολο να κατανοήσει κανείς. Η σύγχυση είναι συχνά σκόπιμη. Όταν οι κανόνες είναι περίπλοκοι, μόνο οι εταιρείες με τους πιο ακριβούς δικηγόρους μπορούν να τους ακολουθήσουν. Αυτό αποκλείει τους μικρότερους ανταγωνιστές και διατηρεί τη δύναμη στα χέρια της ελίτ. Η πολιτική είναι το εργαλείο για να αποφασιστεί ποιος θα έχει θέση στο τραπέζι και ποιος θα μείνει εκτός.
Ο αντίκτυπος αυτών των αποφάσεων γίνεται αισθητός από την Ουάσιγκτον μέχρι τις Βρυξέλλες και το Πεκίνο. Η Ευρωπαϊκή Ένωση πέρασε πρόσφατα το European Union AI Act, το οποίο κατηγοριοποιεί τα συστήματα ανάλογα με το ρίσκο. Αυτή η κίνηση αναγκάζει τις εταιρείες παγκοσμίως να αλλάξουν τον τρόπο λειτουργίας τους αν θέλουν να πουλήσουν στους Ευρωπαίους πολίτες. Στις Ηνωμένες Πολιτείες, η προσέγγιση είναι πιο κατακερματισμένη, εστιάζοντας σε εκτελεστικά διατάγματα και εθελοντικές δεσμεύσεις. Η Κίνα ακολουθεί διαφορετικό μονοπάτι, εστιάζοντας στον κρατικό έλεγχο και την κοινωνική σταθερότητα. Αυτό δημιουργεί έναν κατακερματισμένο κόσμο όπου ένα startup σε μια χώρα αντιμετωπίζει εντελώς διαφορετικά εμπόδια από ένα startup σε μια άλλη. Αυτός ο κατακερματισμός δεν είναι ατύχημα. Είναι μια σκόπιμη στρατηγική για την προστασία των τοπικών βιομηχανιών και τη διασφάλιση ότι τα εθνικά συμφέροντα προηγούνται. Η παγκόσμια συνεργασία είναι σπάνια γιατί τα οικονομικά διακυβεύματα είναι πολύ υψηλά για να θέλει κάποιος να μοιραστεί τα παιχνίδια του.
Όταν μια κυβέρνηση μιλάει για ηθική της AI, συχνά μιλάει για εμπορικά εμπόδια. Θέτοντας υψηλά standards ασφαλείας, μια χώρα μπορεί να μπλοκάρει αποτελεσματικά ξένο software που δεν πληροί αυτά τα κριτήρια. Αυτή είναι μια μορφή ψηφιακού προστατευτισμού. Επιτρέπει στις εγχώριες εταιρείες να αναπτυχθούν χωρίς ανταγωνισμό από το εξωτερικό. Για τον μέσο χρήστη, αυτό σημαίνει λιγότερες επιλογές και υψηλότερες τιμές. Σημαίνει επίσης ότι το software που χρησιμοποιείτε διαμορφώνεται από τις πολιτικές αξίες της χώρας όπου κατασκευάστηκε. Αν ένα μοντέλο εκπαιδεύεται υπό αυστηρούς νόμους λογοκρισίας, θα φέρει αυτές τις προκαταλήψεις μαζί του, όπου κι αν το χρησιμοποιείτε. Γι’ αυτό η μάχη για την πολιτική είναι τόσο έντονη. Είναι μια μάχη για το πολιτισμικό και ηθικό πλαίσιο του μέλλοντος. Ο κύκλος των εκλογών πιθανότατα θα δει αυτά τα θέματα να χρησιμοποιούνται ως βασικά σημεία συζήτησης για τους υποψηφίους σε όλο τον κόσμο.
Σκεφτείτε μια graphic designer, τη Sarah. Στην καθημερινότητά της, η πολιτική για την AI καθορίζει αν μπορεί να μηνύσει μια εταιρεία που χρησιμοποίησε την τέχνη της για να εκπαιδεύσει ένα μοντέλο. Αν η πολιτική ευνοεί το fair use, χάνει τον έλεγχο της δουλειάς της. Αν ευνοεί τα δικαιώματα του δημιουργού, ίσως πάρει μια αποζημίωση. Η Sarah ξυπνάει και ελέγχει το email της. Το inbox της είναι γεμάτο ενημερώσεις από παρόχους software που αλλάζουν τους όρους χρήσης για να συμπεριλάβουν την εκπαίδευση AI. Περνάει το πρωί της προσπαθώντας να κάνει opt out από αυτές τις αλλαγές, αλλά οι ρυθμίσεις είναι θαμμένες βαθιά σε ένα μενού. Το μεσημέρι, διαβάζει για έναν νέο νόμο που ίσως φορολογεί τις εταιρείες που χρησιμοποιούν AI για να αντικαταστήσουν ανθρώπους εργαζόμενους. Μέχρι το απόγευμα, χρησιμοποιεί ένα AI εργαλείο για να επιταχύνει τη ροή εργασίας της, αναρωτώμενη αν εκπαιδεύει τη δική της αντικαταστάτρια. Αυτή είναι η πρακτική πραγματικότητα της πολιτικής. Δεν είναι αφηρημένη. Επηρεάζει τον μισθό της και την ιδιοκτησία της.
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Οι δημιουργοί και οι εργαζόμενοι βρίσκονται στην πρώτη γραμμή αυτού του αγώνα εξουσίας. Όταν μια κυβέρνηση αποφασίζει ότι το περιεχόμενο που παράγεται από AI δεν μπορεί να έχει πνευματικά δικαιώματα, αλλάζει ολόκληρο το επιχειρηματικό μοντέλο για τις εταιρείες media. Αν ένα studio μπορεί να χρησιμοποιήσει μια AI για να γράψει ένα σενάριο και να μην πληρώσει έναν άνθρωπο σεναριογράφο, θα το κάνει. Η πολιτική είναι το μόνο πράγμα που μπορεί να αποτρέψει αυτή την κούρσα προς τον πάτο. Ωστόσο, τα κίνητρα για τις κυβερνήσεις είναι συχνά ευθυγραμμισμένα με τις εταιρείες. Η ανάπτυξη της high tech φαίνεται καλή στον ισολογισμό, ακόμα κι αν σημαίνει λιγότερες θέσεις εργασίας για τους πολίτες. Αυτό δημιουργεί μια ένταση μεταξύ των αναγκών της οικονομίας και των αναγκών των ανθρώπων. Οι περισσότεροι χρήστες δεν συνειδητοποιούν ότι οι καθημερινές τους αλληλεπιδράσεις με apps διαμορφώνονται από αυτές τις ήσυχες νομικές μάχες. Κάθε φορά που αποδέχεστε μια νέα privacy policy, συμμετέχετε σε ένα σύστημα που σχεδιάστηκε από lobbyists. Τα διακυβεύματα δεν αφορούν μόνο την ευκολία. Αφορούν το θεμελιώδες δικαίωμα να κατέχετε την εργασία σας και την ταυτότητά σας σε έναν κόσμο που θέλει να μετατρέψει τα πάντα σε δεδομένα.
Ποιος πληρώνει πραγματικά για τα δωρεάν AI εργαλεία που χρησιμοποιούμε; Πρέπει να αναρωτηθούμε αν η εστίαση στην ασφάλεια είναι απλώς ένας τρόπος για τις μεγάλες εταιρείες να τραβήξουν τη σκάλα πίσω τους. Αν το regulation κάνει πολύ ακριβό για ένα μικρό startup να ανταγωνιστεί, μας κάνει αυτό πραγματικά πιο ασφαλείς ή απλώς πιο εξαρτημένους από μερικά μονοπώλια; Ποιο είναι το κρυφό κόστος της ηλεκτρικής ενέργειας και του νερού που απαιτούνται για τη λειτουργία αυτών των τεράστιων data centers; Πρέπει επίσης να αμφισβητήσουμε τα ίδια τα δεδομένα. Αν μια κυβέρνηση χρησιμοποιεί AI για να προβλέψει το έγκλημα, ποιος είναι υπεύθυνος για την προκατάληψη στα δεδομένα εκπαίδευσης; Η ιδιωτικότητα είναι συχνά το πρώτο πράγμα που θυσιάζεται στο όνομα της ασφάλειας. Ανταλλάσσουμε τη μακροπρόθεσμη αυτονομία μας για βραχυπρόθεσμη ευκολία; Αυτές οι ερωτήσεις δεν έχουν εύκολες απαντήσεις, αλλά είναι αυτές που οι πολιτικοί αποφεύγουν. Πρέπει να κοιτάξουμε το Electronic Frontier Foundation και άλλες ομάδες υπεράσπισης για να δούμε πώς παλεύουν για τα δικαιώματα των χρηστών σε αυτόν τον χώρο. Το κόστος της αδράνειας είναι ένας κόσμος όπου οι επιλογές μας γίνονται για εμάς από έναν αλγόριθμο που δεν μπορούμε να δούμε ή να αμφισβητήσουμε.
Έχετε μια ιστορία, εργαλείο, τάση ή ερώτηση σχετικά με την τεχνητή νοημοσύνη που πιστεύετε ότι πρέπει να καλύψουμε; Στείλτε μας την ιδέα σας για άρθρο — θα χαρούμε να την ακούσουμε.Ο σκεπτικισμός θα πρέπει να επεκταθεί και στις υποσχέσεις περί διαφάνειας. Πολλές εταιρείες ισχυρίζονται ότι τα μοντέλα τους είναι open source, αλλά δεν μοιράζονται τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευσή τους. Αυτό είναι ένα ημίμετρο που προστατεύει την πνευματική τους ιδιοκτησία ενώ δίνει την ψευδαίσθηση της διαφάνειας. Θα πρέπει επίσης να είμαστε επιφυλακτικοί με την πίεση για διεθνείς συνθήκες. Αν και ακούγονται καλές, συχνά στερούνται πραγματικού μηχανισμού επιβολής. Χρησιμοποιούνται συχνά ως τρόπος καθυστέρησης ουσιαστικής εθνικής νομοθεσίας. Η πραγματική δύναμη βρίσκεται στις τεχνικές προδιαγραφές και τα συμβόλαια προμηθειών που υπογράφουν οι κυβερνήσεις. Αν μια κυβερνητική υπηρεσία αγοράσει ένα συγκεκριμένο AI σύστημα, ουσιαστικά θέτει το standard για ολόκληρη τη βιομηχανία. Πρέπει να απαιτήσουμε αυτά τα συμβόλαια να είναι δημόσια και τα συστήματα να υπόκεινται σε ανεξάρτητους ελέγχους. Χωρίς αυτό, το κοινό δεν έχει τρόπο να γνωρίζει αν το software λειτουργεί όπως προορίζεται ή αν χρησιμοποιείται για να παρακάμψει υφιστάμενες προστασίες των πολιτικών δικαιωμάτων.
Για όσους χτίζουν τα εργαλεία, ο αγώνας για την πολιτική είναι τεχνικός. Περιλαμβάνει API rate limits και απαιτήσεις για data residency. Αν ένας νόμος λέει ότι τα δεδομένα πρέπει να παραμένουν εντός συγκεκριμένων συνόρων, ένας developer δεν μπορεί να χρησιμοποιήσει έναν cloud provider που εδρεύει αλλού. Η τοπική αποθήκευση γίνεται αναγκαιότητα παρά επιλογή. Βλέπουμε μια άνοδο σε small language models που μπορούν να τρέξουν σε consumer hardware. Αυτή είναι μια άμεση απάντηση στην απειλή του συγκεντρωτικού ελέγχου. Οι developers αναζητούν τρόπους να ενσωματώσουν την AI σε υπάρχουσες ροές εργασίας χωρίς να στέλνουν ευαίσθητα δεδομένα σε έναν third party server. Η κατανόηση των ορίων ενός API είναι πλέον εξίσου σημαντική με την κατανόηση του ίδιου του κώδικα. Μπορείτε να βρείτε πιο λεπτομερή ανάλυση πολιτικής για την AI σχετικά με αυτούς τους τεχνικούς περιορισμούς στην πλατφόρμα μας. Η στροφή προς την τοπική εκτέλεση δεν αφορά μόνο την ταχύτητα. Αφορά την κυριαρχία πάνω στους δικούς σας υπολογιστικούς πόρους.
- Το API rate limiting συχνά αναγκάζει τους developers να επιλέξουν μεταξύ απόδοσης και κόστους.
- Οι νόμοι για το data residency απαιτούν περίπλοκες αλλαγές υποδομής για global software deployment.
Υπάρχει επίσης το ζήτημα του model collapse. Αν το internet πλημμυρίσει με περιεχόμενο παραγόμενο από AI, τα μελλοντικά μοντέλα θα εκπαιδεύονται στη δική τους παραγωγή. Αυτό οδηγεί σε υποβάθμιση της ποιότητας και απώλεια ποικιλομορφίας στα δεδομένα. Οι power users αναζητούν ήδη τρόπους να φιλτράρουν τα συνθετικά δεδομένα για να διατηρήσουν την ακεραιότητα των συστημάτων τους. Αυτό απαιτεί νέα εργαλεία και νέα standards για το data labeling. Το NIST AI Risk Management Framework παρέχει κάποια καθοδήγηση, αλλά εναπόκειται στους developers να το εφαρμόσουν. Η τεχνική πραγματικότητα είναι ότι η πολιτική συχνά υπολείπεται χρόνια πίσω από τον κώδικα. Μέχρι να ψηφιστεί ένας νόμος, η τεχνολογία έχει ήδη προχωρήσει. Αυτό δημιουργεί μια μόνιμη κατάσταση αβεβαιότητας για τις εταιρείες που προσπαθούν να χτίσουν μακροπρόθεσμα προϊόντα. Πρέπει να μαντέψουν ποιοι θα είναι οι μελλοντικοί κανόνες και να χτίσουν τα συστήματά τους ώστε να είναι αρκετά ευέλικτα για να αλλάξουν σε σύντομο χρονικό διάστημα.
Ο αγώνας εξουσίας για την πολιτική της AI μόλις ξεκίνησε. Είναι μια μάχη για το ποιος θα ορίσει την αλήθεια και ποιος θα κερδίσει από αυτήν. Ως χρήστης, το να παραμένετε ενημερωμένοι είναι ο μόνος τρόπος να προστατεύσετε τα συμφέροντά σας. Η συζήτηση θα συνεχίσει να είναι θορυβώδης και μπερδεμένη, αλλά τα διακυβεύματα είναι απλά: έλεγχος. Μην αφήσετε την τεχνική ορολογία να σας αποσπάσει την προσοχή από τα βασικά ερωτήματα δικαιοσύνης και λογοδοσίας. Οι κανόνες που γράφουμε σήμερα θα καθορίσουν τη μορφή της κοινωνίας για τις επόμενες δεκαετίες. Η πολιτική είναι η αρχιτεκτονική του μελλοντικού μας κόσμου. Είναι ώρα να δώσουμε προσοχή στα προσχέδια πριν ολοκληρωθεί το κτίριο.
Σημείωση συντάκτη: Δημιουργήσαμε αυτόν τον ιστότοπο ως έναν πολύγλωσσο κόμβο ειδήσεων και οδηγών τεχνητής νοημοσύνης για άτομα που δεν είναι φανατικοί των υπολογιστών, αλλά εξακολουθούν να θέλουν να κατανοήσουν την τεχνητή νοημοσύνη, να τη χρησιμοποιούν με μεγαλύτερη αυτοπεποίθηση και να παρακολουθούν το μέλλον που ήδη έρχεται.
Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας.