Οι σημαντικότεροι νόμοι και κανονισμοί για το AI που πρέπει να προσέξεις
Η εποχή της «άγριας δύσης» για την τεχνητή νοημοσύνη έλαβε τέλος. Οι κυβερνήσεις σε όλο τον κόσμο περνούν από τις ασαφείς προτάσεις σε αυστηρούς νόμους με τσουχτερά πρόστιμα. Αν δημιουργείς ή χρησιμοποιείς λογισμικό, οι κανόνες αλλάζουν κάτω από τα πόδια σου. Δεν πρόκειται πλέον μόνο για ηθική, αλλά για νομική συμμόρφωση και τον κίνδυνο προστίμων δισεκατομμυρίων. Η Ευρωπαϊκή Ένωση έθεσε τον ρυθμό με τον πρώτο μεγάλο, ολοκληρωμένο νόμο, αλλά οι ΗΠΑ και η Κίνα ακολουθούν από κοντά. Αυτοί οι κανόνες θα καθορίσουν ποιες δυνατότητες μπορείς να χρησιμοποιείς και πώς οι εταιρείες διαχειρίζονται τα δεδομένα σου. Οι περισσότεροι πιστεύουν ότι αυτό είναι ένα μακρινό πρόβλημα για δικηγόρους. Κάνουν λάθος. Επηρεάζει τα πάντα, από το πώς κάνεις αίτηση για μια δουλειά μέχρι το πώς κατατάσσεται το feed σου στα social media. Βλέπουμε τη γέννηση ενός ρυθμιζόμενου κλάδου που μοιάζει περισσότερο με τον τραπεζικό ή τον ιατρικό τομέα παρά με το ελεύθερο web του παρελθόντος. Αυτή η αλλαγή θα καθορίσει την επόμενη δεκαετία της τεχνικής ανάπτυξης και της εταιρικής στρατηγικής. Ήρθε η ώρα να ρίξουμε μια ματιά στις συγκεκριμένες εντολές που μεταφέρονται από τις αίθουσες της κυβέρνησης στον κώδικα των apps σου.
Η παγκόσμια στροφή προς την εποπτεία της τεχνητής νοημοσύνης
Ο πυρήνας της τρέχουσας ρύθμισης είναι το AI Act της Ευρωπαϊκής Ένωσης. Αυτός ο νόμος δεν αντιμετωπίζει όλο το λογισμικό με τον ίδιο τρόπο. Χρησιμοποιεί ένα πλαίσιο βασισμένο στον κίνδυνο για να αποφασίσει τι επιτρέπεται και τι όχι. Στην κορυφή της πυραμίδας βρίσκονται τα απαγορευμένα συστήματα. Αυτά περιλαμβάνουν πράγματα όπως η βιομετρική ταυτοποίηση σε πραγματικό χρόνο σε δημόσιους χώρους ή η κοινωνική βαθμολόγηση από κυβερνήσεις. Απλώς απαγορεύονται γιατί ενέχουν υπερβολικό κίνδυνο για τις ατομικές ελευθερίες. Από κάτω βρίσκονται τα συστήματα υψηλού κινδύνου. Αυτή η κατηγορία περιλαμβάνει το AI που χρησιμοποιείται στην εκπαίδευση, τις προσλήψεις ή τις κρίσιμες υποδομές. Αν μια εταιρεία φτιάξει ένα εργαλείο για να φιλτράρει βιογραφικά, πρέπει να αποδείξει ότι δεν είναι μεροληπτικό. Πρέπει να κρατά αναλυτικά logs και να παρέχει ανθρώπινη επίβλεψη. Ο νόμος στοχεύει επίσης στα general purpose models. Αυτά τα μοντέλα πρέπει να είναι διαφανή σχετικά με τον τρόπο εκπαίδευσής τους. Πρέπει να σέβονται τους νόμους περί πνευματικών δικαιωμάτων και να συνοψίζουν τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση. Πρόκειται για μια τεράστια αλλαγή από τον μυστικοπαθή τρόπο με τον οποίο χτίζονταν τα μοντέλα μόλις πριν από δύο χρόνια.
Στις Ηνωμένες Πολιτείες, η προσέγγιση είναι διαφορετική αλλά εξίσου σημαντική. Ο Λευκός Οίκος εξέδωσε ένα Executive Order που απαιτεί από τους developers ισχυρών συστημάτων να μοιράζονται τα αποτελέσματα των δοκιμών ασφαλείας τους με την κυβέρνηση. Χρησιμοποιεί το Defense Production Act για να διασφαλίσει ότι το AI δεν θα γίνει απειλή για την εθνική ασφάλεια. Δεν πρόκειται για νόμο που πέρασε από το Κογκρέσο, αλλά φέρει το βάρος των ομοσπονδιακών προμηθειών και της εποπτείας. Εστιάζει στο red-teaming, δηλαδή την πρακτική δοκιμής ενός συστήματος για αδυναμίες ή επιβλαβή αποτελέσματα. Η Κίνα έχει το δικό της σύνολο κανόνων που εστιάζει στην ειλικρίνεια του περιεχομένου και την προστασία της κοινωνικής τάξης. Αν και οι μέθοδοι διαφέρουν, ο στόχος είναι ο ίδιος. Οι κυβερνήσεις θέλουν να ανακτήσουν τον έλεγχο μιας τεχνολογίας που κινήθηκε πιο γρήγορα από όσο περίμεναν. Μπορείς να βρεις περισσότερες λεπτομέρειες για τις συγκεκριμένες απαιτήσεις στην επίσημη τεκμηρίωση του AI Act της Ευρωπαϊκής Επιτροπής. Αυτοί οι κανόνες αποτελούν τη νέα βάση για κάθε εταιρεία που θέλει να δραστηριοποιείται σε παγκόσμια κλίμακα.
Αυτοί οι νόμοι έχουν εμβέλεια που εκτείνεται πολύ πέρα από τα σύνορα των χωρών που τους συντάσσουν. Αυτό ονομάζεται συχνά *Brussels Effect*. Αν μια μεγάλη tech εταιρεία θέλει να πουλήσει το λογισμικό της στην Ευρώπη, πρέπει να συμμορφωθεί με τους κανόνες της ΕΕ. Αντί να χτίζουν διαφορετικές εκδόσεις για κάθε χώρα, οι περισσότερες εταιρείες θα εφαρμόζουν απλώς τους αυστηρότερους κανόνες σε ολόκληρο το παγκόσμιο προϊόν τους. Αυτό σημαίνει ότι ένας νόμος που ψηφίστηκε στις Βρυξέλλες γίνεται ουσιαστικά νόμος για έναν developer στην Καλιφόρνια ή έναν χρήστη στο Τόκιο. Δημιουργεί ένα παγκόσμιο επίπεδο ασφάλειας και διαφάνειας. Ωστόσο, δημιουργεί επίσης έναν κατακερματισμένο κόσμο όπου ορισμένες δυνατότητες απλώς απενεργοποιούνται σε ορισμένες περιοχές. Το βλέπουμε ήδη να συμβαίνει. Ορισμένες εταιρείες έχουν καθυστερήσει την κυκλοφορία προηγμένων δυνατοτήτων στην Ευρώπη επειδή ο νομικός κίνδυνος είναι πολύ υψηλός. Αυτό δημιουργεί ένα ψηφιακό χάσμα όπου οι χρήστες στις ΗΠΑ μπορεί να έχουν πρόσβαση σε εργαλεία που οι χρήστες στη Γαλλία δεν έχουν. Για τους creators, αυτό σημαίνει ότι η δουλειά τους προστατεύεται καλύτερα από το να χρησιμοποιείται ως δεδομένα εκπαίδευσης χωρίς άδεια. Για τις κυβερνήσεις, είναι ένας αγώνας δρόμου για το ποιος θα γίνει το παγκόσμιο κέντρο για έμπιστη τεχνολογία. Τα διακυβεύματα είναι υψηλά. Αν μια χώρα ρυθμίσει υπερβολικά, μπορεί να χάσει τα καλύτερα ταλέντα της. Αν ρυθμίσει ελλιπώς, ρισκάρει την ασφάλεια των πολιτών της. Αυτή η ένταση είναι η νέα κανονικότητα για την παγκόσμια tech οικονομία. Μπορείς να παρακολουθείς αυτές τις αλλαγές μέσω του Executive Order του Λευκού Οίκου για το AI, το οποίο περιγράφει την αμερικανική στρατηγική για την εξισορρόπηση καινοτομίας και ασφάλειας.
Σκέψου μια μέρα στη ζωή ενός software engineer, του Marcus. Πριν από δύο χρόνια, ο Marcus μπορούσε να πάρει ένα dataset από το web και να εκπαιδεύσει ένα μοντέλο μέσα σε ένα Σαββατοκύριακο. Δεν χρειαζόταν να ζητήσει άδεια από κανέναν. Σήμερα, το πρωί του ξεκινά με μια συνάντηση συμμόρφωσης. Πρέπει να τεκμηριώσει την προέλευση κάθε εικόνας στο training set του. Πρέπει να τρέξει τεστ για να διασφαλίσει ότι το μοντέλο δεν κάνει διακρίσεις βάσει συγκεκριμένων ταχυδρομικών κωδίκων. Η εταιρεία του προσέλαβε έναν νέο Chief AI Compliance Officer που έχει τη δύναμη να σταματήσει οποιοδήποτε λανσάρισμα. Αυτή είναι η επιχειρησιακή πραγματικότητα. Δεν πρόκειται πλέον μόνο για τον κώδικα. Πρόκειται για το audit trail. Ο Marcus ξοδεύει το 30% του χρόνου του γράφοντας αναφορές για τις ρυθμιστικές αρχές αντί να γράφει features για τους χρήστες. Αυτός είναι ο κρυφός φόρος της νέας ρυθμιστικής εποχής. Για τον μέσο χρήστη, ο αντίκτυπος είναι πιο διακριτικός αλλά εξίσου βαθύς. Όταν κάνεις αίτηση για δάνειο, η τράπεζα πρέπει να μπορεί να εξηγήσει γιατί το AI σε απέρριψε. Έχεις δικαίωμα σε μια εξήγηση. Αυτό τερματίζει την εποχή του «μαύρου κουτιού» στη λήψη αυτοματοποιημένων αποφάσεων. Οι άνθρωποι τείνουν να υπερεκτιμούν το πόσο γρήγορα αυτοί οι νόμοι θα σταματήσουν τα λάθη. Υποτιμούν το πόσο αυτοί οι νόμοι θα επιβραδύνουν την κυκλοφορία νέων features. Περνάμε από έναν κόσμο beta λογισμικού σε έναν κόσμο πιστοποιημένου λογισμικού. Αυτό θα οδηγήσει σε πιο σταθερά προϊόντα αλλά σε λιγότερα ριζοσπαστικά άλματα.
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Πρακτικές αλλαγές για τον κλάδο
- Υποχρεωτικά τεστ ασφαλείας για κάθε μοντέλο που υπερβαίνει συγκεκριμένα όρια υπολογιστικής ισχύος.
- Το δικαίωμα των χρηστών να λαμβάνουν εξήγηση για οποιαδήποτε αυτοματοποιημένη απόφαση επηρεάζει τη νομική τους κατάσταση.
- Αυστηρές απαιτήσεις για την επισήμανση δεδομένων και τη γνωστοποίηση πνευματικών δικαιωμάτων στα training sets.
- Βαριά πρόστιμα που μπορούν να φτάσουν έως και το 7% των συνολικών παγκόσμιων εσόδων μιας εταιρείας.
- Η δημιουργία εθνικών γραφείων AI για την παρακολούθηση της συμμόρφωσης και τη διερεύνηση καταγγελιών.
Πρέπει να αναρωτηθούμε αν αυτοί οι κανόνες προστατεύουν πραγματικά το κοινό ή αν προστατεύουν απλώς τους ισχυρούς. Βοηθάει ένα regulation 400 σελίδων ένα μικρό startup ή διασφαλίζει ότι μόνο εταιρείες με νομικές ομάδες δισεκατομμυρίων μπορούν να επιβιώσουν; Αν το κόστος συμμόρφωσης είναι πολύ υψηλό, ίσως παραδίδουμε ένα μόνιμο μονοπώλιο στους σημερινούς tech γίγαντες. Πρέπει επίσης να αμφισβητήσουμε τον ορισμό της ασφάλειας. Ποιος αποφασίζει τι συνιστά απαράδεκτο κίνδυνο; Αν μια κυβέρνηση μπορεί να απαγορεύσει ορισμένους τύπους AI, μπορεί επίσης να χρησιμοποιήσει αυτή τη δύναμη για να φιμώσει τη διαφωνία ή να ελέγξει την πληροφορία. Υπάρχει ένα κρυφό κόστος και στη διαφάνεια. Αν μια εταιρεία πρέπει να αποκαλύψει ακριβώς πώς λειτουργεί το μοντέλο της, μήπως αυτό καθιστά ευκολότερο για τους κακόβουλους δρώντες να βρουν αδυναμίες; Ανταλλάσσουμε ταχύτητα με ασφάλεια, αλλά δεν έχουμε ορίσει ακόμα τι σημαίνει πραγματικά «ασφαλές». Είναι δυνατόν να ρυθμίσεις έναν κλάδο που αλλάζει κάθε έξι μήνες με νόμους που χρειάζονται χρόνια για να γραφτούν; Αυτά είναι τα ερωτήματα που θα καθορίσουν αν αυτή η εποχή ρύθμισης είναι επιτυχία ή αποτυχία. Πρέπει να προσέχουμε να μην χτίσουμε ένα σύστημα τόσο άκαμπτο που θα καταστεί παρωχημένο πριν στεγνώσει το μελάνι. Οι κανόνες στην Κίνα, που διαχειρίζεται η Cyberspace Administration of China, δείχνουν πώς η ασφάλεια μπορεί να ερμηνευτεί ως κοινωνική σταθερότητα. Αυτό αναδεικνύει τα διαφορετικά φιλοσοφικά μονοπάτια που ακολουθούν τα έθνη. Πρέπει να είμαστε σκεπτικοί απέναντι σε οποιονδήποτε νόμο ισχυρίζεται ότι λύνει όλα τα προβλήματα ενώ δημιουργεί νέα για την επόμενη γενιά δημιουργών.
Τεχνικά πρότυπα και workflows συμμόρφωσης
Για το τεχνικό κοινό, η εστίαση μετατοπίζεται στο compliance stack. Αυτό περιλαμβάνει εργαλεία για data lineage και αυτοματοποιημένο έλεγχο μοντέλων. Οι developers εξετάζουν τα πρότυπα C2PA για ψηφιακό υδατογράφημα. Αυτό περιλαμβάνει την ενσωμάτωση metadata σε αρχεία που επιβιώνουν από cropping ή re-saving. Υπάρχει επίσης μια κίνηση προς την τοπική αποθήκευση ευαίσθητων δεδομένων. Για να συμμορφωθούν με τους κανόνες ιδιωτικότητας, οι εταιρείες απομακρύνονται από το centralized cloud processing για ορισμένες εργασίες. Χρησιμοποιούν edge computing για να κρατούν τα δεδομένα των χρηστών στη συσκευή. Τα API limits επανασχεδιάζονται επίσης. Δεν πρόκειται πλέον μόνο για rate limiting για την κίνηση. Πρόκειται για φίλτρα ασφαλείας που μπλοκάρουν ορισμένους τύπους queries σε επίπεδο hardware. Βλέπουμε την άνοδο των Model Cards, που είναι σαν ετικέτες διατροφής για το AI. Παραθέτουν τα δεδομένα εκπαίδευσης, την προβλεπόμενη χρήση και τους γνωστούς περιορισμούς. Από την πλευρά του workflow, αυτό σημαίνει ενσωμάτωση αυτοματοποιημένων δοκιμών στο continuous integration process. Κάθε φορά που ένα μοντέλο ενημερώνεται, πρέπει να περνά από μια σειρά τεστ για μεροληψία και ασφάλεια πριν μπορέσει να γίνει deploy. Αυτό προσθέτει latency στον κύκλο ανάπτυξης αλλά μειώνει τον κίνδυνο μιας νομικής καταστροφής. Οι εταιρείες εξετάζουν επίσης πώς να χειρίζονται αιτήματα διαγραφής δεδομένων για εκπαιδευμένα μοντέλα, κάτι που αποτελεί σημαντική τεχνική πρόκληση. Αν ένας χρήστης ζητήσει να αφαιρεθούν τα δεδομένα του, πώς «ξεμαθαίνεις» αυτά τα δεδομένα από ένα νευρωνικό δίκτυο; Εδώ ο νόμος συναντά τα όρια της τρέχουσας επιστήμης των υπολογιστών. Βλέπουμε μια νέα κατηγορία λογισμικού σχεδιασμένη ειδικά για τη διαχείριση αυτών των νομικών απαιτήσεων.
Ο επόμενος χρόνος θα είναι η πρώτη πραγματική δοκιμασία αυτών των νόμων. Θα δούμε τα πρώτα μεγάλα πρόστιμα και τις πρώτες δικαστικές υποθέσεις που θα ορίσουν τα όρια της κυβερνητικής εξουσίας. Μια ουσιαστική πρόοδος θα ήταν ένα σαφές σύνολο προτύπων που θα επιτρέπει στις μικρές εταιρείες να ανταγωνίζονται χωρίς να πνίγονται στη γραφειοκρατία. Θα πρέπει να αναζητήσουμε την ανάδυση τρίτων ελεγκτών που μπορούν να πιστοποιήσουν ότι ένα AI είναι ασφαλές. Ο στόχος είναι να ξεπεράσουμε το hype και τον φόβο. Χρειαζόμαστε ένα σύστημα όπου η τεχνολογία υπηρετεί τους ανθρώπους χωρίς να παραβιάζει τα δικαιώματά τους. Η εφαρμογή του **EU AI Act** θα είναι το κύριο σήμα που πρέπει να παρακολουθούμε. Αν η επιβολή είναι πολύ επιθετική, ίσως δούμε φυγή κεφαλαίων σε άλλες περιοχές. Αν είναι πολύ αδύναμη, ο νόμος θα θεωρηθεί «χάρτινη τίγρης». Οι κανόνες είναι εδώ. Τώρα πρέπει να δούμε αν λειτουργούν πραγματικά στον πραγματικό κόσμο.
Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας.
Σημείωση συντάκτη: Δημιουργήσαμε αυτόν τον ιστότοπο ως έναν πολύγλωσσο κόμβο ειδήσεων και οδηγών τεχνητής νοημοσύνης για άτομα που δεν είναι φανατικοί των υπολογιστών, αλλά εξακολουθούν να θέλουν να κατανοήσουν την τεχνητή νοημοσύνη, να τη χρησιμοποιούν με μεγαλύτερη αυτοπεποίθηση και να παρακολουθούν το μέλλον που ήδη έρχεται.