Τι ανησυχεί περισσότερο τη βιομηχανία AI σχετικά με τον νόμο και τους κανονισμούς
Η εποχή της εθελοντικής ηθικής στην AI έχει τελειώσει. Για χρόνια, οι κολοσσοί της τεχνολογίας και τα startups λειτουργούσαν σε έναν χώρο όπου οι «αρχές» και οι «κατευθυντήριες γραμμές» ήταν τα μόνα όρια. Αυτό άλλαξε με την οριστικοποίηση του AI Act της Ευρωπαϊκής Ένωσης και ένα κύμα αγωγών στις Ηνωμένες Πολιτείες. Σήμερα, η συζήτηση έχει μετατοπιστεί από το τι θα μπορούσε να κάνει η AI στο τι επιτρέπεται νομικά να κάνει. Οι νομικές ομάδες κάθονται πλέον στα ίδια δωμάτια με τους software engineers. Δεν πρόκειται πια για αφηρημένη φιλοσοφία. Πρόκειται για την απειλή προστίμων που μπορούν να φτάσουν το επτά τοις εκατό του παγκόσμιου ετήσιου κύκλου εργασιών μιας εταιρείας. Ο κλάδος προετοιμάζεται για μια περίοδο όπου το compliance είναι εξίσου σημαντικό με την υπολογιστική ισχύ. Οι εταιρείες αναγκάζονται πλέον να τεκμηριώνουν τα δεδομένα εκπαίδευσης, να αποδεικνύουν ότι τα μοντέλα τους δεν είναι προκατειλημμένα και να αποδεχτούν ότι ορισμένες εφαρμογές είναι απλώς παράνομες. Αυτή η μετάβαση από ένα περιβάλλον χωρίς νόμους σε ένα αυστηρά ρυθμιζόμενο είναι η πιο σημαντική αλλαγή στον τεχνολογικό τομέα εδώ και δεκαετίες.
Η στροφή προς την υποχρεωτική συμμόρφωση
Ο πυρήνας της τρέχουσας ρυθμιστικής κίνησης είναι μια προσέγγιση βασισμένη στον κίνδυνο. Οι ρυθμιστικές αρχές δεν προσπαθούν να απαγορεύσουν την AI. Προσπαθούν να την κατηγοριοποιήσουν. Σύμφωνα με τους νέους κανόνες, τα συστήματα AI τοποθετούνται σε τέσσερις κάδους: απαράδεκτος κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος κίνδυνος. Συστήματα που χρησιμοποιούν βιομετρική ταυτοποίηση σε δημόσιους χώρους ή κοινωνική βαθμολόγηση από κυβερνήσεις απαγορεύονται σε μεγάλο βαθμό. Αυτοί είναι οι απαράδεκτοι κίνδυνοι. Τα συστήματα υψηλού κινδύνου είναι αυτά που επηρεάζουν πραγματικά τη ζωή σας. Αυτό περιλαμβάνει την AI που χρησιμοποιείται σε προσλήψεις, πιστοληπτική αξιολόγηση, εκπαίδευση και επιβολή του νόμου. Εάν μια εταιρεία κατασκευάσει ένα εργαλείο για τον έλεγχο βιογραφικών, πρέπει πλέον να πληροί αυστηρά πρότυπα διαφάνειας και ακρίβειας. Δεν μπορούν απλώς να ισχυριστούν ότι ο αλγόριθμός τους λειτουργεί. Πρέπει να το αποδείξουν μέσω αυστηρής τεκμηρίωσης και ελέγχων από τρίτους. Αυτό αποτελεί τεράστιο λειτουργικό βάρος για εταιρείες που προηγουμένως κρατούσαν τις εσωτερικές τους διαδικασίες μυστικές.
Τα μοντέλα AI γενικού σκοπού, όπως τα large language models που τροφοδοτούν τα chatbots, έχουν το δικό τους σύνολο κανόνων. Αυτά τα μοντέλα πρέπει να αποκαλύπτουν εάν το περιεχόμενό τους δημιουργήθηκε από AI. Πρέπει επίσης να παρέχουν περιλήψεις των δεδομένων που προστατεύονται από πνευματικά δικαιώματα και χρησιμοποιήθηκαν για την εκπαίδευσή τους. Εδώ έγκειται η ένταση. Οι περισσότερες εταιρείες AI θεωρούν τα δεδομένα εκπαίδευσής τους εμπορικό μυστικό. Οι ρυθμιστικές αρχές λένε τώρα ότι η διαφάνεια είναι απαίτηση για την είσοδο στην αγορά. Εάν μια εταιρεία δεν μπορεί ή δεν θέλει να αποκαλύψει τις πηγές δεδομένων της, μπορεί να βρεθεί αποκλεισμένη από την ευρωπαϊκή αγορά. Αυτή είναι μια άμεση πρόκληση για τη φύση «black box» της σύγχρονης machine learning. Επιβάλλει ένα επίπεδο διαφάνειας στο οποίο ο κλάδος αντιστέκεται εδώ και χρόνια. Στόχος είναι να διασφαλιστεί ότι οι χρήστες γνωρίζουν πότε αλληλεπιδρούν με μια μηχανή και ότι οι δημιουργοί γνωρίζουν εάν η δουλειά τους χρησιμοποιήθηκε για την κατασκευή αυτής της μηχανής.
Ο αντίκτυπος αυτών των κανόνων εκτείνεται πολύ πέρα από την Ευρώπη. Αυτό συχνά αποκαλείται Brussels Effect. Επειδή είναι δύσκολο να κατασκευαστούν διαφορετικές εκδόσεις ενός software προϊόντος για κάθε χώρα, πολλές εταιρείες θα εφαρμόσουν απλώς τους αυστηρότερους κανόνες παγκοσμίως. Το είδαμε αυτό με τους νόμους περί προστασίας προσωπικών δεδομένων πριν από μερικά χρόνια. Τώρα το βλέπουμε με την AI. Στις Ηνωμένες Πολιτείες, η προσέγγιση είναι διαφορετική αλλά εξίσου σημαντική. Αντί για έναν γιγαντιαίο νόμο, οι ΗΠΑ χρησιμοποιούν εκτελεστικά διατάγματα και ένα πλήθος αγωγών υψηλού προφίλ για να θέσουν όρια. Το Executive Order των ΗΠΑ από το 2026 επικεντρώθηκε στον έλεγχο ασφαλείας για τα πιο ισχυρά μοντέλα. Εν τω μεταξύ, τα δικαστήρια αποφασίζουν εάν η εκπαίδευση μιας AI σε βιβλία και ειδησεογραφικά άρθρα που προστατεύονται από πνευματικά δικαιώματα είναι «fair use» ή «κλοπή». Αυτές οι νομικές μάχες θα καθορίσουν το οικονομικό μέλλον του κλάδου. Εάν οι εταιρείες πρέπει να πληρώνουν για την αδειοδότηση κάθε κομματιού δεδομένων, το κόστος κατασκευής AI θα εκτοξευθεί.
Η Κίνα έχει επίσης κινηθεί γρήγορα για να ρυθμίσει τη generative AI. Οι κανόνες τους επικεντρώνονται στη διασφάλιση ότι το output της AI είναι ακριβές και ευθυγραμμίζεται με τις κοινωνικές αξίες. Απαιτούν από τις εταιρείες να καταχωρούν τους αλγορίθμους τους στην κυβέρνηση. Αυτό δημιουργεί ένα κατακερματισμένο παγκόσμιο περιβάλλον. Ένας developer στο Σαν Φρανσίσκο πρέπει τώρα να ανησυχεί για το EU AI Act, το αμερικανικό δίκαιο πνευματικής ιδιοκτησίας και την καταχώρηση αλγορίθμων στην Κίνα. Αυτός ο κατακερματισμός αποτελεί σημαντική ανησυχία για τον κλάδο. Δημιουργεί υψηλό εμπόδιο εισόδου για μικρότερους παίκτες που δεν έχουν την οικονομική δυνατότητα για ένα τεράστιο νομικό τμήμα. Ο φόβος είναι ότι μόνο οι μεγαλύτερες εταιρείες τεχνολογίας θα έχουν τους πόρους για να παραμείνουν συμβατές σε κάθε περιοχή. Αυτό θα μπορούσε να οδηγήσει σε μια κατάσταση όπου λίγοι κολοσσοί ελέγχουν ολόκληρη την αγορά επειδή είναι οι μόνοι που μπορούν να αντέξουν τον «φόρο συμμόρφωσης».
Στον πραγματικό κόσμο, αυτό μοιάζει με μια θεμελιώδη αλλαγή στον τρόπο κατασκευής των προϊόντων. Φανταστείτε έναν product manager σε ένα μεσαίου μεγέθους startup. Πριν από ένα χρόνο, ο στόχος του ήταν να κυκλοφορήσει ένα νέο AI feature όσο το δυνατόν γρηγορότερα. Σήμερα, η πρώτη του συνάντηση είναι με έναν compliance officer. Πρέπει να παρακολουθεί κάθε dataset που χρησιμοποιεί. Πρέπει να ελέγχει το μοντέλο του για «hallucinations» και προκαταλήψεις. Πρέπει να δημιουργήσει ένα σύστημα «human in the loop» για να επιβλέπει τις αποφάσεις της AI. Αυτό προσθέτει μήνες στον κύκλο ανάπτυξης. Για έναν δημιουργό, ο αντίκτυπος είναι διαφορετικός. Αναζητούν πλέον εργαλεία που μπορούν να αποδείξουν ότι δεν εκπαιδεύτηκαν σε κλεμμένη εργασία. Βλέπουμε την άνοδο της «licensed AI» όπου κάθε εικόνα και πρόταση στο σύνολο εκπαίδευσης είναι καταγεγραμμένη. Αυτή είναι μια κίνηση προς έναν πιο βιώσιμο αλλά πιο ακριβό τρόπο κατασκευής τεχνολογίας.
Μια μέρα στη ζωή ενός compliance officer περιλαμβάνει πλέον συνεδρίες «red teaming» όπου προσπαθούν να «σπάσουν» τη δική τους AI. Ψάχνουν τρόπους με τους οποίους το μοντέλο μπορεί να δώσει επικίνδυνες συμβουλές ή να δείξει προκατάληψη. Τεκμηριώνουν αυτές τις αποτυχίες και τις διορθώσεις. Αυτή η τεκμηρίωση δεν είναι μόνο για εσωτερική χρήση. Πρέπει να είναι έτοιμη για επιθεώρηση από κυβερνητικές ρυθμιστικές αρχές ανά πάσα στιγμή. Αυτό απέχει πολύ από την εποχή του «move fast and break things». Τώρα, αν σπάσεις πράγματα, μπορεί να αντιμετωπίσεις αγωγή από έναν μεγάλο ειδησεογραφικό οργανισμό ή πρόστιμο από μια κυβερνητική υπηρεσία. Το EU AI Act έχει μετατρέψει την ανάπτυξη AI σε ένα ρυθμιζόμενο επάγγελμα, παρόμοιο με τις τράπεζες ή την ιατρική. Μπορείτε να βρείτε μια ολοκληρωμένη ανάλυση πολιτικής AI που περιγράφει λεπτομερώς πώς εφαρμόζονται αυτοί οι κανόνες σε διαφορετικούς τομείς σήμερα. Τα διακυβεύματα δεν αφορούν πλέον μόνο το user experience· αφορούν τη νομική επιβίωση.
Ο κλάδος παλεύει επίσης με την «παγίδα των πνευματικών δικαιωμάτων». Μεγάλοι εκδότες όπως οι New York Times έχουν μηνύσει εταιρείες AI επειδή χρησιμοποίησαν τα άρθρα τους χωρίς άδεια. Αυτές οι υποθέσεις δεν αφορούν μόνο χρήματα. Αφορούν το δικαίωμα στην ύπαρξη. Εάν τα δικαστήρια αποφανθούν ότι η εκπαίδευση AI δεν αποτελεί fair use, ολόκληρο το επιχειρηματικό μοντέλο της generative AI θα μπορούσε να καταρρεύσει. Οι εταιρείες θα έπρεπε να διαγράψουν τα τρέχοντα μοντέλα τους και να ξεκινήσουν από την αρχή με αδειοδοτημένα δεδομένα. Αυτός είναι ο λόγος που βλέπουμε εταιρείες όπως η OpenAI να υπογράφουν συμφωνίες με ειδησεογραφικούς οργανισμούς. Προσπαθούν να προλάβουν τον νομικό κίνδυνο. Ανταλλάσσουν μετρητά με το νομικό δικαίωμα χρήσης δεδομένων. Αυτό δημιουργεί μια νέα οικονομία όπου τα δεδομένα είναι το πιο πολύτιμο εμπόρευμα.
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Ο σωκρατικός σκεπτικισμός υποδηλώνει ότι πρέπει να αναρωτηθούμε ποιους προστατεύουν πραγματικά αυτοί οι κανόνες. Προστατεύουν το κοινό ή προστατεύουν τους κατεστημένους παίκτες; Εάν το κόστος συμμόρφωσης είναι εκατομμύρια δολάρια, ένα startup δύο ατόμων σε ένα γκαράζ δεν μπορεί να ανταγωνιστεί. Μπορεί κατά λάθος να δημιουργούμε ένα μονοπώλιο για τις εταιρείες που έχουν ήδη τα χρήματα. Υπάρχει επίσης το ζήτημα της ιδιωτικότητας. Για να αποδείξει μια εταιρεία ότι μια AI δεν είναι προκατειλημμένη κατά μιας συγκεκριμένης ομάδας, μπορεί να χρειαστεί να συλλέξει περισσότερα δεδομένα για αυτήν την ομάδα. Αυτό δημιουργεί ένα παράδοξο όπου απαιτείται περισσότερη επιτήρηση για να διασφαλιστεί η «δικαιοσύνη». Πρέπει επίσης να ρωτήσουμε για το περιβαλλοντικό κόστος. Εάν η ρύθμιση απαιτεί συνεχή δοκιμή και επανεκπαίδευση των μοντέλων για να πληρούν νέα πρότυπα, η κατανάλωση ενέργειας αυτών των data centers θα αυξηθεί ακόμη πιο γρήγορα. Είμαστε διατεθειμένοι να αποδεχτούμε αυτόν τον συμβιβασμό;
Ένα άλλο δύσκολο ερώτημα είναι ο ορισμός της «αλήθειας». Οι ρυθμιστικές αρχές θέλουν η AI να είναι «ακριβής». Αλλά ποιος αποφασίζει τι είναι ακριβές σε ένα πολιτικό ή κοινωνικό πλαίσιο; Εάν μια κυβέρνηση μπορεί να επιβάλει πρόστιμο σε μια εταιρεία για μια «ανακριβή» απάντηση AI, αυτή η κυβέρνηση έχει ουσιαστικά ένα εργαλείο λογοκρισίας. Αυτή είναι μια σημαντική ανησυχία σε χώρες με όχι και τόσο τέλειο ιστορικό στα ανθρώπινα δικαιώματα. Ο κλάδος ανησυχεί ότι η «ασφάλεια» θα γίνει κωδική λέξη για «περιεχόμενο εγκεκριμένο από το κράτος». Βλέπουμε επίσης μια ώθηση για «watermarking» του περιεχομένου AI. Αν και αυτό ακούγεται καλό για τη διακοπή των deepfakes, είναι τεχνικά δύσκολο να υλοποιηθεί. Ένας έξυπνος χρήστης μπορεί συχνά να αφαιρέσει ένα watermark. Αν βασιζόμαστε σε μια τεχνολογία που μπορεί εύκολα να παρακαμφθεί, δημιουργούμε μια ψευδή αίσθηση ασφάλειας; Τα κρυφά κόστη αυτών των κανονισμών είναι συχνά θαμμένα στα ψιλά γράμματα.
Για τους power users και τους developers, η geek πλευρά της ρύθμισης βρίσκεται στις τεχνικές απαιτήσεις για την αναφορά μοντέλων. Βλέπουμε την άνοδο των model cards, οι οποίες είναι τυποποιημένα έγγραφα που παραθέτουν τα δεδομένα εκπαίδευσης ενός μοντέλου, τα benchmarks απόδοσης και τους γνωστούς περιορισμούς. Αυτά γίνονται τόσο κοινά όσο τα αρχεία «readme» στα αποθετήρια του GitHub. Οι developers πρέπει επίσης να κατασκευάσουν «transparency APIs» που επιτρέπουν σε ερευνητές τρίτων να ελέγχουν τα συστήματά τους χωρίς να βλέπουν τον υποκείμενο κώδικα. Αυτή είναι μια σύνθετη μηχανική πρόκληση. Πώς δίνεις σε κάποιον αρκετή πρόσβαση για να επαληθεύσει την ασφάλεια του μοντέλου σου χωρίς να αποκαλύψεις την πνευματική σου ιδιοκτησία; Ο κλάδος συζητά επί του παρόντος τα πρότυπα για αυτά τα APIs και τα όρια του τι πρέπει να κοινοποιείται.
Το local storage και το «edge AI» γίνονται πιο δημοφιλή ως τρόπος αποφυγής ορισμένων ρυθμιστικών εμποδίων. Εάν η επεξεργασία AI γίνεται στο τηλέφωνο ενός χρήστη αντί στο cloud, είναι ευκολότερο να συμμορφωθεί κανείς με τους αυστηρούς νόμους περί προστασίας προσωπικών δεδομένων. Ωστόσο, αυτό περιορίζει τη δύναμη της AI. Οι developers εξισορροπούν πλέον την ανάγκη για τεράστια cloud compute με τη νομική ασφάλεια του local inference. Βλέπουμε επίσης την εφαρμογή «kill switches» στον κώδικα AI. Πρόκειται για πρωτόκολλα που μπορούν να τερματίσουν ένα μοντέλο εάν αρχίσει να παρουσιάζει «αναδυόμενες συμπεριφορές» που δεν είχαν προβλεφθεί κατά τη διάρκεια των δοκιμών. Αυτό δεν είναι πλέον επιστημονική φαντασία. Είναι απαίτηση για συστήματα υψηλού κινδύνου. Το compliance ενσωματώνεται απευθείας στην αρχιτεκτονική του software, από το database schema μέχρι τα API rate limits.
Το συμπέρασμα είναι ότι η βιομηχανία AI ωριμάζει. Η μετάβαση από μια ερευνητική περιέργεια σε μια ρυθμιζόμενη υπηρεσία κοινής ωφέλειας είναι επώδυνη και ακριβή. Οι εταιρείες που αγνοούν τη νομική στροφή δεν θα επιβιώσουν τα επόμενα πέντε χρόνια. Η εστίαση έχει μετατοπιστεί από το «μπορούμε να το κατασκευάσουμε» στο «πρέπει να το κατασκευάσουμε» και «πώς το τεκμηριώνουμε». Αυτή η αλλαγή πιθανότατα θα επιβραδύνει τον ρυθμό καινοτομίας βραχυπρόθεσμα, αλλά μπορεί να οδηγήσει σε πιο σταθερή και αξιόπιστη τεχνολογία μακροπρόθεσμα. Οι κανόνες γράφονται ακόμα και οι αγωγές διευθετούνται. Αυτό που είναι σαφές είναι ότι η «άγρια δύση» έχει φύγει. Το μέλλον της AI θα καθοριστεί από δικηγόρους και νομοθέτες εξίσου όσο και από μηχανικούς και data scientists. Ο κλάδος ανησυχεί, αλλά προσαρμόζεται επίσης στη νέα πραγματικότητα ενός ρυθμιζόμενου κόσμου.
Σημείωση συντάκτη: Δημιουργήσαμε αυτόν τον ιστότοπο ως έναν πολύγλωσσο κόμβο ειδήσεων και οδηγών τεχνητής νοημοσύνης για άτομα που δεν είναι φανατικοί των υπολογιστών, αλλά εξακολουθούν να θέλουν να κατανοήσουν την τεχνητή νοημοσύνη, να τη χρησιμοποιούν με μεγαλύτερη αυτοπεποίθηση και να παρακολουθούν το μέλλον που ήδη έρχεται.
Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας.