Η φιλοσοφία της AI για όσους μισούν τη φιλοσοφία
Η πρακτική επιλογή
Οι περισσότεροι αντιμετωπίζουν τη φιλοσοφία της τεχνητής νοημοσύνης ως μια συζήτηση για το αν τα ρομπότ έχουν ψυχή. Αυτό είναι λάθος, σπαταλά χρόνο και επισκιάζει τους πραγματικούς κινδύνους. Στον επαγγελματικό κόσμο, η φιλοσοφία αυτής της τεχνολογίας αφορά στην πραγματικότητα την ευθύνη, την ακρίβεια και το κόστος της ανθρώπινης εργασίας. Πρόκειται για το ποιος φέρει την ευθύνη όταν ένα μοντέλο κάνει ένα λάθος που κοστίζει σε μια εταιρεία εκατομμύρια δολάρια. Πρόκειται για το αν ένας δημιουργικός εργαζόμενος κατέχει το στυλ που πέρασε δεκαετίες τελειοποιώντας. Απομακρυνόμαστε από την εποχή που αναρωτιόμασταν αν οι μηχανές μπορούν να σκεφτούν. Βρισκόμαστε πλέον στην εποχή που αποφασίζουμε πόσο τις εμπιστευόμαστε για να ενεργούν για λογαριασμό μας. Η πρόσφατη αλλαγή στον κλάδο μετακινήθηκε από τα chat bots που λένε ανέκδοτα σε agents που μπορούν να κλείσουν πτήσεις και να γράψουν κώδικα. Αυτή η αλλαγή μας αναγκάζει να αντιμετωπίσουμε τους μηχανισμούς της εμπιστοσύνης αντί για το μυστήριο της συνείδησης. Αν μισείτε τη φιλοσοφία, δείτε το ως μια σειρά από διαπραγματεύσεις συμβολαίων. Θέτετε τους όρους για ένα νέο είδος υπαλλήλου που δεν κοιμάται ποτέ, αλλά συχνά κάνει παραισθήσεις. Ο στόχος είναι να χτιστεί ένα πλαίσιο όπου τα οφέλη της ταχύτητας δεν υπερτερούν των κινδύνων μιας συνολικής κατάρρευσης του συστήματος.
Η μηχανική της λογικής των μηχανών
Για να κατανοήσετε την τρέχουσα κατάσταση του κλάδου, πρέπει να αγνοήσετε τους όρους του marketing. Ένα large language model δεν είναι εγκέφαλος. Είναι ένας τεράστιος στατιστικός χάρτης της ανθρώπινης γλώσσας. Όταν πληκτρολογείτε ένα prompt, το σύστημα δεν σκέφτεται την ερώτησή σας. Υπολογίζει ποια λέξη είναι πιο πιθανό να ακολουθήσει την προηγούμενη με βάση τρισεκατομμύρια παραδείγματα. Γι’ αυτό τα συστήματα είναι τόσο καλά στην ποίηση αλλά τόσο κακά στα βασικά μαθηματικά. Κατανοούν τα μοτίβα του πώς μιλούν οι άνθρωποι για τους αριθμούς, αλλά δεν κατανοούν τη λογική των ίδιων των αριθμών. Αυτή η διάκριση είναι ζωτικής σημασίας για όποιον χρησιμοποιεί αυτά τα εργαλεία σε επιχειρηματικό περιβάλλον. Αν αντιμετωπίζετε το output ως πραγματικό αρχείο, χρησιμοποιείτε το εργαλείο λανθασμένα. Είναι ένας δημιουργικός synthesizer, όχι μια βάση δεδομένων. Η σύγχυση συχνά προέρχεται από το πόσο καλά αυτά τα μοντέλα μιμούνται την ανθρώπινη ενσυναίσθηση. Μπορεί να ακούγονται ευγενικά, απογοητευμένα ή εξυπηρετικά, αλλά αυτά είναι απλώς γλωσσικοί καθρέφτες. Αντανακλούν τον τόνο των δεδομένων στα οποία εκπαιδεύτηκαν.
Η αλλαγή που είδαμε πρόσφατα περιλαμβάνει μια κίνηση προς τη γείωση αυτών των μοντέλων σε δεδομένα του πραγματικού κόσμου. Αντί να αφήνουν ένα μοντέλο να μαντεύει μια απάντηση, οι εταιρείες τα συνδέουν πλέον με τα δικά τους εσωτερικά αρχεία. Αυτό μειώνει την πιθανότητα το μοντέλο να επινοεί πράγματα. Αλλάζει επίσης τα διακυβεύματα της συζήτησης. Δεν ρωτάμε πλέον τι γνωρίζει το μοντέλο. Ρωτάμε πώς το μοντέλο έχει πρόσβαση σε όσα γνωρίζουμε εμείς. Πρόκειται για μια μετατόπιση από τη generative art στη λειτουργική χρησιμότητα. Η φιλοσοφία εδώ είναι απλή. Είναι η διαφορά μεταξύ ενός παραμυθά και ενός υπαλλήλου αρχειοθέτησης. Οι περισσότεροι χρήστες θέλουν τον υπάλληλο, αλλά η τεχνολογία χτίστηκε για να είναι ο παραμυθάς. Η συμφιλίωση αυτών των δύο ταυτοτήτων είναι η κύρια πρόκληση για τους developers σήμερα. Πρέπει να αποφασίσετε αν θέλετε ένα εργαλείο που είναι δημιουργικό ή ένα εργαλείο που είναι ακριβές, γιατί προς το παρόν, είναι δύσκολο να έχετε και τα δύο στο μέγιστο επίπεδο ταυτόχρονα.
Παγκόσμια διακυβεύματα και εθνικά συμφέροντα
Ο αντίκτυπος αυτών των επιλογών δεν περιορίζεται σε μεμονωμένα γραφεία. Οι κυβερνήσεις αντιμετωπίζουν πλέον την ανάπτυξη αυτών των μοντέλων ως ζήτημα εθνικής ασφάλειας. Στις Ηνωμένες Πολιτείες, τα εκτελεστικά διατάγματα επικεντρώνονται στην ασφάλεια των πιο ισχυρών συστημάτων. Στην Ευρώπη, το AI Act έχει δημιουργήσει ένα νομικό πλαίσιο που κατηγοριοποιεί τα συστήματα ανάλογα με τον κίνδυνο. Αυτό δημιουργεί μια κατάσταση όπου η φιλοσοφία ενός developer στην Καλιφόρνια μπορεί να επηρεάσει τη νομιμότητα ενός προϊόντος στο Βερολίνο. Βλέπουμε έναν κατακερματισμένο κόσμο όπου διαφορετικές περιοχές έχουν πολύ διαφορετικές ιδέες για το τι επιτρέπεται να κάνει μια μηχανή. Ορισμένα έθνη βλέπουν την τεχνολογία ως τρόπο ενίσχυσης της οικονομικής παραγωγής με κάθε κόστος. Άλλα τη βλέπουν ως απειλή για τον κοινωνικό ιστό και τις αγορές εργασίας. Αυτό δημιουργεί ένα ξεχωριστό σύνολο κανόνων για κάθε αγορά, καθιστώντας πιο δύσκολο για τις μικρές εταιρείες να ανταγωνιστούν τους γίγαντες που έχουν την οικονομική δυνατότητα για μεγάλες νομικές ομάδες.
Η παγκόσμια εφοδιαστική αλυσίδα για αυτή την τεχνολογία είναι επίσης ένα σημείο έντασης. Το hardware που απαιτείται για τη λειτουργία αυτών των μοντέλων είναι συγκεντρωμένο σε λίγα χέρια. Αυτό δημιουργεί μια νέα δυναμική ισχύος μεταξύ των χωρών που σχεδιάζουν τα chips, των χωρών που τα κατασκευάζουν και των χωρών που παρέχουν τα δεδομένα. Για τον μέσο χρήστη, αυτό σημαίνει ότι τα εργαλεία στα οποία βασίζεστε θα μπορούσαν να υπόκεινται σε εμπορικούς πολέμους ή ελέγχους εξαγωγών. Η φιλοσοφία της AI είναι πλέον συνδεδεμένη με τη φιλοσοφία της κυριαρχίας. Εάν μια χώρα βασίζεται σε ένα ξένο μοντέλο για το σύστημα υγείας ή το νομικό της σύστημα, χάνει έναν βαθμό ελέγχου πάνω στη δική της υποδομή. Γι’ αυτό βλέπουμε μια ώθηση για τοπικά μοντέλα και sovereign clouds. Ο στόχος είναι να διασφαλιστεί ότι η λογική που διέπει ένα έθνος δεν ανήκει σε μια εταιρεία στην άλλη άκρη του πλανήτη. Αυτή είναι η πρακτική πλευρά της συζήτησης που συχνά χάνεται στις συζητήσεις για σενάρια επιστημονικής φαντασίας.
Ένα πρωινό με συνθετική νοημοσύνη
Σκεφτείτε μια τυπική μέρα για μια marketing manager, τη Sarah. Ξεκινά το πρωί της ζητώντας από έναν assistant να συνοψίσει τρεις δωδεκάδες emails. Ο assistant το κάνει σε δευτερόλεπτα, αλλά η Sarah πρέπει να ελέγξει αν έχασε κάποια κρίσιμη λεπτομέρεια για μια περικοπή προϋπολογισμού. Αργότερα, χρησιμοποιεί ένα generative tool για να δημιουργήσει εικόνες για μια νέα καμπάνια. Ξοδεύει μια ώρα ρυθμίζοντας το prompt επειδή η μηχανή συνεχίζει να δίνει στους ανθρώπους στις εικόνες έξι δάχτυλα. Το απόγευμα, χρησιμοποιεί έναν coding assistant για να διορθώσει ένα bug στην εταιρική ιστοσελίδα, παρόλο που δεν ξέρει να προγραμματίζει. Είναι ουσιαστικά η μαέστρος μιας ψηφιακής ορχήστρας. Δεν κάνει τη χειρωνακτική εργασία, αλλά είναι υπεύθυνη για την τελική απόδοση. Αυτή είναι η νέα πραγματικότητα της εργασίας. Αφορά περισσότερο το editing και την επαλήθευση παρά τη δημιουργία από το μηδέν. Η Sarah είναι πιο παραγωγική, αλλά είναι και πιο κουρασμένη. Το διανοητικό φορτίο του συνεχούς ελέγχου μιας μηχανής για σφάλματα είναι διαφορετικό από το φορτίο του να κάνει η ίδια τη δουλειά
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Τα κίνητρα για την εταιρεία της Sarah έχουν επίσης αλλάξει. Δεν προσλαμβάνουν πλέον entry level writers. Προσλαμβάνουν έναν senior editor που χρησιμοποιεί τρία διαφορετικά μοντέλα για να παράγει την ίδια ποσότητα περιεχομένου. Αυτό εξοικονομεί χρήματα βραχυπρόθεσμα, αλλά δημιουργεί ένα μακροπρόθεσμο πρόβλημα. Από πού θα προέλθει η επόμενη γενιά senior editors αν κανείς δεν κάνει την entry level δουλειά; Αυτή είναι μια συνέπεια της τρέχουσας λογικής της αποδοτικότητας. Βελτιστοποιούμε για το παρόν ενώ ενδεχομένως αδειάζουμε το μέλλον. Τα διακυβεύματα για τους δημιουργούς είναι ακόμη υψηλότερα. Μουσικοί και εικονογράφοι βλέπουν τη δουλειά τους να χρησιμοποιείται για την εκπαίδευση των ίδιων μοντέλων που τώρα ανταγωνίζονται μαζί τους για θέσεις εργασίας. Αυτό δεν είναι απλώς μια αλλαγή στην αγορά. Είναι μια αλλαγή στην αξία που δίνουμε στην ανθρώπινη προσπάθεια. Πρέπει να αναρωτηθούμε αν εκτιμάμε το αποτέλεσμα περισσότερο από τη διαδικασία, και τι συμβαίνει στον πολιτισμό μας όταν η διαδικασία είναι κρυμμένη μέσα σε ένα black box.
- Οι ηγέτες των εταιρειών πρέπει να αποφασίσουν αν εκτιμούν την ταχύτητα περισσότερο από την πρωτότυπη σκέψη.
- Οι εργαζόμενοι πρέπει να μάθουν να ελέγχουν το machine output ως βασική δεξιότητα.
- Οι νομοθέτες πρέπει να εξισορροπήσουν την ανάγκη για καινοτομία με την προστασία του εργατικού δυναμικού.
- Οι δημιουργοί πρέπει να βρουν τρόπους να αποδείξουν ότι η δουλειά τους είναι ανθρώπινη για να διατηρήσουν την αξία της.
- Οι εκπαιδευτικοί πρέπει να επανεξετάσουν τον τρόπο βαθμολόγησης των μαθητών όταν οι απαντήσεις απέχουν μόνο ένα κλικ.
Το κρυφό κόστος του αυτοματισμού
Συχνά μιλάμε για τα οφέλη αυτής της τεχνολογίας χωρίς να αναφέρουμε τον λογαριασμό. Το πρώτο κόστος είναι η ιδιωτικότητα. Για να κάνουμε αυτά τα μοντέλα πιο χρήσιμα, πρέπει να τους δώσουμε περισσότερα δεδομένα. Ενθαρρυνόμαστε να τροφοδοτούμε τα προσωπικά μας προγράμματα, τις ιδιωτικές μας σημειώσεις και τα εταιρικά μας μυστικά σε αυτά τα συστήματα για να έχουμε καλύτερα αποτελέσματα. Αλλά πού πηγαίνουν αυτά τα δεδομένα; Οι περισσότερες εταιρείες ισχυρίζονται ότι δεν χρησιμοποιούν δεδομένα πελατών για να εκπαιδεύσουν τα μοντέλα τους, αλλά η ιστορία του διαδικτύου υποδηλώνει ότι οι πολιτικές μπορούν να αλλάξουν. Μόλις τα δεδομένα σας βρεθούν μέσα στο σύστημα, είναι σχεδόν αδύνατο να τα βγάλετε. Αυτή είναι μια μόνιμη ανταλλαγή ιδιωτικότητας για ευκολία. Βλέπουμε επίσης μια τεράστια αύξηση στην κατανάλωση ενέργειας. Η εκπαίδευση ενός μόνο μεγάλου μοντέλου απαιτεί αρκετό ηλεκτρισμό για να τροφοδοτήσει χιλιάδες σπίτια για έναν χρόνο. Καθώς προχωράμε προς πιο σύνθετα συστήματα, το περιβαλλοντικό κόστος θα αυξάνεται μόνο. Πρέπει να αναρωτηθούμε αν η ικανότητα να δημιουργούμε μια αστεία εικόνα μιας γάτας αξίζει το carbon footprint που παράγει.
Υπάρχει επίσης το κόστος της αλήθειας. Καθώς γίνεται ευκολότερο να δημιουργηθεί ρεαλιστικό κείμενο και εικόνες, η αξία των αποδεικτικών στοιχείων μειώνεται. Αν οτιδήποτε μπορεί να είναι fake, τότε τίποτα δεν μπορεί να αποδειχθεί. Αυτό επηρεάζει ήδη τα πολιτικά μας συστήματα και τα δικαστήριά μας. Εισερχόμαστε σε μια περίοδο όπου η προεπιλεγμένη υπόθεση είναι ότι όσα βλέπουμε σε μια οθόνη είναι ψέμα. Αυτό δημιουργεί υψηλό επίπεδο κοινωνικής τριβής. Καθιστά πιο δύσκολο να συμφωνήσουμε σε βασικά γεγονότα. Η φιλοσοφία της AI εδώ αφορά στη διάβρωση μιας κοινής πραγματικότητας. Αν ο καθένας κοιτάζει μια εκδοχή του κόσμου που έχει φιλτραριστεί και αλλοιωθεί από έναν αλγόριθμο, χάνουμε την ικανότητα να επικοινωνούμε αποτελεσματικά πέρα από αυτά τα χάσματα. Ανταλλάσσουμε ένα σταθερό κοινωνικό θεμέλιο για μια πιο εξατομικευμένη και διασκεδαστική εμπειρία. Αυτή είναι μια επιλογή που κάνουμε κάθε φορά που χρησιμοποιούμε αυτά τα εργαλεία χωρίς να αμφισβητούμε την πηγή ή την πρόθεσή τους.
Έχετε μια ιστορία, εργαλείο, τάση ή ερώτηση σχετικά με την τεχνητή νοημοσύνη που πιστεύετε ότι πρέπει να καλύψουμε; Στείλτε μας την ιδέα σας για άρθρο — θα χαρούμε να την ακούσουμε.
Τεχνικοί περιορισμοί και τοπικά συστήματα
Για τους power users, η συζήτηση αφορά κάτι περισσότερο από την ηθική. Αφορά τα όρια του hardware και του software. Ένα από τα μεγαλύτερα εμπόδια είναι το context window. Αυτό είναι το ποσό των πληροφοριών που μπορεί να κρατήσει ένα μοντέλο στην ενεργή μνήμη του ανά πάσα στιγμή. Αν και αυτά τα παράθυρα μεγαλώνουν, εξακολουθούν να είναι περιορισμένα. Αν τροφοδοτήσετε ένα μοντέλο με ένα βιβλίο χιλίων σελίδων, τελικά θα αρχίσει να ξεχνά την αρχή μέχρι να φτάσει στο τέλος. Αυτό οδηγεί σε ασυνέπειες σε μεγάλα projects. Υπάρχει επίσης το ζήτημα των API limits και του latency. Αν η επιχείρησή σας βασίζεται σε ένα μοντέλο τρίτου μέρους, είστε στο έλεος του uptime και της τιμολόγησής τους. Μια ξαφνική αλλαγή στους όρους χρήσης τους μπορεί να καταστρέψει ολόκληρο το workflow σας. Γι’ αυτό πολλοί προχωρημένοι χρήστες στρέφονται προς το local storage και την τοπική εκτέλεση. Τρέχουν μικρότερα μοντέλα στο δικό τους hardware για να διατηρήσουν τον έλεγχο και την ταχύτητα.
Το workflow integration είναι η επόμενη μεγάλη πρόκληση. Δεν αρκεί να έχετε ένα chat box σε μια ιστοσελίδα. Η πραγματική αξία προέρχεται από τη σύνδεση αυτών των μοντέλων με υπάρχοντα εργαλεία όπως spreadsheets, βάσεις δεδομένων και project management software. Αυτό απαιτεί βαθιά κατανόηση του πώς να δομούνται τα δεδομένα ώστε το μοντέλο να μπορεί να τα κατανοήσει. Βλέπουμε την άνοδο του RAG, ή Retrieval-Augmented Generation. Αυτή είναι μια μέθοδος όπου το μοντέλο αναζητά συγκεκριμένες πληροφορίες από μια έμπιστη πηγή πριν απαντήσει. Είναι ένας τρόπος να γεφυρωθεί το χάσμα μεταξύ της στατιστικής φύσης του μοντέλου και των πραγματικών αναγκών του χρήστη. Ωστόσο, αυτό προσθέτει ένα επίπεδο πολυπλοκότητας στο σύστημα. Πρέπει να διαχειρίζεστε τη μηχανή αναζήτησης, τη βάση δεδομένων και το μοντέλο ταυτόχρονα. Είναι μια λύση υψηλής συντήρησης που απαιτεί ένα συγκεκριμένο σύνολο δεξιοτήτων για να διαχειριστείτε αποτελεσματικά.
- Το quantization επιτρέπει σε μεγάλα μοντέλα να τρέχουν σε consumer grade hardware μειώνοντας την ακρίβεια των βαρών.
- Το fine tuning γίνεται λιγότερο δημοφιλές καθώς το RAG παρέχει καλύτερη ακρίβεια γεγονότων με λιγότερη προσπάθεια.
- Το tokenization παραμένει ένα κρυφό κόστος που μπορεί να κάνει ορισμένες γλώσσες πιο ακριβές στην επεξεργασία από άλλες.
- Η τοπική εκτέλεση είναι ο μόνος τρόπος για να διασφαλιστεί 100 τοις εκατό ιδιωτικότητα για ευαίσθητα εταιρικά δεδομένα.
- Το model distillation δημιουργεί μικρότερες, ταχύτερες εκδόσεις γιγαντιαίων μοντέλων για mobile χρήση.
Ο πρακτικός δρόμος προς τα εμπρός
Η φιλοσοφία της AI δεν είναι απόσπαση της προσοχής από τη δουλειά. Είναι η ίδια η δουλειά. Κάθε φορά που επιλέγετε ένα μοντέλο, κάνετε μια επιλογή για το τι είδους λογική θέλετε να κυριαρχεί στη ζωή σας. Αποφασίζετε ποιοι κίνδυνοι είναι αποδεκτοί και ποιοι είναι πολύ υψηλοί. Η τεχνολογία αλλάζει γρήγορα, αλλά οι ανθρώπινες ανάγκες παραμένουν οι ίδιες. Θέλουμε εργαλεία που μας κάνουν καλύτερους, όχι εργαλεία που μας αντικαθιστούν. Θέλουμε συστήματα που είναι διαφανή, όχι συστήματα που λειτουργούν στο σκοτάδι. Η σύγχυση γύρω από αυτό το θέμα είναι συχνά σκόπιμη. Είναι ευκολότερο για τις εταιρείες να πουλήσουν ένα μαγικό κουτί παρά ένα σύνθετο στατιστικό εργαλείο. Αφαιρώντας το περιττό και εστιάζοντας στα κίνητρα, μπορείτε να δείτε την τεχνολογία για αυτό που πραγματικά είναι. Είναι μια ισχυρή, ελαττωματική και βαθιά ανθρώπινη δημιουργία. Αντανακλά τις καλύτερες ιδέες μας και τις χειρότερες συνήθειές μας. Ο στόχος είναι να τη χρησιμοποιείτε με ανοιχτά μάτια, κατανοώντας τις ανταλλαγές που κάνετε σε κάθε αλληλεπίδραση. Μπορείτε να βρείτε περισσότερα για τις τελευταίες τάσεις στο machine learning για να παραμείνετε μπροστά από αυτές τις αλλαγές. Για βαθύτερες γνώσεις σχετικά με την ηθική αυτών των συστημάτων, πόροι όπως το Stanford Institute for Human-Centered AI και το MIT Technology Review παρέχουν εξαιρετικά δεδομένα. Μπορείτε επίσης να παρακολουθείτε τις νομικές αλλαγές στην ενότητα τεχνολογίας των New York Times.
Σημείωση συντάκτη: Δημιουργήσαμε αυτόν τον ιστότοπο ως έναν πολύγλωσσο κόμβο ειδήσεων και οδηγών τεχνητής νοημοσύνης για άτομα που δεν είναι φανατικοί των υπολογιστών, αλλά εξακολουθούν να θέλουν να κατανοήσουν την τεχνητή νοημοσύνη, να τη χρησιμοποιούν με μεγαλύτερη αυτοπεποίθηση και να παρακολουθούν το μέλλον που ήδη έρχεται.
Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας.