Ο νέος οδηγός για τις απάτες με deepfake
Γεια σας, tech friends! Είναι υπέροχο που είμαστε σήμερα μαζί για να συζητήσουμε κάτι που ακούγεται σαν σενάριο κατασκοπευτικής ταινίας, αλλά συμβαίνει στην πραγματικότητα μέσα στις τσέπες μας. Ζούμε σε μια εποχή όπου τα smartphones μας κάνουν απίστευτα πράγματα, από μετάφραση σε πραγματικό χρόνο μέχρι το να βρίσκουν την τέλεια συνταγή για μια βροχερή Κυριακή. Όμως, υπάρχει μια νέα εξέλιξη στην online ασφάλεια που πρέπει να προσέξουμε. Πρόκειται για πανέξυπνο λογισμικό που αντιγράφει φωνές και πρόσωπα με τρομακτική ακρίβεια. Αν και ακούγεται λίγο spooky, το καλό είναι ότι μόλις μάθουμε πώς λειτουργούν αυτά τα κόλπα, γινόμαστε πολύ πιο δύσκολοι στόχοι. Σκεφτείτε το σαν έναν κοινό οδηγό για να είμαστε ένα βήμα μπροστά από τους ψηφιακούς απατεώνες, απολαμβάνοντας παράλληλα όλα τα cool πράγματα που προσφέρει το internet. Το βασικό συμπέρασμα σήμερα είναι ότι, ενώ η τεχνολογία γίνεται πιο έξυπνη, η ανθρώπινη διαίσθηση και μερικές απλές συνήθειες παραμένουν η απόλυτη άμυνα ενάντια σε κάθε high-tech πονηριά. Λοιπόν, τι ακριβώς είναι αυτό το νέο playbook για το οποίο όλοι ψιθυρίζουν; Φανταστείτε έναν ψηφιακό παπαγάλο τόσο καλό στη δουλειά του, που μπορεί να επαναλαμβάνει όσα λέτε και να ακούγεται ακριβώς σαν τον κολλητό σας, το αφεντικό σας ή ακόμα και έναν παρουσιαστή ειδήσεων. Αυτό ονομάζουμε voice cloning και deepfake τεχνολογία. Χρησιμοποιεί ισχυρούς υπολογιστές για να αναλύσει τη φωνή ή το πρόσωπο κάποιου από ένα σύντομο video ή audio clip. Μόλις ο υπολογιστής μάθει αυτά τα patterns, μπορεί να δημιουργήσει ολοκαίνουργια videos ή τηλεφωνήματα που μοιάζουν απόλυτα με το συγκεκριμένο άτομο. Είναι σαν μια ψηφιακή μεταμφίεση που δύσκολα καταλαβαίνεις με την πρώτη ματιά. Αυτά τα εργαλεία φτιάχτηκαν αρχικά για διασκέδαση, όπως ταινίες ή memes, αλλά κάποιοι τα χρησιμοποιούν για να ξεγελάσουν κόσμο και να αποσπάσουν χρήματα ή προσωπικά δεδομένα. Είναι σαν ένα μαγικό κόλπο όπου ο μάγος χρησιμοποιεί έναν κρυφό καθρέφτη, μόνο που εδώ ο καθρέφτης είναι φτιαγμένος από κώδικα και pixels. Βρήκατε κάποιο λάθος ή κάτι που χρειάζεται διόρθωση; Ενημερώστε μας. Ο λόγος που αυτό είναι τόσο hot θέμα παγκοσμίως, είναι γιατί αλλάζει τον τρόπο που εμπιστευόμαστε όσα ακούμε και βλέπουμε. Παλαιότερα, αν ακούγατε τη φωνή της μαμάς σας στο τηλέφωνο, ξέρατε ότι ήταν εκείνη. Τώρα, επειδή αυτά τα εργαλεία είναι εύκολα προσβάσιμα, πρέπει να είμαστε λίγο πιο καχύποπτοι. Αυτή είναι μια εξαιρετική ευκαιρία να χτίσουμε μια πιο ασφαλή παγκόσμια κοινότητα. Από τις Ηνωμένες Πολιτείες μέχρι τη Σιγκαπούρη, οι άνθρωποι συνεργάζονται για να βρουν τρόπους επαλήθευσης της ταυτότητας του συνομιλητή. Κυβερνήσεις και μεγάλες εταιρείες tech δουλεύουν σκληρά για να φτιάξουν ανιχνευτές που εντοπίζουν μια fake φωνή πιο γρήγορα από κάθε άνθρωπο. Αυτή η παγκόσμια προσπάθεια σημαίνει ότι γινόμαστε όλοι πιο tech-literate, κάτι που είναι μεγάλη νίκη για όσους αγαπούν να μένουν συνδεδεμένοι με την οικογένειά τους πέρα από τους ωκεανούς. Μαθαίνουμε να εκτιμάμε την αυθεντική ανθρώπινη επαφή περισσότερο από ποτέ. Όταν εξετάζουμε πώς αυτό επηρεάζει την καθημερινότητά μας, δεν πρόκειται για φόβο, αλλά για προετοιμασία. Για παράδειγμα, ένα συνηθισμένο κόλπο περιλαμβάνει ένα τηλεφώνημα που ακούγεται σαν manager να ζητά από έναν υπάλληλο ένα γρήγορο wire transfer για μια υποτιθέμενη επείγουσα δουλειά. Πριν από έναν χρόνο, αυτές οι κλήσεις ακούγονταν ρομποτικές, αλλά σήμερα ακούγονται απόλυτα φυσικές. Γι’ αυτό πολλές εταιρείες θεσπίζουν κανόνες, όπως πάντα να γίνεται διπλή επιβεβαίωση μέσω ενός άλλου app ή μιας σύντομης face-to-face συζήτησης. Το φαινόμενο εμφανίζεται και στην πολιτική, όπου fake videos μπορεί να προσπαθούν να δείξουν έναν υποψήφιο να λέει κάτι που δεν είπε ποτέ. Τα καλά νέα είναι ότι τα social media platforms γίνονται πολύ πιο γρήγορα στο να επισημαίνουν αυτά τα videos ώστε να βλέπουμε την αλήθεια. Μένοντας ενημερωμένοι σε sites όπως το botnews.today, μπορείτε να παρακολουθείτε αυτές τις τάσεις και να κρατάτε την ψηφιακή σας ζωή ασφαλή.
Ένα πρωινό με τη Sarah και τον ψηφιακό απατεώνα
Ας δούμε μια μέρα από τη ζωή της Sarah, μιας savvy marketing professional που ξέρει να χειρίζεται το smartphone της. Ένα πρωινό Τρίτης, η Sarah δέχεται ένα τηλεφώνημα από κάποιον που ακούγεται ακριβώς σαν τον μικρότερο αδερφό της, τον Tommy. Η φωνή είναι πανικόβλητη και λέει ότι έχασε το πορτοφόλι του σε ένα ταξίδι και χρειάζεται μερικές εκατοντάδες δολάρια για ένα ταξί για το αεροδρόμιο. Η Sarah πάει να ανοίξει το banking app της, αλλά θυμάται μια συμβουλή που διάβασε online. Παραμένει ψύχραιμη και κάνει μια απλή ερώτηση που μόνο ο πραγματικός Tommy θα ήξερε, όπως το όνομα του πρώτου τους χάμστερ. Η φωνή στην άλλη άκρη μπερδεύεται και κλείνει το τηλέφωνο. Η Sarah χαμογελά γιατί μόλις κέρδισε έναν γύρο απέναντι σε ένα voice clone. Αργότερα, βλέπει ένα video μιας διάσημης προσωπικότητας να προωθεί ένα πολύ φθηνό επενδυτικό πλάνο. Παρατηρεί ότι ο φωτισμός στο πρόσωπο της διασημότητας τρεμοπαίζει λίγο στις άκρες, που είναι κλασικό σημάδι deepfake. Κάνει scroll και κάνει report το post, νιώθοντας περήφανη που έκανε το καθήκον της για να κρατήσει το internet καθαρό για όλους. Ίσως αναρωτιέστε αν αυτά τα ψηφιακά κόλπα είναι τέλεια, αλλά η αλήθεια είναι ότι έχουν ακόμα μερικά αστεία ελαττώματα που τα προδίδουν. Η δημιουργία ενός τέλειου deepfake απαιτεί τεράστια υπολογιστική ισχύ και πολύ ακριβό hardware, στο οποίο οι περισσότεροι απατεώνες δεν έχουν ακόμα πρόσβαση. Αυτό σημαίνει ότι αν κοιτάξετε προσεκτικά ή ακούσετε με προσοχή, συχνά μπορείτε να βρείτε τις ρωγμές στον ψηφιακό ιστό. Για παράδειγμα, οι fake φωνές συχνά δυσκολεύονται με τα ακατάστατα, συναισθηματικά μέρη του ανθρώπινου λόγου, όπως ένα ξαφνικό γέλιο ή ένας αναστεναγμός απογοήτευσης. Υπάρχει επίσης το ζήτημα της ιδιωτικότητας και του πώς εκπαιδεύονται αυτά τα μοντέλα, κάτι που είναι μεγάλο θέμα για τους ερευνητές που θέλουν να διασφαλίσουν ότι τα προσωπικά μας δεδομένα παραμένουν δικά μας. Αν και είναι αλήθεια ότι τα εργαλεία ανίχνευσης βρίσκονται σε έναν αγώνα δρόμου με τα εργαλεία δημιουργίας, το ανθρώπινο στοιχείο και η κοινή λογική παραμένουν το πιο ισχυρό μας asset. Εμείς εξακολουθούμε να έχουμε τον έλεγχο στο κουμπί “send”, και αυτό είναι ένα πολύ καλό σημείο για να βρισκόμαστε.
Η high-tech μηχανή κάτω από το καπό
Τώρα, ας μπούμε στο Geek Section για μια στιγμή για να δούμε πώς οι επαγγελματίες το διαχειρίζονται αυτό παρασκηνιακά! Για όσους λατρεύουν το τεχνικό κομμάτι, η μετάβαση από τα θεωρητικά deepfakes στην πρακτική απάτη αφορά την ενσωμάτωση στη ροή εργασίας. Οι απατεώνες χρησιμοποιούν πλέον APIs που συνδέουν μεγάλα γλωσσικά μοντέλα με μηχανές text-to-speech με απίστευτα χαμηλό latency. Αυτό σημαίνει ότι η fake φωνή μπορεί να απαντήσει στις ερωτήσεις σας σχεδόν ακαριαία, κάνοντας τη συζήτηση να φαίνεται πραγματική. Πολλά από αυτά τα συστήματα τρέχουν σε τοπικούς αποθηκευτικούς χώρους χρησιμοποιώντας ισχυρές consumer κάρτες γραφικών, γεγονός που τους επιτρέπει να παρακάμπτουν κάποια φίλτρα που έχουν θέσει οι μεγάλοι cloud providers. Από την άλλη πλευρά, οι “καλοί” χρησιμοποιούν παρόμοια τεχνολογία για να χτίσουν επίπεδα άμυνας σε πραγματικό χρόνο. Ψάχνουν για πράγματα όπως “φασματικές ασυνέπειες” στον ήχο, που είναι μικροσκοπικά μοτίβα που συμβαίνουν όταν ένας υπολογιστής παράγει ήχο αντί για έναν ανθρώπινο λαιμό. Είναι ένας συναρπαστικός κόσμος κώδικα όπου κάθε update φέρνει έναν νέο τρόπο προστασίας των χρηστών. Οι ομάδες ασφαλείας εστιάζουν επίσης στο local inference, που σημαίνει ότι τρέχουν λογισμικό ανίχνευσης απευθείας στο κινητό σας αντί να στέλνουν τα δεδομένα σας σε έναν μακρινό server. Αυτό κρατά τις συζητήσεις σας ιδιωτικές, δίνοντάς σας παράλληλα μια προειδοποίηση αν κάτι φαίνεται ύποπτο. Βλέπουμε μεγάλη ανάπτυξη σε εργαλεία που χρησιμοποιούν ψηφιακές υπογραφές τύπου blockchain για να αποδείξουν ότι ένα video ή audio αρχείο προέρχεται όντως από την πηγή που ισχυρίζεται. Δεν πρόκειται μόνο για το να σταματήσουμε τα κακά, αλλά για να κάνουμε τα αληθινά πιο εύκολα στην επαλήθευση. Ακόμα και με όλα αυτά τα φανταχτερά APIs και τοπικά μοντέλα, το πιο αποτελεσματικό μέτρο ασφαλείας παραμένει μια απλή ανθρώπινη διαδικασία. Οι περισσότερες επιτυχημένες άμυνες σήμερα περιλαμβάνουν έναν συνδυασμό αυτοματοποιημένων ενδείξεων και ενός γρήγορου χειροκίνητου ελέγχου από έναν άνθρωπο που ξέρει τι να ψάξει. Είναι μια όμορφη συνεργασία μεταξύ ανθρώπινου μυαλού και υπολογιστικής ταχύτητας που κρατά τον ψηφιακό κόσμο να περιστρέφεται με ασφάλεια για όλους μας. Έχετε μια ιστορία, εργαλείο, τάση ή ερώτηση σχετικά με την τεχνητή νοημοσύνη που πιστεύετε ότι πρέπει να καλύψουμε; Στείλτε μας την ιδέα σας για άρθρο — θα χαρούμε να την ακούσουμε. Το συμπέρασμα είναι ότι, ενώ ο κόσμος των deepfakes και του voice cloning μεγαλώνει, δεν είναι κάτι που δεν μπορούμε να διαχειριστούμε με λίγη θετική ενέργεια και έξυπνες συνήθειες. Οδεύουμε προς ένα μέλλον όπου το να είμαστε λίγο πιο περίεργοι είναι απλώς μέρος του να είμαστε καλοί ψηφιακοί πολίτες. Συζητώντας αυτά τα θέματα με τους φίλους και την οικογένειά μας, κάνουμε ολόκληρο τον κόσμο ένα πιο ασφαλές μέρος. Είναι απαραίτητο να θυμόμαστε ότι η τεχνολογία είναι ένα εργαλείο και εμείς είμαστε αυτοί που αποφασίζουμε πώς θα τη χρησιμοποιήσουμε για καλό. Έχετε τα μάτια σας ανοιχτά, μείνετε περίεργοι και να θυμάστε πάντα ότι ένα γρήγορο τηλεφώνημα σε έναν έμπιστο φίλο είναι ο καλύτερος τρόπος για να ξεκαθαρίσετε οποιοδήποτε ψηφιακό μυστήριο. Το μέλλον είναι λαμπρό και με το νέο μας playbook επίγνωσης, είμαστε έτοιμοι για όποιες cool εφευρέσεις έρθουν στη συνέχεια! Καθώς προχωράμε, ένα μεγάλο ερώτημα παραμένει: πώς θα αλλάξουν οι νόμοι μας για να συμβαδίσουν με αυτές τις ψηφιακές μαριονέτες τα επόμενα χρόνια;
Το BotNews.today χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την έρευνα, συγγραφή, επιμέλεια και μετάφραση περιεχομένου. Η ομάδα μας ελέγχει και επιβλέπει τη διαδικασία για να διατηρεί τις πληροφορίες χρήσιμες, σαφείς και αξιόπιστες.
Σημείωση συντάκτη: Δημιουργήσαμε αυτόν τον ιστότοπο ως έναν πολύγλωσσο κόμβο ειδήσεων και οδηγών τεχνητής νοημοσύνης για άτομα που δεν είναι φανατικοί των υπολογιστών, αλλά εξακολουθούν να θέλουν να κατανοήσουν την τεχνητή νοημοσύνη, να τη χρησιμοποιούν με μεγαλύτερη αυτοπεποίθηση και να παρακολουθούν το μέλλον που ήδη έρχεται.
Έχετε μια ερώτηση, πρόταση ή ιδέα για άρθρο; Επικοινωνήστε μαζί μας.