Πώς να εντοπίσετε τις πιο επικίνδυνες απειλές deepfake
Το τέλος της εμπιστοσύνης στον ήχο
Τα deepfakes πέρασαν από τα εργαστήρια στην πρώτη γραμμή της εταιρικής και προσωπικής ασφάλειας. Για χρόνια, η συζήτηση επικεντρωνόταν σε πρόχειρες αλλαγές προσώπων ή παρωδίες διασήμων που ήταν εύκολο να εντοπιστούν. Αυτή η εποχή τελείωσε. Σήμερα, οι πιο επικίνδυνες απειλές δεν είναι κινηματογραφικά βίντεο, αλλά εξαιρετικά στοχευμένα audio clones και λεπτές επεξεργασίες εικόνας που χρησιμοποιούνται για οικονομική απάτη. Το εμπόδιο εισόδου έχει εξαφανιστεί. Οποιοσδήποτε με ένα βασικό laptop και λίγα δολάρια μπορεί πλέον να μιμηθεί μια φωνή με εκπληκτική ακρίβεια, χρησιμοποιώντας μόνο λίγα δευτερόλεπτα υλικού. Αυτή η αλλαγή κάνει το πρόβλημα να φαίνεται πιο προσωπικό και επείγον από ό,τι ήταν πριν από δώδεκα μήνες. Δεν ψάχνουμε πλέον για ατέλειες σε μια παραγωγή του Hollywood. Ψάχνουμε για ψέματα στις καθημερινές μας επικοινωνίες. Η ταχύτητα με την οποία βελτιώθηκαν αυτά τα εργαλεία έχει ξεπεράσει τη συλλογική μας ικανότητα να επαληθεύουμε όσα ακούμε και βλέπουμε. Αυτό δεν είναι μόνο μια τεχνική πρόκληση. Είναι μια θεμελιώδης αλλαγή στον τρόπο που πρέπει να προσεγγίζουμε κάθε πληροφορία που φτάνει σε εμάς μέσω μιας οθόνης ή ενός ηχείου.
Η μηχανική της συνθετικής εξαπάτησης
Η τεχνολογία πίσω από αυτές τις απειλές βασίζεται σε generative models που έχουν εκπαιδευτεί σε τεράστια σύνολα δεδομένων ανθρώπινης έκφρασης. Στον πυρήνα τους βρίσκονται neural networks που μπορούν να αναλύσουν τον μοναδικό ρυθμό, τον τόνο και τις συναισθηματικές αποχρώσεις μιας συγκεκριμένης ανθρώπινης φωνής. Σε αντίθεση με τα παλαιότερα συστήματα text-to-speech που ακούγονταν ρομποτικά, αυτά τα σύγχρονα συστήματα συλλαμβάνουν την