தற்போது நிலவும் மிகவும் ஆபத்தான டீப்ஃபேக் ட்ரெண்ட்
விஷுவல் டீப்ஃபேக் காலம் ஒரு கவனச்சிதறல் மட்டுமே. உலகத் தலைவர்களின் போலியான வீடியோக்களைப் பார்த்து மக்கள் கவலைப்பட்டுக் கொண்டிருந்த வேளையில், அதைவிட ஆபத்தான மற்றும் கண்ணுக்குத் தெரியாத ஒரு அச்சுறுத்தல் பின்னணியில் அமைதியாக வளர்ந்துவிட்டது. ஆடியோ சிந்தசிஸ் (Audio synthesis) தற்போது உயர் மதிப்புள்ள மோசடிகளுக்கும் அரசியல் ஸ்திரமின்மைக்கும் முதன்மை கருவியாக மாறியுள்ளது. இது இப்போது நகரும் முகத்தைப் பற்றியது அல்ல; இது ஒரு குடும்ப உறுப்பினரின் பரிச்சயமான குரல் அல்லது ஒரு தலைமை நிர்வாக அதிகாரியின் அதிகாரப்பூர்வ தொனியைப் பற்றியது. இந்த மாற்றம் முக்கியமானது, ஏனெனில் வீடியோவை விட ஆடியோவிற்கு குறைவான பேண்ட்விட்த் (bandwidth), குறைவான பிராசஸிங் பவர் (processing power) தேவைப்படுகிறது மற்றும் அதிக உணர்ச்சிகரமான தாக்கத்தை ஏற்படுத்துகிறது. குரல் பயோமெட்ரிக்ஸ் (voice biometrics) அல்லது விரைவான போன் கால்கள் மூலம் நாம் அடையாளங்களை உறுதிப்படுத்தும் உலகில், வெறும் மூன்று வினாடி ஆடியோவைக் கொண்டு ஒருவரின் குரலை குளோன் (clone) செய்யும் திறன், நவீன தகவல் தொடர்பு அமைப்பின் அடிப்படை நம்பிக்கையை உடைத்துவிட்டது. சினிமாத்தனமான தந்திரங்களிலிருந்து, நிறுவனங்களின் பணப்பையையும் பொதுமக்களின் நிம்மதியையும் குறிவைக்கும் நடைமுறை மற்றும் உயர்-அபாய மோசடிகளை நோக்கி நாம் நகர்கிறோம். இந்த சிக்கல் ஒரு வருடத்திற்கு முன்பு இருந்ததை விட இப்போது கடினமாகத் தெரிகிறது, ஏனெனில் இதற்கான கருவிகள் பரிசோதனைக்கூடங்களிலிருந்து எளிதாகப் பயன்படுத்தக்கூடிய கிளவுட் (cloud) இடைமுகங்களுக்கு மாறிவிட்டன.
செயற்கை அடையாளத்தின் இயக்கவியல்
உயர்தர குரல் குளோனிங்கிற்கான தொழில்நுட்பத் தடை நீங்கிவிட்டது. கடந்த காலத்தில், ஒரு நம்பகமான குரல் நகலை உருவாக்க பல மணிநேர ஸ்டுடியோ பதிவு மற்றும் அதிக கம்ப்யூட் நேரம் தேவைப்பட்டது. இன்று, ஒரு மோசடி செய்பவர் சமூக ஊடக கிளிப் அல்லது பதிவுசெய்யப்பட்ட வெபினாரிலிருந்து (webinar) ஒருவரின் குரலை எளிதாக எடுக்க முடியும். நவீன நியூரல் நெட்வொர்க்குகள் (neural networks) ‘ஜீரோ-ஷாட் டெக்ஸ்ட்-டு-ஸ்பீச்’ (zero-shot text-to-speech) என்ற செயல்முறையைப் பயன்படுத்துகின்றன. இது ஒரு நபருக்கு பல நாட்கள் பயிற்சி அளிக்காமலேயே, அவர்களின் குரல் வளம், சுருதி மற்றும் உணர்ச்சிகரமான ஏற்ற இறக்கங்களை ஒரு மாடல் (model) அப்படியே பின்பற்ற அனுமதிக்கிறது. இதன் விளைவாக, நிஜ நேரத்தில் எதையும் பேசக்கூடிய ஒரு டிஜிட்டல் பேய் உருவாகிறது. இது வெறும் பதிவு அல்ல; இது இருவழி உரையாடலில் பங்கேற்கக்கூடிய ஒரு நேரடி, ஊடாடும் கருவி. லார்ஜ் லாங்குவேஜ் மாடல்களுடன் (large language models) இணைக்கப்படும்போது, இந்த குளோன்கள் இலக்கு நபரின் குறிப்பிட்ட சொல்லகராதி மற்றும் பேசும் பழக்கவழக்கங்களைக்கூட அப்படியே பிரதிபலிக்கும். தங்களுக்குத் தெரிந்த ஒருவருடன் சாதாரண உரையாடலில் ஈடுபடுவதாக நம்பும் அப்பாவி கேட்பவருக்கு, இந்த மோசடியைக் கண்டறிவது கிட்டத்தட்ட சாத்தியமற்றது.
பொதுமக்களின் புரிதல் பெரும்பாலும் இந்த யதார்த்தத்திற்குப் பின் தங்கியே உள்ளது. டீப்ஃபேக்குகளில் உள்ள கோளாறுகள் அல்லது ரோபோட்டிக் தொனியை வைத்து அவற்றை எளிதாகக் கண்டறியலாம் என்று இன்னும் பலர் நம்புகிறார்கள். இது ஒரு ஆபத்தான தவறான புரிதல். சமீபத்திய தலைமுறை ஆடியோ மாடல்கள், எஞ்சியிருக்கும் குறைகளை மறைக்க மோசமான செல்லுலார் இணைப்பு அல்லது இரைச்சலான அறை போன்ற ஒலிகளை உருவகப்படுத்த முடியும். செயற்கை ஆடியோவின் தரத்தை வேண்டுமென்றே குறைப்பதன் மூலம், தாக்குதல் நடத்துபவர்கள் அதை மிகவும் உண்மையானதாக உணர வைக்கிறார்கள். இதுவே தற்போதைய நெருக்கடியின் மையப்பகுதி. நாம் AI-ன் அடையாளமாக முழுமையை எதிர்பார்க்கிறோம், ஆனால் மிகவும் ஆபத்தான போலிகள் குறைபாடுகளைத் தழுவுபவை. கொள்கைகளால் ஈடுகொடுக்க முடியாத வேகத்தில் இந்தத் துறை நகர்கிறது. ஆராய்ச்சியாளர்கள் வாட்டர்மார்க்கிங் (watermarking) நுட்பங்களை உருவாக்கும் அதே வேளையில், ஓப்பன்-சோர்ஸ் (open-source) சமூகம் எந்தவொரு பாதுகாப்பு வடிகட்டிகள் அல்லது நெறிமுறை கட்டுப்பாடுகளையும் மீறி, உள்ளூர் கணினிகளில் இயங்கக்கூடிய மாடல்களைத் தொடர்ந்து வெளியிட்டு வருகிறது. பொதுமக்கள் எதிர்பார்ப்பதற்கும் தொழில்நுட்பம் செய்யக்கூடியதற்கும் இடையிலான இந்த இடைவெளிதான், குற்றவாளிகள் இப்போது அதிக செயல்திறனுடன் சுரண்டிக்கொண்டிருக்கும் முக்கியப் புள்ளியாகும்.
கிளவுட்-அடிப்படையிலான மோசடியின் புவிசார் அரசியல்
இந்த தொழில்நுட்பத்தின் மீதான அதிகாரம் ஒரு சில குறிப்பிட்ட கைகளில் குவிந்துள்ளது. முன்னணி ஆடியோ சிந்தசிஸ் தளங்கள் பெரும்பாலானவை அமெரிக்காவைச் சேர்ந்தவை, சிலிக்கான் வேலி வழங்கும் பிரம்மாண்டமான மூலதனம் மற்றும் கிளவுட் உள்கட்டமைப்பை அவை நம்பியுள்ளன. இது ஒரு தனித்துவமான பதற்றத்தை உருவாக்குகிறது. அமெரிக்க அரசாங்கம் AI பாதுகாப்பிற்கான வழிகாட்டுதல்களை உருவாக்க முயற்சிக்கும்போது, இந்த நிறுவனங்களின் தொழில்முறை வேகம், அதிக யதார்த்தம் மற்றும் குறைந்த லேட்டன்சியை (latency) கோரும் உலகளாவிய சந்தையால் உந்தப்படுகிறது. அமேசான், மைக்ரோசாப்ட் மற்றும் கூகுள் போன்ற நிறுவனங்கள் வைத்திருக்கும் கிளவுட் கட்டுப்பாடு, உலகின் மிக சக்திவாய்ந்த மோசடி கருவிகளின் பாதுகாவலர்களாக அவற்றை மாற்றியுள்ளது. இருப்பினும், இந்த தளங்களே தவறாகப் பயன்படுத்தப்படுவதற்கான முதன்மை இலக்குகளாகவும் உள்ளன. ஒரு நாட்டில் உள்ள மோசடி செய்பவர், மற்றொரு நாட்டில் உள்ள பாதிக்கப்பட்டவரை குறிவைக்க அமெரிக்காவைச் சேர்ந்த கிளவுட் சேவையைப் பயன்படுத்த முடியும், இது சட்ட அமலாக்கத்தை ஒரு கனவாக மாற்றுகிறது. இந்த டெக் ஜாம்பவான்களின் மூலதன ஆழம், ஒரு சிறிய நாடு உருவாக்கக்கூடிய எதையும் விட மிகச் சிறந்த மாடல்களை உருவாக்க அனுமதிக்கிறது, ஆனால் அவர்களின் சர்வர்களில் உருவாக்கப்படும் ஒவ்வொரு ஆடியோவையும் கண்காணிக்க அவர்களுக்கு சட்டப்பூர்வ அதிகாரம் இல்லை.
அரசியல் கையாளுதல் என்பது இந்த தொழில்நுட்பத்தின் அடுத்த கட்டமாகும். பரந்த அளவிலான தவறான தகவல் பிரச்சாரங்களிலிருந்து, மிகக் குறுகிய இலக்குகளைத் தாக்கும் தாக்குதல்களுக்கு நாம் மாறி வருகிறோம். தேர்தல் நாளில் வாக்காளர்கள் ஒரு வேட்பாளரின் குரலில் போன் செய்து, வாக்குச்சாவடி மாறிவிட்டதாகக் கூறினால் எப்படி இருக்கும் என்று கற்பனை செய்து பாருங்கள். இதற்கு வைரல் வீடியோ தேவையில்லை. இதற்கு ஒரு போன் லிஸ்ட் மற்றும் சிறிது சர்வர் நேரம் மட்டுமே தேவை. இந்தத் தாக்குதல்களின் வேகம் அவற்றை மிகவும் பயனுள்ளதாக்குகிறது. ஒரு பிரச்சாரக் குழு திருத்தத்தை வெளியிடுவதற்குள், சேதம் விளைவிக்கப்பட்டிருக்கும். முந்தைய சுழற்சிகளை விட இப்போது இந்த சிக்கல் ஏன் அவசரமாகத் தெரிகிறது என்பதற்கு இதுவே காரணம். வெகுஜன-தனிப்பயனாக்கப்பட்ட மோசடிக்கான உள்கட்டமைப்பு முழுமையாகச் செயல்படுகிறது. ஃபெடரல் டிரேட் கமிஷன் (Federal Trade Commission) தகவல்படி, குரல் தொடர்பான மோசடிகளின் அதிகரிப்பு ஏற்கனவே நுகர்வோருக்கு ஆண்டுதோறும் பல மில்லியன் டாலர்களை இழப்பை ஏற்படுத்துகிறது. கொள்கை ரீதியான பதில்கள் ஆய்வு மற்றும் விவாதச் சுழற்சியில் சிக்கியுள்ளன, அதே சமயம் தொழில்துறை யதார்த்தம் மின்னல் வேகத்தில் முன்னேறுகிறது. இந்த முரண்பாடு வெறும் அதிகாரத்துவ தோல்வி மட்டுமல்ல; இது சட்டத்தின் வேகத்திற்கும் மென்பொருளின் வேகத்திற்கும் இடையிலான அடிப்படைப் பொருந்தாமை ஆகும்.
எதிர்கால அலுவலகத்தில் ஒரு செவ்வாய்க்கிழமை காலை
சாரா என்ற கார்ப்பரேட் பொருளாளரின் ஒரு நாளைக் கவனியுங்கள். அது ஒரு பரபரப்பான செவ்வாய்க்கிழமை காலை. சிஇஓ-விடமிருந்து அவருக்கு ஒரு போன் வருகிறது, அவருடைய குரலைத் தவறாகப் புரிந்துகொள்ள முடியாது. அவர் பதற்றமாகப் பேசுகிறார், சத்தமில்லாத விமான நிலையத்தில் இருப்பதாகக் கூறுகிறார். மாதக்கணக்கில் நடந்து வரும் ஒரு ஒப்பந்தத்தை உறுதிப்படுத்த அவருக்கு அவசர வயர் டிரான்ஸ்பர் (wire transfer) தேவைப்படுகிறது. திட்டத்தின் குறிப்பிட்ட பெயர் மற்றும் சம்பந்தப்பட்ட சட்ட நிறுவனத்தின் பெயரை அவர் குறிப்பிடுகிறார். உதவியாக இருக்க விரும்பும் சாரா, அந்தச் செயல்முறையைத் தொடங்குகிறார். மறுமுனையில் உள்ள குரல், அவளுடைய கேள்விகளுக்கு நிஜ நேரத்தில் பதிலளிக்கிறது, டெர்மினலில் உள்ள மோசமான காபி பற்றி ஒரு ஜோக் கூட சொல்கிறது. இது பதிவு அல்ல. இது ஒரு தாக்குதல் நடத்துபவரால் கட்டுப்படுத்தப்படும் நேரடி செயற்கை குரல், அவர் நிறுவனத்தின் உள் மொழியை ஆய்வு செய்ய வாரக்கணக்கில் செலவழித்திருக்கிறார். சாரா பணப் பரிமாற்றத்தை முடிக்கிறார். பல மணிநேரம் கழித்து, அவர் ஒரு ஃபாலோ-அப் (follow-up) மின்னஞ்சலை அனுப்பும்போதுதான், சிஇஓ நாள் முழுவதும் போர்டு மீட்டிங்கில் (board meeting) இருந்தார் என்பதை உணர்கிறார். பணம் போய்விட்டது, சில நிமிடங்களில் மறைந்துவிடும் பல கணக்குகள் வழியாக அது நகர்த்தப்பட்டது. இந்தச் சூழல் இனி ஒரு தத்துவார்த்தப் பயிற்சி அல்ல. உலகம் முழுவதும் உள்ள வணிகங்களுக்கு இது ஒரு அடிக்கடி நிகழும் யதார்த்தம்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
இந்த வகை மோசடி பாரம்பரிய பிஷிங் (phishing) முறைகளை விட அதிக பலன் தருகிறது, ஏனெனில் இது நமது இயல்பான சந்தேகத்தைத் தவிர்க்கிறது. மின்னஞ்சல்களில் உள்ள எழுத்துப் பிழைகளைக் கவனிக்க நாம் பயிற்சி பெற்றுள்ளோம், ஆனால் நீண்டகால சக ஊழியரின் குரலைச் சந்தேகிக்க நாம் இன்னும் பயிற்சி பெறவில்லை. ஒரு போன் காலின் உணர்ச்சிகரமான அழுத்தம், நாம் விமர்சன ரீதியாகச் சிந்திக்கும் திறனைக் குறைக்கிறது. ஒரு பாதுகாப்பு ஆய்வாளருக்கு, நாள் முழுவதும் ஃபயர்வால் (firewall) கண்காணிப்பதை விட, தகவல் தொடர்பு முறைகளில் உள்ள முரண்பாடுகளைத் தேடுவதிலேயே கழிகிறது. டிஜிட்டல் முறையில் ஒருபோதும் பகிரப்படாத “சவால்-பதில்” (challenge-response) சொற்றொடர்கள் போன்ற புதிய நெறிமுறைகளை அவர்கள் செயல்படுத்த வேண்டும். ஒரு பாதுகாப்பு குழு தங்கள் காலையை செயற்கை நுண்ணறிவு குறித்த சமீபத்திய நுண்ணறிவுகளை (latest insights on artificial intelligence) மதிப்பாய்வு செய்வதில் செலவிடலாம். அவர்கள் இனி ஹேக்கர்களுடன் மட்டும் போராடவில்லை. அவர்கள் நமது காதுகள் வழங்கும் உளவியல் நிச்சயத்தன்மையுடன் போராடுகிறார்கள். உண்மை என்னவென்றால், மனிதக் குரல் இனி பாதுகாப்பான சான்றாக இல்லை. இந்த உணர்தல், ஒரு கார்ப்பரேட் சூழலில் நம்பிக்கை எவ்வாறு நிறுவப்படுகிறது என்பதை முழுமையாக மறுபரிசீலனை செய்ய வைக்கிறது. இந்த மாற்றத்தின் விலை வெறும் நிதி சார்ந்தது மட்டுமல்ல. இது நிறுவனங்களை திறமையாகச் செயல்பட வைக்கும் சாதாரண, அதிக நம்பிக்கை கொண்ட தகவல் தொடர்பின் இழப்பாகும். ஒவ்வொரு அழைப்பும் இப்போது சந்தேகத்தின் மறைமுக வரியைக் கொண்டுள்ளது.
செயற்கை யுகத்திற்கான கடினமான கேள்விகள்
இந்த தொழில்நுட்பத்தின் தற்போதைய பாதையில் நாம் ஒரு சோக்ரடிக் (Socratic) சந்தேகத்தை கடைபிடிக்க வேண்டும். எந்தக் குரலையும் குளோன் செய்ய முடியும் என்றால், ஒரு பொது ஆளுமையைப் பராமரிப்பதன் மறைமுக விலை என்ன? ஒவ்வொரு பொதுப் பேச்சாளர், நிர்வாகி மற்றும் இன்ஃப்ளூயன்ஸரிடம் (influencer), அவர்களின் குரல் அடையாளம் இப்போது பொதுச் சொத்து என்று நாம் அடிப்படையில் கூறுகிறோம். பாதுகாப்பிற்கான கம்ப்யூட் செலவுகளுக்கு யார் பொறுப்பு? ஊழியர்கள் தாங்கள் யார் என்று சொல்லிக்கொள்பவர்கள்தான் என்பதை உறுதிப்படுத்த நிறுவனங்கள் மில்லியன் கணக்கில் செலவழிக்க வேண்டும் என்றால், அது உலகப் பொருளாதாரத்திற்கு நேரடி இழப்பாகும். “பொய்யரின் லாபம்” (liar’s dividend) பற்றியும் நாம் கேட்க வேண்டும். இது ஒரு உண்மையான பதிவில் சிக்கிய நபர், அது டீப்ஃபேக் என்று எளிதாகக் கூறித் தப்பிக்கும் நிகழ்வாகும். இது எந்த ஆதாரமும் உறுதியானதாக இல்லாத ஒரு உலகத்தை உருவாக்குகிறது. ஆதாரத்தின் முதன்மை வடிவமான சாட்சிப் பதிவு, செயற்கையான தயாரிப்பு என்று நிராகரிக்கப்படும்போது, ஒரு சட்ட அமைப்பு எவ்வாறு செயல்படும்? உண்மை மறைக்கப்படுவது மட்டுமல்லாமல், நிரூபிக்க முடியாத நிலையை நோக்கி நாம் நகர்கிறோம். ஜெனரேட்டிவ் ஆடியோவின் (generative audio) வசதி, ஆடியோ ஆதாரங்களை முழுமையாக அழிப்பதற்கு ஈடாகுமா? இவை தொலைதூர எதிர்காலத்திற்கான கேள்விகள் அல்ல. இவை இப்போதைய கேள்விகள். பாதுகாப்பிற்கு யார் பணம் கொடுக்க முடியும் என்பதில் ஒரு வேறுபாட்டையும் நாம் காண்கிறோம். பெரிய நிறுவனங்கள் விலையுயர்ந்த சரிபார்ப்புக் கருவிகளை வாங்கலாம், ஆனால் குரல் குளோன் செய்யப்பட்ட கடத்தல் மோசடியால் பாதிக்கப்பட்ட ஒரு முதியவரின் குழந்தையான சராசரி நபருக்கு என்ன நடக்கும்? தனியுரிமை இடைவெளி விரிவடைகிறது, மேலும் மிகவும் பாதிக்கப்படக்கூடியவர்கள் கவசமில்லாமல் விடப்படுகிறார்கள்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.
டீப்ஃபேக் அமைப்புகளின் லேட்டன்சி மற்றும் லாஜிக்
இதை ஏன் நிறுத்துவது கடினம் என்பதைப் புரிந்துகொள்ள, இந்த அமைப்புகளின் பவர் யூசர் (power user) விவரக்குறிப்புகளை நாம் பார்க்க வேண்டும். பெரும்பாலான நவீன குரல் குளோனிங் கருவிகள் API-அடிப்படையிலான கட்டமைப்பைச் சார்ந்துள்ளன. OpenAI அல்லது ElevenLabs போன்ற சேவைகள் நம்பமுடியாத குறைந்த லேட்டன்சியுடன் உயர்-விசுவாச வெளியீட்டை வழங்குகின்றன. நாம் 500 மில்லி விநாடிகள் முதல் ஒரு வினாடி வரையிலான தாமதத்தைப் பற்றிப் பேசுகிறோம். இது ஒரு இயல்பான உரையாடலுக்குப் போதுமானது. நிர்வகிக்கப்படும் சேவையின் கட்டுப்பாடுகளைத் தவிர்க்க விரும்புவோருக்கு, மாடல் வெயிட்டுகளை (model weights) உள்ளூரில் சேமிப்பதே விருப்பமான வழியாகும். 12GB VRAM கொண்ட ஒரு சாதாரண நுகர்வோர் GPU இப்போது ஒரு அதிநவீன RVC (Retrieval-based Voice Conversion) மாடலை இயக்க முடியும். இது ஒரு தாக்குதல் நடத்துபவர் ஆடியோவை உள்ளூரில் பிராசஸ் செய்ய அனுமதிக்கிறது, அவர்களின் செயல்பாடுகள் மூன்றாம் தரப்பு வழங்குநரால் பதிவு செய்யப்படாமல் இருப்பதை உறுதி செய்கிறது. பணிப்பாய்வு ஒருங்கிணைப்பும் (workflow integration) தடையின்றி வருகிறது. மோசடி செய்பவர்கள் தங்கள் செயற்கை ஆடியோவை நேரடியாக ஒரு விர்ச்சுவல் மைக்ரோஃபோனில் (virtual microphone) செலுத்தலாம், இது ஜூம், டீம்ஸ் (Teams) அல்லது VoIP கேட்வே (gateway) வழியாக ஒரு சாதாரண போன் லைனில் முறையான உள்ளீடாகத் தோன்றும்.
இந்த அமைப்புகளின் வரம்புகள் கம்ப்யூட் பவரை விட தரவுத் தரத்துடன் தொடர்புடையவை. ஒரு மாடல், ரெஃபரன்ஸ் ஆடியோவைப் பொறுத்தே அமையும். இருப்பினும், இணையம் உயர்தர குரல் தரவுகளின் பிரம்மாண்டமான களஞ்சியமாகும். டெவலப்பர்களுக்கு, இன்ஃபரன்ஸ் வேகத்தை (inference speed) நிர்வகிப்பதே சவாலாகும். லேட்டன்சி அதிகமாக இருந்தால், உரையாடல் “இயல்பற்றதாக” உணர்கிறது. பவர் யூசர்கள் தற்போது சிறிய, குவாண்டைஸ்டு (quantized) மாடல்களைப் பயன்படுத்தி தங்கள் ஸ்டாக்குகளை மேம்படுத்துகிறார்கள், அவை பதிலளிக்கும் வேகத்தில் மிகப்பெரிய ஆதாயத்திற்காக மிகச்சிறிய அளவு விசுவாசத்தை விட்டுக்கொடுக்கின்றன. பொதுவான இலக்குகளின் முன்-கணக்கிடப்பட்ட குரல் அம்சங்களைச் சேமிக்க அவர்கள் உள்ளூர் தரவுத்தளங்களையும் பயன்படுத்துகிறார்கள். இந்த அளவிலான தொழில்நுட்ப நுணுக்கம், பாதுகாப்பும் சமமாக தானியங்கி முறையில் இருக்க வேண்டும் என்பதைக் குறிக்கிறது. கையேடு சரிபார்ப்பு மிகவும் மெதுவானது. ஆடியோவின் ஸ்பெக்ட்ரல் நிலைத்தன்மையை (spectral consistency) நிஜ நேரத்தில் பகுப்பாய்வு செய்ய, AI-ஆல் இயக்கப்படும் “கேட்பவர்கள்” நமது போன் லைன்களில் அமர வேண்டிய கட்டத்திற்கு நாம் நுழைகிறோம். இது புதிய தனியுரிமை கவலைகளை உருவாக்குகிறது. போலிகளிடமிருந்து நம்மைப் பாதுகாக்க, நாம் பேசும் ஒவ்வொரு வார்த்தையையும் ஒரு அல்காரிதம் கேட்க அனுமதிக்க வேண்டுமா? பாதுகாப்பு மற்றும் தனியுரிமைக்கு இடையிலான வர்த்தகம் இதுவரை இல்லாத அளவுக்கு இப்போது மிகவும் நேரடியானதாக மாறியுள்ளது.
- நிஜ நேர குரல் குளோனிங்கிற்கான சராசரி லேட்டன்சி கடந்த பன்னிரண்டு மாதங்களில் 800 மில்லி விநாடிகளுக்குக் கீழே குறைந்துள்ளது.
- தற்போதைய சுழற்சியின் தொடக்கத்திலிருந்து குரல் மாற்றத்திற்கான ஓப்பன்-சோர்ஸ் களஞ்சியங்களில் பங்களிப்புகள் 300 சதவீதம் அதிகரித்துள்ளன.
புதிய அச்சுறுத்தலின் யதார்த்தம்
டீப்ஃபேக்குகளில் மிகவும் ஆபத்தான ட்ரெண்ட் சாதாரணமானவற்றை நோக்கிய நகர்வுதான். அதிக பட்ஜெட் கொண்ட படமோ அல்லது வைரல் பாரடியோ நம்மை கவலைப்படுத்த வேண்டியதில்லை. சாதாரண போன் கால் வழியாக வரும் அமைதியான, தொழில்முறை மற்றும் மிகவும் நம்பத்தகுந்த ஆடியோதான் நம்மை கவலைப்படுத்த வேண்டும். இந்த தொழில்நுட்பம் நமது அடையாளத்தின் மிக முக்கியமான மனிதப் பகுதியை ஆயுதமாக்கியுள்ளது: நமது குரல். ராய்ட்டர்ஸ் (Reuters) அறிக்கைகளில் நாம் பார்த்தது போல, இந்த சிக்கலின் அளவு உலகளாவியது மற்றும் தீர்வுகள் தற்போது சிதறியுள்ளன. AI வளர்ச்சியின் தொழில்முறை வேகம், யதார்த்தத்தை சரிபார்க்கும் நமது சமூக மற்றும் சட்டப்பூர்வ திறனை விட அதிகமாக உள்ள ஒரு காலத்தில் நாம் வாழ்கிறோம். முன்னோக்கிச் செல்லும் பாதைக்கு சிறந்த மென்பொருளை விட அதிகம் தேவைப்படுகிறது. டிஜிட்டல் உலகில் நாம் நம்பிக்கையை அணுகும் விதத்தில் ஒரு அடிப்படை மாற்றம் தேவைப்படுகிறது. கேட்பதுதான் நம்புவது என்று நாம் இனி கருத முடியாது. குரல் கைரேகை உடைந்துவிட்டது மற்றும் அதைச் சரிசெய்யும் செயல்முறை நீண்ட, விலையுயர்ந்த மற்றும் தொழில்நுட்ப ரீதியாகக் கோரும் ஒன்றாக இருக்கும். குரல் எவ்வளவு பரிச்சயமானதாக இருந்தாலும், சரிபார்க்கப்படாத ஒவ்வொரு கோரிக்கையையும் நாம் சந்தேகிக்க வேண்டும். இந்த புதிய செயற்கை சூழலில் ஒரு தவறுக்கான விலை மிக அதிகம்.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.