முக்கியமான டீப்ஃபேக் அச்சுறுத்தல்களைக் கண்டறிவது எப்படி?
ஒலி சார்ந்த நம்பிக்கையின் முடிவு
டீப்ஃபேக்குகள் ஆய்வகங்களிலிருந்து கார்ப்பரேட் மற்றும் தனிநபர் பாதுகாப்பின் முன்னணிக் களத்திற்கு வந்துவிட்டன. பல ஆண்டுகளாக, எளிதில் கண்டறியக்கூடிய மேலோட்டமான ஃபேஸ் ஸ்வாப்கள் அல்லது பிரபலங்களின் கேலிகள் பற்றியே பேச்சு இருந்தது. அந்த காலம் முடிந்துவிட்டது. இன்று, மிகவும் ஆபத்தான அச்சுறுத்தல்கள் சினிமா வீடியோக்கள் அல்ல, மாறாக நிதி மோசடிக்காகப் பயன்படுத்தப்படும் மிகவும் துல்லியமான ஆடியோ குளோன்கள் மற்றும் நுணுக்கமான இமேஜ் மேனிபுலேஷன் ஆகும். இதற்கான தடையோ அல்லது சிரமமோ இப்போது இல்லை. அடிப்படை லேப்டாப் மற்றும் சில டாலர்கள் இருந்தால் போதும், ஒரு சில நொடிகள் ஆடியோவை வைத்துக்கொண்டு யாராலும் ஒருவரின் குரலை அப்படியே பிரதிபலிக்க முடியும். இந்த மாற்றம், பன்னிரண்டு மாதங்களுக்கு முன்பு இருந்ததை விட இப்போது நிலைமையை மிகவும் தனிப்பட்டதாகவும் அவசரமானதாகவும் மாற்றியுள்ளது. நாம் இனி ஹாலிவுட் தயாரிப்புகளில் உள்ள குறைகளைத் தேடவில்லை. நம் அன்றாடத் தொடர்புகளில் உள்ள பொய்களைத் தேடிக்கொண்டிருக்கிறோம். இந்தத் தொழில்நுட்பங்கள் மேம்படும் வேகம், நாம் கேட்பதையும் பார்ப்பதையும் சரிபார்க்கும் திறனை விட அதிகமாகிவிட்டது. இது வெறும் தொழில்நுட்பச் சவால் மட்டுமல்ல. திரை அல்லது ஸ்பீக்கர் வழியாக நம்மை வந்தடையும் ஒவ்வொரு தகவலையும் அணுகும் முறையில் ஏற்பட்டுள்ள அடிப்படை மாற்றமாகும்.
செயற்கை ஏமாற்றுதலின் நுட்பங்கள்
இந்த அச்சுறுத்தல்களுக்குப் பின்னால் உள்ள தொழில்நுட்பம், மனித வெளிப்பாடுகளின் பிரம்மாண்டமான டேட்டாசெட்களில் பயிற்சி அளிக்கப்பட்ட ஜெனரேட்டிவ் மாடல்களைச் சார்ந்துள்ளது. இதன் மையத்தில் நியூரல் நெட்வொர்க்குகள் உள்ளன, இவை ஒரு குறிப்பிட்ட மனிதக் குரலின் தனித்துவமான வேகம், பிட்ச் மற்றும் உணர்ச்சிகரமான நுணுக்கங்களை பகுப்பாய்வு செய்யக்கூடியவை. ரோபோ போல ஒலிக்கும் பழைய டெக்ஸ்ட்-டு-ஸ்பீச் சிஸ்டம்களைப் போலன்றி, இந்த நவீன சிஸ்டம்கள் ஒரு நபர் உண்மையாகப் பேசுவது போன்ற மூச்சு விடுதல் மற்றும் இடைவெளிகளை அப்படியே பிடிக்கின்றன. இதனால்தான் குரல் குளோனிங் தற்போது மோசடி செய்பவர்களுக்கு மிகவும் பயனுள்ள கருவியாக உள்ளது. இதற்கு உயர்தர வீடியோவை விட மிகக் குறைந்த டேட்டாவே தேவைப்படுகிறது மற்றும் அதிக அழுத்தமான தொலைபேசி அழைப்புகளின் போது இது மிகவும் நம்பகமானதாக இருக்கிறது. ஒரு மோசடி செய்பவர் சமூக ஊடகங்களிலிருந்து ஒரு வீடியோவை எடுத்து, ஆடியோவைப் பிரித்தெடுத்து, சில நிமிடங்களில் ஒரு குளோனை உருவாக்க முடியும். இந்த குளோனைப் பயன்படுத்தி, அந்த நபர் டைப் செய்யும் எந்த உரையையும் பேச வைக்கலாம்.
இந்தச் சிக்கலின் காட்சிப் பக்கமும் நடைமுறைப் பயன்பாட்டை நோக்கி நகர்ந்துள்ளது. ஒரு நபரை ஆரம்பத்திலிருந்து உருவாக்குவதற்குப் பதிலாக, தாக்குதல் நடத்துபவர்கள் பெரும்பாலும் ஒரு உண்மையான அதிகாரி அல்லது பிரபலத்தின் முகத்தில் தங்கள் சொந்த அசைவுகளைப் பொருத்த ‘ஃபேஸ் ரீ-எனாக்ட்மென்ட்’ முறையைப் பயன்படுத்துகின்றனர். இது வீடியோ அழைப்புகளின் போது நிகழ்நேர உரையாடலை அனுமதிக்கிறது. இந்த ஃபேக்குகளின் அடையாளங்கள் மிகச் சிறியதாகி வருவதாலும், வெறும் கண்களால் கண்டறிவது கடினமாகி வருவதாலும் பிளாட்ஃபார்ம்கள் இதைக் கட்டுப்படுத்தப் போராடுகின்றன. ஆரம்பகால ஃபேக்குகளில் கண் சிமிட்டுதல் அல்லது பற்களில் ஒளி படும் விதம் போன்றவற்றில் சிக்கல்கள் இருந்தன, ஆனால் தற்போதைய மாடல்கள் இந்தச் சிக்கல்களைப் பெரும்பாலும் தீர்த்துவிட்டன. இமேஜை கச்சிதமாக உருவாக்குவதை விட, உரையாடலை உண்மையானதாக உணர வைப்பதில் கவனம் மாறியுள்ளது. குறைந்த ரெசல்யூஷன் கொண்ட ஜூம் கால்களுக்கு இது