AI எப்படி தொழில்நுட்ப உலகில் மிகப்பெரிய அரசியல் கதையாக மாறியது?
செயற்கை நுண்ணறிவு (AI) என்பது ஆய்வகங்களிலிருந்து உலகளாவிய அதிகாரப் போட்டிகளின் மையத்திற்கு நகர்ந்துவிட்டது. இது இனி வெறும் பொறியாளர்களுக்கான தொழில்நுட்ப விஷயமாகவோ அல்லது ஆர்வலர்களுக்கான ஒரு ஆச்சரியமாகவோ மட்டும் இல்லை. இன்று, AI என்பது அரசியல் செல்வாக்கிற்கான முதன்மை கருவியாகும். அரசாங்கங்களும் பெருநிறுவனங்களும் பொதுக் கருத்தை வடிவமைக்கவும், தகவல்களின் ஓட்டத்தைக் கட்டுப்படுத்தவும், தேசிய ஆதிக்கத்தை நிலைநாட்டவும் இந்தத் தொழில்நுட்பத்தைப் பயன்படுத்துகின்றன. இந்த மாற்றம் மிக வேகமாக நிகழ்ந்தது. சில ஆண்டுகளுக்கு முன்பு வரை, உரையாடல்கள் செயல்திறன் மற்றும் ஆட்டோமேஷன் (automation) பற்றியதாகவே இருந்தன. இப்போது, அவை இறையாண்மை மற்றும் செல்வாக்கைப் பற்றியதாக மாறியுள்ளன. எதிர்காலத்தின் கதையை யார் கட்டுப்படுத்துவது என்பதை இந்தத் தொழில்நுட்பம் தீர்மானிப்பதால், அரசியல் ரீதியாக இதில் அதிக ஆபத்துகள் உள்ளன. ஒவ்வொரு கொள்கை முடிவும், ஒவ்வொரு கார்ப்பரேட் பேச்சும் ஒரு மறைமுகமான நோக்கத்தைக் கொண்டுள்ளன. நவீன உலகத்தைப் புரிந்துகொள்ள முயற்சிக்கும் எவருக்கும் இந்த உந்துதல்களைப் புரிந்துகொள்வது அவசியம். AI என்பது ஒரு நடுநிலையான சக்தி அல்ல. அதை உருவாக்குபவர்கள் மற்றும் ஒழுங்குபடுத்துபவர்களின் முன்னுரிமைகளின் பிரதிபலிப்பே இது. இந்தக் கட்டுரை விளையாட்டில் உள்ள அரசியல் சக்திகளையும், உலகளாவிய பொதுமக்களுக்கான விளைவுகளையும் ஆராய்கிறது.
குறியீட்டிலிருந்து அதிகாரத்திற்கு மாறிய மாற்றம்
செயற்கை நுண்ணறிவின் அரசியல் கட்டமைப்பு பொதுவாக இரண்டு வகைகளாகப் பிரிகிறது. ஒரு பக்கம் பாதுகாப்பு மற்றும் இருத்தலியல் அபாயத்தில் கவனம் செலுத்துகிறது. மறுபக்கம் கண்டுபிடிப்பு மற்றும் தேசியப் போட்டியில் கவனம் செலுத்துகிறது. இரண்டு பார்வைகளும் குறிப்பிட்ட அரசியல் இலக்குகளுக்குச் சேவை செய்கின்றன. ஒரு பெரிய டெக் நிறுவனம் கட்டுப்பாடற்ற AI-ன் ஆபத்துகளைப் பற்றி எச்சரிக்கும்போது, அது பெரும்பாலும் சிறிய ஸ்டார்ட்அப்கள் (startups) போட்டியிடுவதைக் கடினமாக்கும் விதிமுறைகளை ஆதரிக்கிறது. இது ஒழுங்குமுறை பிடிப்பு (regulatory capture) என்பதன் ஒரு உன்னதமான வடிவம். தொழில்நுட்பத்தை ஆபத்தானது என்று சித்தரிப்பதன் மூலம், பெரும் வளங்களைக் கொண்டவர்கள் மட்டுமே சட்டத்திற்கு இணங்க முடியும் என்பதை நிறுவப்பட்ட நிறுவனங்கள் உறுதி செய்கின்றன. இது சமூகப் பொறுப்புணர்வுடன் இருப்பது போலக் காட்டிக்கொண்டே, தங்கள் வணிக மாதிரிகளைச் சுற்றி ஒரு பாதுகாப்புக் கோட்டையை உருவாக்குகிறது. சந்தை நன்மையை நிலைநிறுத்த இது பயத்தைப் பயன்படுத்தும் ஒரு தந்திரோபாயமாகும்.
அரசியல்வாதிகளுக்குத் தங்களுக்கென தனிப்பட்ட ஊக்கத்தொகைகள் உள்ளன. அமெரிக்காவில், AI அடிக்கடி தேசிய பாதுகாப்பு முன்னுரிமையாக விவாதிக்கப்படுகிறது. இந்த கட்டமைப்பு பாதுகாப்புத் திட்டங்களுக்கான நிதி அதிகரிப்பை அனுமதிக்கிறது மற்றும் சீனா போன்ற போட்டியாளர்கள் மீதான வர்த்தகக் கட்டுப்பாடுகளை நியாயப்படுத்துகிறது. AI-ஐ தேசிய உயிர்வாழ்வின் விஷயமாக மாற்றுவதன் மூலம், அரசாங்கம் தனியுரிமை அல்லது சிவில் உரிமைகள் குறித்த சாதாரண விவாதங்களைத் தவிர்க்க முடியும். ஐரோப்பிய ஒன்றியத்தில், சொல்லாடல்கள் பெரும்பாலும் மனித உரிமைகள் மற்றும் டிஜிட்டல் இறையாண்மை பற்றியதாகவே இருக்கும். இது அமெரிக்கா அல்லது சீனாவில் உள்ளதைப் போன்ற பெரிய டெக் நிறுவனங்கள் இல்லாவிட்டாலும், ஐரோப்பிய ஒன்றியத்தை ஒரு உலகளாவிய ஒழுங்குமுறை அமைப்பாக நிலைநிறுத்த அனுமதிக்கிறது. ஒவ்வொரு பிராந்தியமும் தங்கள் மதிப்புகளை வெளிப்படுத்தவும், பொருளாதார நலன்களைப் பாதுகாக்கவும் AI-ஐப் பயன்படுத்துகிறது. தொழில்நுட்பம் ஒரு ஊடகம், ஆனால் அதிகாரம் தான் அதன் செய்தி.
இந்த விஷயத்தில் பெரும்பாலான மக்கள் கொண்டுள்ள குழப்பம் என்னவென்றால், இந்த விவாதங்கள் தொழில்நுட்பத்தைப் பற்றியவை என்ற நம்பிக்கைதான். அவை தொழில்நுட்பத்தைப் பற்றியவை அல்ல. ஒரு பெரிய மொழி மாதிரியின் தொழில்நுட்பத் திறன்கள், அந்த மாதிரி என்ன சொல்ல அனுமதிக்கப்பட வேண்டும் என்பதை யார் தீர்மானிக்கிறார்கள் என்ற கேள்விக்கு இரண்டாம் பட்சமானவை. ஒரு அரசாங்கம் AI சில மதிப்புகளுடன் ஒத்துப்போக வேண்டும் என்று கட்டளையிடும்போது, அவர்கள் அடிப்படையில் மென்மையான அதிகாரத்தின் (soft power) ஒரு புதிய வடிவத்தை உருவாக்குகிறார்கள். இதனால்தான் ஓப்பன் சோர்ஸ் (open source) AI மீதான போராட்டம் மிகவும் தீவிரமாக உள்ளது. ஓப்பன் சோர்ஸ் மாதிரிகள் பெரிய டெக் நிறுவனங்களுக்கும் அரசாங்கங்களுக்கும் அதிகார இழப்பைக் குறிக்கின்றன. எவரும் தங்கள் சொந்த ஹார்டுவேரில் (hardware) ஒரு சக்திவாய்ந்த மாதிரியை இயக்க முடிந்தால், தகவல்களைக் கட்டுப்படுத்தும் மத்திய அதிகாரிகளின் திறன் மறைந்துவிடும். இதனால்தான் பொதுப் பாதுகாப்பின் பெயரில் மாதிரி எடைகளை (model weights) வெளியிடுவதைக் கட்டுப்படுத்த முயற்சிப்பதைக் காண்கிறோம்.
தேசிய நலன்கள் மற்றும் உலகளாவிய உராய்வு
AI-ன் உலகளாவிய தாக்கம் கம்ப்யூட் (compute) போட்டியில் மிகவும் தெளிவாகத் தெரிகிறது. உயர்தர சிப்கள் (chips) கிடைப்பது புதிய எண்ணெயாக மாறியுள்ளது. செமிகண்டக்டர் (semiconductor) விநியோகச் சங்கிலியைக் கட்டுப்படுத்தும் நாடுகள் மிகப்பெரிய நன்மையைக் கொண்டுள்ளன. இது மென்பொருளுடன் தொடர்பில்லாத, ஆனால் ஹார்டுவேருடன் தொடர்புடைய ஏற்றுமதி கட்டுப்பாடுகள் மற்றும் வர்த்தகப் போர்களுக்கு வழிவகுத்துள்ளது. அமெரிக்கா, மேம்பட்ட GPU-களை இராணுவ அல்லது கண்காணிப்பு நோக்கங்களுக்காகப் பயன்படுத்தக்கூடிய மாதிரிகளைப் பயிற்றுவிப்பதைத் தடுக்க சில பிராந்தியங்களுக்கு விற்பனை செய்வதைக் கட்டுப்படுத்தியுள்ளது. இது வெளியுறவுக் கொள்கையின் கருவியாக தொழில்நுட்பக் கொள்கையைப் பயன்படுத்துவதாகும். இது மற்ற நாடுகளை ஒரு பக்கத்தைத் தேர்ந்தெடுக்க கட்டாயப்படுத்துகிறது மற்றும் துண்டு துண்டான உலகளாவிய தொழில்நுட்பச் சூழலை உருவாக்குகிறது.
சீனா ஒரு வித்தியாசமான உத்தியைப் பின்பற்றுகிறது. சமூக மற்றும் தொழில்துறை வாழ்க்கையின் ஒவ்வொரு அம்சத்திலும் AI-ஐ ஒருங்கிணைத்து நிலைத்தன்மையையும் செயல்திறனையும் உறுதி செய்வதே அவர்களின் இலக்கு. சீன அரசாங்கத்தைப் பொறுத்தவரை, AI என்பது ஒரு பெரிய மக்கள் தொகையை நிர்வகிப்பதற்கும் உற்பத்தியில் போட்டித்தன்மையை பராமரிப்பதற்கும் ஒரு வழியாகும். இது தனிநபர் தனியுரிமைக்கு முன்னுரிமை அளிக்கும் மேற்கத்திய ஜனநாயக நாடுகளுடன் ஒரு உராய்வு புள்ளியை உருவாக்குகிறது. இருப்பினும், இந்த வேறுபாடு பெரும்பாலும் மங்கலாகவே உள்ளது. மேற்கத்திய அரசாங்கங்களும் கண்காணிப்பு மற்றும் முன்கணிப்பு காவல் (predictive policing) பணிகளுக்கு AI-ஐப் பயன்படுத்துவதில் ஆர்வமாக உள்ளன. வித்தியாசம் பெரும்பாலும் நடைமுறையில் இருப்பதை விட சொல்லாடல்களில் தான் உள்ளது. இரு தரப்பினரும் இந்தத் தொழில்நுட்பத்தை அரசு அதிகாரத்தை மேம்படுத்தவும் கருத்து வேறுபாடுகளைக் கண்காணிக்கவும் ஒரு வழியாகவே பார்க்கின்றனர்.
வளரும் நாடுகள் இடையில் சிக்கியுள்ளன. அவை வடக்கின் டெக் நிறுவனங்களுக்கு தரவு காலனிகளாக (data colonies) மாறும் அபாயத்தில் உள்ளன. உலகின் மிகவும் சக்திவாய்ந்த மாதிரிகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகளில் பெரும்பாலானவை உலகளாவிய தெற்கிலிருந்து வருகின்றன, ஆனால் அந்தத் தொழில்நுட்பத்தின் நன்மைகள் சில பணக்கார நகரங்களில் மட்டுமே குவிந்துள்ளன. இது டிஜிட்டல் சமத்துவமின்மையின் ஒரு புதிய வடிவத்தை உருவாக்குகிறது. [Insert Your AI Magazine Domain Here] உலகளாவிய வர்த்தகத்தின் சமநிலையை இந்த இயக்கவியல் எவ்வாறு மாற்றுகிறது என்பது குறித்த விரிவான AI கொள்கை பகுப்பாய்வை வெளியிட்டுள்ளது. தங்கள் சொந்த AI உள்கட்டமைப்பு இல்லாமல், பல நாடுகள் தங்கள் அடிப்படை டிஜிட்டல் சேவைகளுக்காக வெளிநாட்டு தளங்களைச் சார்ந்திருக்கும் நிலைக்குத் தள்ளப்படும். இந்தச் சார்புநிலை ஒரு குறிப்பிடத்தக்க அரசியல் அபாயமாகும், இது சர்வதேச மன்றங்களில் இன்னும் தீர்க்கப்படாமல் உள்ளது.
பொதுமக்களுக்கான உறுதியான விளைவுகள்
AI அரசியலின் நடைமுறை ஆபத்துகள் தேர்தல் மற்றும் தொழிலாளர் சூழலில் தெளிவாகத் தெரிகிறது. டீப்ஃபேக்குகள் (deepfakes) மற்றும் தானியங்கி தவறான தகவல்கள் இனி கோட்பாட்டு ரீதியான அச்சுறுத்தல்கள் அல்ல. அவை அரசியல் பிரச்சாரங்களால் எதிரிகளை இழிவுபடுத்தவும் வாக்காளர்களைக் குழப்பவும் பயன்படுத்தப்படும் செயலில் உள்ள கருவிகள். இது உண்மையைச் சரிபார்ப்பது கடினமாக இருக்கும் ஒரு சூழ்நிலையை உருவாக்குகிறது, இது பொது நம்பிக்கையில் பொதுவான சரிவுக்கு வழிவகுக்கிறது. மக்கள் அடிப்படை உண்மைகளில் உடன்பட முடியாதபோது, ஜனநாயக செயல்முறை சீர்குலைகிறது. இது குழப்பத்தில் செழிப்பவர்கள் அல்லது இணையத்தின் மீது அதிக கட்டுப்பாட்டை நியாயப்படுத்த விரும்புபவர்களுக்கு பயனளிக்கிறது. AI தவறான தகவல்களுக்கான பதில் பெரும்பாலும் அதிக தணிக்கைக்கான அழைப்பாகவே இருக்கிறது, இது அதன் சொந்த அரசியல் அபாயங்களைக் கொண்டுள்ளது.
ஒரு பிரச்சார மேலாளரின் ஒரு நாளைக் கவனியுங்கள். அவர்கள் காலையில் தங்கள் வேட்பாளரின் AI-உருவாக்கப்பட்ட வீடியோக்களுக்காக சமூக ஊடகங்களை ஸ்கேன் செய்வதன் மூலம் தொடங்குகிறார்கள். மதியத்திற்குள், வாக்காளர்களை தனிப்பயனாக்கப்பட்ட செய்திகளுடன் குறிவைக்க தங்கள் சொந்த AI கருவிகளைப் பயன்படுத்த வேண்டும். இந்தச் செய்திகள் ஆயிரக்கணக்கான ஆதாரங்களிலிருந்து பெறப்பட்ட தரவுகளின் அடிப்படையில் குறிப்பிட்ட உணர்ச்சிகரமான பதில்களைத் தூண்டும் வகையில் வடிவமைக்கப்பட்டுள்ளன. மாலைக்குள், உண்மையான ஊழலில் இருந்து திசைதிருப்ப எதிராளியின் செயற்கை ஆடியோ கிளிப்பை வெளியிடலாமா என்று விவாதிக்கிறார்கள். இந்தச் சூழலில், சிறந்த AI குழுவைக் கொண்ட வேட்பாளர் சிறந்த யோசனைகளைக் கொண்டவரை விட மிகப்பெரிய நன்மையைப் பெறுகிறார். தொழில்நுட்பம் ஜனநாயக செயல்முறையை அல்காரிதம்களின் (algorithms) போராக மாற்றியுள்ளது.
படைப்பாளிகள் மற்றும் தொழிலாளர்களுக்கு, அரசியல் கதை என்பது உரிமை மற்றும் இடப்பெயர்ச்சி பற்றியது. AI நிறுவனங்கள் அனுமதியின்றி பதிப்புரிமை பெற்ற உள்ளடக்கத்தில் பயிற்சி பெற முடியுமா என்பதை அரசாங்கங்கள் தற்போது தீர்மானிக்கின்றன. இது டெக் துறையின் நலன்களுக்கும் தனிநபர்களின் உரிமைகளுக்கும் இடையிலான அரசியல் தேர்வாகும். சட்டம் டெக் நிறுவனங்களுக்கு ஆதரவாக இருந்தால், அது படைப்பாற்றல் வர்க்கத்திலிருந்து டெக் நிறுவனங்களுக்கு பெரும் செல்வ பரிமாற்றத்திற்கு வழிவகுக்கும். சட்டம் படைப்பாளர்களுக்கு ஆதரவாக இருந்தால், அது தொழில்நுட்பத்தின் வளர்ச்சியை மெதுவாக்கக்கூடும். பெரும்பாலான அரசியல்வாதிகள் ஒரு நடுத்தர வழியைக் கண்டறிய முயற்சிக்கின்றனர், ஆனால் லாபியிஸ்டுகளின் (lobbyists) அழுத்தம் தீவிரமாக உள்ளது. இதன் முடிவு வரும் தசாப்தங்களில் மில்லியன் கணக்கான மக்களின் பொருளாதார யதார்த்தத்தை வரையறுக்கும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
தொழிலாளர் பிரச்சினை ஒரு அரசியல் கருவியாகவும் பயன்படுத்தப்படுகிறது. சில அரசியல்வாதிகள் AI வேலை இழப்பு அச்சுறுத்தலைப் பயன்படுத்தி யுனிவர்சல் பேசிக் இன்கம் (universal basic income) அல்லது வலுவான தொழிற்சங்கங்களை ஆதரிக்கின்றனர். மற்றவர்கள் நிறுவனங்கள் போட்டித்தன்மையுடன் இருக்க உதவும் வகையில் கட்டுப்பாடுகளை நீக்க வாதிடுகின்றனர். உண்மை என்னவென்றால், AI இரண்டையும் செய்யும்: புதிய வாய்ப்புகளை உருவாக்கும் மற்றும் பழையவற்றை அழிக்கும். அந்த மாற்றத்தின் செலவை யார் சுமப்பார்கள் என்பதுதான் அரசியல் கேள்வி. தற்போது, அந்தச் சுமை தனிப்பட்ட தொழிலாளியின் மீது உள்ளது. மென்பொருளால் தங்கள் திறன்கள் வழக்கற்றுப் போகும் நபர்களைப் பாதுகாக்க மிகக் குறைவான கொள்கைகளே உள்ளன. இந்தச் செயல் இன்மை என்பது ஆட்டோமேஷன் காலத்தில் உழைப்பின் மதிப்பு குறித்த ஒரு அரசியல் அறிக்கையாகும்.
கொள்கை வடிவமைப்பாளர்களுக்கான கேள்விகள்
AI கொள்கையை மதிப்பிடும்போது சாக்ரடிக் சந்தேகம் (Socratic skepticism) அவசியம். நாம் தினமும் பயன்படுத்தும் “இலவச” AI கருவிகளுக்கு உண்மையில் யார் பணம் செலுத்துகிறார்கள் என்று நாம் கேட்க வேண்டும். மறைக்கப்பட்ட செலவு பெரும்பாலும் நமது தனியுரிமை மற்றும் தரவுதான். ஒரு அரசாங்கம் ஒரு AI நிறுவனத்திற்கு மானியம் வழங்கும்போது, அதற்குப் பதிலாக அவர்கள் என்ன பெறுகிறார்கள்? இது சிறந்த பொதுச் சேவைகளுக்கான வாக்குறுதியா, அல்லது கண்காணிப்பிற்கான பின்வாசல் வழியா? சுற்றுச்சூழல் தாக்கம் குறித்தும் நாம் கேட்க வேண்டும். இந்த மாதிரிகளைப் பயிற்றுவிக்கவும் இயக்கவும் தேவைப்படும் ஆற்றல் மிகப்பெரியது. சாட்போட்டின் (chatbot) கார்பன் தடயத்திற்கு (carbon footprint) யார் பணம் செலுத்துகிறார்கள்? பெரும்பாலும், தரவு மையங்களுக்கு அருகில் வாழும் சமூகங்களே அதிகரித்த ஆற்றல் தேவை மற்றும் நீர் பயன்பாட்டின் விளைவுகளைச் சந்திக்கின்றன.
மற்றொரு கடினமான கேள்வி சீரமைப்பு (alignment) என்ற கருத்தை உள்ளடக்கியது. ஒரு AI மனித மதிப்புகளுடன் சீரமைக்கப்பட வேண்டும் என்று நாம் கூறும்போது, யாருடைய மதிப்புகளைப் பற்றிப் பேசுகிறோம்? சான் பிரான்சிஸ்கோவில் உள்ள ஒரு மதச்சார்பற்ற தாராளவாதியின் மதிப்புகளுடன் சீரமைக்கப்பட்ட மாதிரி, ரியாத்தில் உள்ள ஒரு பாரம்பரியவாதியுடன் சீரமைக்கப்பட்ட மாதிரியிலிருந்து முற்றிலும் மாறுபட்டதாக இருக்கும். AI-ஐ ஒரு குறிப்பிட்ட மதிப்புகளின் தொகுப்பைப் பின்பற்ற வைப்பதன் மூலம், நாம் அடிப்படையில் ஒரு குறிப்பிட்ட உலகக் கண்ணோட்டத்தை இணையத்தின் உள்கட்டமைப்பில் குறியீடாக்குகிறோம். இது தொழில்நுட்ப வட்டாரங்களில் அரிதாகவே விவாதிக்கப்படும் கலாச்சார ஏகாதிபத்தியத்தின் ஒரு வடிவமாகும். இது அனைவரும் ஒப்புக்கொள்ளக்கூடிய ஒரே உலகளாவிய மதிப்புகள் இருப்பதாகக் கருதுகிறது, இது வரலாற்று ரீதியாகவும் அரசியல் ரீதியாகவும் தவறானது.
இறுதியாக, முடிவெடுக்கும் அதிகாரத்தை அல்காரிதம்களிடம் ஒப்படைப்பதன் நீண்டகால விளைவுகள் குறித்து நாம் கேட்க வேண்டும். கடன் பெறுவது யார், வேலை பெறுவது யார் அல்லது ஜாமீன் பெறுவது யார் என்பதைத் தீர்மானிக்க நாம் AI-ஐப் பயன்படுத்தினால், நாம் அமைப்பிலிருந்து மனிதப் பொறுப்புக்கூறலை நீக்குகிறோம். AI தவறு செய்யும்போது, பொறுப்பேற்க யாரும் இல்லை. இது சட்டத்தின் ஆட்சியை பலவீனப்படுத்தும் ஒரு பெரிய அரசியல் மாற்றமாகும். இது வெளிப்படையான, போட்டியிடக்கூடிய முடிவுகளை பிளாக் பாக்ஸ் (black box) வெளியீடுகளுடன் மாற்றுகிறது. செயல்திறனுக்காக நமது முகமையை (agency) வர்த்தகம் செய்ய நாம் தயாராக இருக்கிறோமா என்று நாம் கேட்க வேண்டும். இந்தக் கேள்விக்கான பதில், AI மனிதகுலத்திற்கு சேவை செய்கிறதா அல்லது மனிதகுலம் இயந்திரங்களுக்கான தரவுப் புள்ளியாக மாறுகிறதா என்பதைத் தீர்மானிக்கும்.
கட்டுப்பாட்டின் உள்கட்டமைப்பு
இந்த விவாதத்தின் கீக் (geek) பகுதி, அரசியல் எவ்வாறு மென்பொருளில் சேர்க்கப்பட்டுள்ளது என்பதற்கான தொழில்நுட்ப வழிகளில் கவனம் செலுத்துகிறது. மிக முக்கியமான பகுதிகளில் ஒன்று API வரம்புகள் மற்றும் த்ரோட்லிங் (throttling) ஆகும். OpenAI அல்லது Google போன்ற பெரிய வழங்குநர்கள் தங்கள் மாதிரிகளுக்கான அணுகலைக் கட்டுப்படுத்துவதன் மூலம் சில வகையான ஆராய்ச்சி அல்லது வணிக நடவடிக்கைகளை திறம்பட மௌனமாக்க முடியும். ஒரு டெவலப்பர் (developer) அரசியல் ரீதியாக சங்கடமான ஒரு கருவியை உருவாக்கினால், அவர்கள் API-ஐ எளிதாகத் துண்டிக்க முடியும். இது வழங்குநர்களை AI சகாப்தத்தின் இறுதி தணிக்கையாளர்களாக மாற்றுகிறது. இந்தச் சார்பைத் தவிர்க்க டெவலப்பர்கள் உள்ளூர் சேமிப்பு மற்றும் மாதிரிகளின் உள்ளூர் செயல்பாட்டை (local execution) நோக்கி அதிகளவில் பார்க்கின்றனர். Llama 3 போன்ற மாதிரியை உள்ளூர் ஹார்டுவேரில் இயக்குவது இறையாண்மையின் ஒரு அரசியல் செயலாகும்.
வொர்க்ஃப்ளோ ஒருங்கிணைப்பு (workflow integration) மற்றொரு போர்க்களமாகும். AI மைக்ரோசாஃப்ட் வேர்ட் (Microsoft Word) அல்லது கூகுள் டாக்ஸ் (Google Docs) போன்ற கருவிகளில் ஒருங்கிணைக்கப்படும்போது, அது இலக்கணம் மட்டுமல்ல, யோசனைகளையும் பரிந்துரைக்கத் தொடங்குகிறது. இந்தத் கருவிகளின் இயல்புநிலை அமைப்புகள் மில்லியன் கணக்கான மக்களைச் சிந்தனையின் சில வழிகளை நோக்கித் தள்ளும். இது ஒரு நுட்பமான ஆனால் சக்திவாய்ந்த செல்வாக்கின் வடிவமாகும். இந்த உள்ளமைக்கப்பட்ட சார்புகளைக் கொண்டிருக்காத “வடிகட்டப்படாத” (unfiltered) மாதிரிகளை எவ்வாறு உருவாக்குவது என்று பொறியாளர்கள் தற்போது விவாதிக்கின்றனர். இருப்பினும், இந்த மாதிரிகள் பெரும்பாலும் ஆபத்தானவை அல்லது புண்படுத்தக்கூடியவை என்று விமர்சிக்கப்படுகின்றன. கையாளுதல் இல்லாமல் பயனுள்ள ஒரு அமைப்பை உருவாக்குவதே தொழில்நுட்ப சவாலாகும். இது மெஷின் லேர்னிங் (machine learning) துறையில் தற்போது தீர்க்கப்படாத ஒரு சிக்கலாகும்.
தரவுகளின் உள்ளூர் சேமிப்பும் ஒரு முக்கிய தொழில்நுட்ப மற்றும் அரசியல் தேவையாக மாறி வருகிறது. பல அரசாங்கங்கள் தங்கள் குடிமக்களின் தரவு அவர்களின் எல்லைக்குள் அமைந்துள்ள சர்வர்களில் (servers) சேமிக்கப்பட வேண்டும் என்று கட்டளையிடுகின்றன. இது தரவு இருப்பிடம் (data residency) என்று அழைக்கப்படுகிறது. வெளிநாட்டு அரசாங்கங்கள் கிளவுட் (cloud) மூலம் முக்கியமான தகவல்களை அணுகக்கூடும் என்ற அரசியல் பயத்திற்கு இது ஒரு தொழில்நுட்பப் பதிலாகும். டெக் நிறுவனங்களைப் பொறுத்தவரை, இது விலையுயர்ந்த உள்ளூர் உள்கட்டமைப்பை உருவாக்குவதையும், உள்ளூர் சட்டங்களின் சிக்கலான வலைப்பின்னலில் வழிசெலுத்துவதையும் குறிக்கிறது. பயனர்களைப் பொறுத்தவரை, அவர்களின் தரவு வெளிநாட்டு உளவாளிகளிடமிருந்து பாதுகாப்பாக இருக்கலாம், ஆனால் அவர்களின் சொந்த அரசாங்கத்திற்கு அதிக பாதிப்புக்குள்ளாகலாம். இணையத்தின் தொழில்நுட்பக் கட்டமைப்பு தேச-அரசின் எல்லைகளுக்கு ஏற்ப மறுவடிவமைப்பு செய்யப்படுகிறது.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.AI அரசியலில் உள்ள தொழில்நுட்ப சவால்களின் பட்டியல்:
- மாதிரி எடைகள் மற்றும் ஓப்பன் சோர்ஸ் அணுகல் பற்றிய விவாதம்.
- கம்ப்யூட் நிர்வாகம் மற்றும் உயர்தர GPU-களைக் கண்காணித்தல்.
- தரவு ஆதாரம் மற்றும் பயிற்சித் தொகுப்புகளின் சட்ட உரிமைகள்.
- அல்காரிதமிக் வெளிப்படைத்தன்மை மற்றும் பிளாக் பாக்ஸ் அமைப்புகளின் தணிக்கைத்தன்மை.
- ஆற்றல் திறன் மற்றும் தரவு மையங்களின் நிலையான அளவிடுதல்.
கதையின் உண்மையான விலை
AI என்பது ஒரு அரசியல் கதையாக மாறியுள்ளது, ஏனெனில் இது சமூகப் பொறியியலுக்காக உருவாக்கப்பட்ட மிக சக்திவாய்ந்த கருவியாகும். தொழில்நுட்பத்தைச் சுற்றியுள்ள சொல்லாடல்கள் குறியீட்டைப் பற்றியது அல்ல. இது தகவல், உழைப்பு மற்றும் தேசிய அதிகாரத்தின் எதிர்காலத்தை யார் கட்டுப்படுத்துவது என்பது பற்றியது. திறந்த, எல்லையற்ற இணையத்திலிருந்து மிகவும் துண்டு துண்டான மற்றும் கட்டுப்படுத்தப்பட்ட டிஜிட்டல் உலகத்தை நோக்கி நாம் ஒரு மாற்றத்தைக் காண்கிறோம். AI பொறியாளர்களிடம் விட்டுவிட முடியாத அளவுக்கு முக்கியமானது என்ற உணர்வால் இந்த மாற்றம் உந்தப்படுகிறது.