AI கொள்கை ஏன் ஒரு அதிகாரப் போராட்டமாக மாறுகிறது?
AI கொள்கை என்பது இப்போது கல்வியாளர்கள் அல்லது வழக்கறிஞர்களுக்கான ஒரு சிறிய விஷயம் அல்ல. இது அரசியல் மற்றும் பொருளாதார செல்வாக்கிற்கான ஒரு பெரிய போர்க்களம். விதிகளை யார் தீர்மானிக்கிறார்களோ, அவர்களே உலகளாவிய தொழில்துறையின் எதிர்காலத்தைக் கட்டுப்படுத்துவார்கள் என்பதால், அரசாங்கங்களும் டெக் நிறுவனங்களும் மோதுகின்றன. இது ஏதோ ஒரு கணினி நிரல் தவறு செய்வதைத் தடுப்பது பற்றியது மட்டுமல்ல. இது உங்கள் தரவை யார் வைத்திருப்பது, ஒரு சிஸ்டம் பாதிப்பை ஏற்படுத்தினால் அதற்கு யார் பொறுப்பு, மற்றும் அடுத்த தசாப்தத்தில் எந்த நாடுகள் உலகப் பொருளாதாரத்தை வழிநடத்தும் என்பது பற்றியது. அரசியல்வாதிகள் கடுமையான கட்டுப்பாட்டிற்கு பயத்தைப் பயன்படுத்துகிறார்கள், அதே நேரத்தில் நிறுவனங்கள் மேற்பார்வையைத் தவிர்க்க முன்னேற்றத்தின் வாக்குறுதியைப் பயன்படுத்துகின்றன. உண்மை என்னவென்றால், இது ஒரு குழப்பமான இழுபறிப் போர், இதில் பொதுமக்கள் பெரும்பாலும் கயிறாகப் பயன்படுத்தப்படுகிறார்கள். AI கொள்கை என்பது அறிவியல் புனைகதை போன்ற பேரழிவைத் தடுப்பது என்று வாசகர்கள் நினைக்கிறார்கள். ஆனால் உண்மையில், இது வரிச் சலுகைகள், பொறுப்புத் தளர்வுகள் மற்றும் சந்தை ஆதிக்கம் பற்றியது. ஒவ்வொரு புதிய ஒழுங்குமுறை மற்றும் பொது விசாரணையிலும் இந்த போராட்டம் தெளிவாகத் தெரிகிறது. தகவல் மீதான கட்டுப்பாடு என்பது இந்த நவீன மோதலில் இறுதிப் பரிசாகும்.
அல்காரிதமிக் நிர்வாகத்தின் மறைக்கப்பட்ட இயக்கவியல்
இதன் மையத்தில், AI கொள்கை என்பது செயற்கை நுண்ணறிவு எவ்வாறு உருவாக்கப்படுகிறது மற்றும் பயன்படுத்தப்படுகிறது என்பதை நிர்வகிக்கும் விதிகளின் தொகுப்பாகும். இதை சாப்ட்வேருக்கான போக்குவரத்து விதிகள் என்று நினைத்துக் கொள்ளுங்கள். இந்த விதிகள் இல்லையென்றால், நிறுவனங்கள் உங்கள் தகவல்களை வைத்து தங்களுக்குத் தோன்றியதைச் செய்யலாம். அதிகப்படியான விதிகள் இருந்தால், கண்டுபிடிப்புகள் வேகம் குறையலாம். இந்த விவாதம் பொதுவாக இரண்டு முகாம்களாகப் பிரிகிறது. ஒரு தரப்பு அனைவருக்கும் திறந்த அணுகல் இருக்க வேண்டும் என்று விரும்புகிறது, அப்போதுதான் அனைவரும் தங்கள் சொந்த டூல்களை உருவாக்க முடியும். மறுபுறம், சில நம்பகமான நிறுவனங்கள் மட்டுமே பெரிய மாடல்களை இயக்க வேண்டும் என்று கடுமையான உரிமத்தை விரும்புகிறது. இங்கேதான் அரசியல் லாபம் வருகிறது. ஒரு அரசியல்வாதி பெரிய டெக் நிறுவனங்களை ஆதரித்தால், அவர்கள் தேசிய பாதுகாப்பு மற்றும் உலகளாவிய பந்தயத்தில் வெற்றி பெறுவது பற்றிப் பேசுகிறார்கள். அவர்கள் மக்களின் பாதுகாவலராகத் தோன்ற விரும்பினால், அவர்கள் பாதுகாப்பு மற்றும் வேலை இழப்பு பற்றிப் பேசுகிறார்கள். இந்த நிலைப்பாடுகள் பெரும்பாலும் உண்மையான தொழில்நுட்பத்தை விட பிம்பத்தைப் பற்றியே அதிகம்.
பொதுவான தவறான புரிதல்கள் இந்த விவாதத்தை மங்கலாக்குகின்றன. AI கொள்கை என்பது பாதுகாப்பு மற்றும் வேகம் ஆகியவற்றுக்கு இடையேயான தேர்வு என்று பலர் நம்புகிறார்கள். இது தவறான இருமை. நீங்கள் இரண்டையும் பெற முடியும், ஆனால் அதற்கு பெரும்பாலான நிறுவனங்கள் வழங்க மறுக்கும் வெளிப்படைத்தன்மை தேவை. ஒழுங்குமுறை கூட்டாட்சி மட்டத்தில் மட்டுமே நடக்கும் என்பது மற்றொரு கட்டுக்கதை. உண்மையில், நகரங்கள் மற்றும் மாநிலங்கள் முக அங்கீகாரம் மற்றும் வேலைவாய்ப்பு அல்காரிதம்கள் தொடர்பான தங்கள் சொந்த சட்டங்களை இயற்றுகின்றன. இது எந்தவொரு தனிநபரும் புரிந்துகொள்ள முடியாத அளவுக்கு விதிகளின் குழப்பத்தை உருவாக்குகிறது. இந்த குழப்பம் பெரும்பாலும் திட்டமிட்டே செய்யப்படுகிறது. விதிகள் சிக்கலானதாக இருக்கும்போது, அதிக விலையுயர்ந்த வழக்கறிஞர்களைக் கொண்ட நிறுவனங்களால் மட்டுமே அவற்றைப் பின்பற்ற முடியும். இது சிறிய போட்டியாளர்களை வெளியேற்றி, அதிகாரத்தை உயரடுக்கு கைகளில் வைத்திருக்கிறது. மேஜையில் யாருக்கு இடம் கிடைக்கும், யார் மெனுவில் இருப்பார்கள் என்பதைத் தீர்மானிக்கப் பயன்படும் கருவியே கொள்கை.
இந்த முடிவுகளின் தாக்கம் வாஷிங்டன் முதல் பிரஸ்ஸல்ஸ் மற்றும் பெய்ஜிங் வரை உணரப்படுகிறது. ஐரோப்பிய ஒன்றியம் சமீபத்தில் ஐரோப்பிய ஒன்றிய AI சட்டத்தை இயற்றியது, இது சிஸ்டம்களை அபாயத்தின் அடிப்படையில் வகைப்படுத்துகிறது. இந்த நடவடிக்கை, ஐரோப்பிய குடிமக்களுக்கு விற்க விரும்பும் உலகெங்கிலும் உள்ள நிறுவனங்களை தங்கள் செயல்பாட்டு முறையை மாற்ற கட்டாயப்படுத்துகிறது. அமெரிக்காவில், அணுகுமுறை மிகவும் சிதறியுள்ளது, இது நிர்வாக உத்தரவுகள் மற்றும் தன்னார்வ கடமைகளில் கவனம் செலுத்துகிறது. சீனா ஒரு வித்தியாசமான பாதையை எடுக்கிறது, இது அரசு கட்டுப்பாடு மற்றும் சமூக ஸ்திரத்தன்மையில் கவனம் செலுத்துகிறது. இது ஒரு சிதறிய உலகத்தை உருவாக்குகிறது, அங்கு ஒரு நாட்டில் உள்ள ஸ்டார்ட்அப் மற்றொரு நாட்டில் உள்ள ஸ்டார்ட்அப்பை விட முற்றிலும் மாறுபட்ட தடைகளை எதிர்கொள்கிறது. இந்த சிதறல் தற்செயலானது அல்ல. இது உள்ளூர் தொழில்களைப் பாதுகாப்பதற்கும் தேசிய நலன்கள் முதலில் வருவதை உறுதி செய்வதற்கும் எடுக்கப்பட்ட ஒரு திட்டமிட்ட உத்தியாகும். உலகளாவிய ஒத்துழைப்பு அரிதானது, ஏனெனில் பொருளாதாரப் பங்குகள் மிக அதிகமாக இருப்பதால் யாரும் தங்கள் பொம்மைகளைப் பகிர்ந்து கொள்ள விரும்பவில்லை.
ஒரு அரசாங்கம் AI நெறிமுறைகளைப் பற்றி பேசும்போது, அவர்கள் பெரும்பாலும் வர்த்தக தடைகளைப் பற்றி பேசுகிறார்கள். பாதுகாப்பிற்கான உயர் தரநிலைகளை நிர்ணயிப்பதன் மூலம், ஒரு நாடு அந்த குறிப்பிட்ட அளவுகோல்களைப் பூர்த்தி செய்யாத வெளிநாட்டு சாப்ட்வேரை திறம்பட தடுக்க முடியும். இது டிஜிட்டல் பாதுகாப்புவாதத்தின் ஒரு வடிவமாகும். இது உள்நாட்டு நிறுவனங்கள் வெளிநாட்டிலிருந்து போட்டியின்றி வளர அனுமதிக்கிறது. சராசரி பயனருக்கு, இதன் பொருள் குறைவான தேர்வு மற்றும் அதிக விலை. நீங்கள் பயன்படுத்தும் சாப்ட்வேர் அது உருவாக்கப்பட்ட நாட்டின் அரசியல் விழுமியங்களால் வடிவமைக்கப்பட்டுள்ளது என்பதையும் இது குறிக்கிறது. ஒரு மாடல் கடுமையான தணிக்கை சட்டங்களின் கீழ் பயிற்சியளிக்கப்பட்டால், நீங்கள் எங்கு பயன்படுத்தினாலும் அது அந்த சார்புகளைக் கொண்டிருக்கும். இதனால்தான் கொள்கை மீதான போராட்டம் மிகவும் தீவிரமானது. இது எதிர்காலத்தின் கலாச்சார மற்றும் நெறிமுறை கட்டமைப்பிற்கான போராட்டம். தேர்தல் சுழற்சியில் இந்த தலைப்புகள் உலகம் முழுவதும் உள்ள வேட்பாளர்களுக்கு முதன்மைப் பேச்சுப் புள்ளிகளாகப் பயன்படுத்தப்படும்.
சாரா என்ற கிராஃபிக் டிசைனரை எடுத்துக்கொள்வோம். அவளுடைய அன்றாட வாழ்க்கையில், ஒரு மாடலுக்குப் பயிற்சி அளிக்க தனது கலையைப் பயன்படுத்திய நிறுவனத்தின் மீது அவள் வழக்குத் தொடர முடியுமா என்பதை AI கொள்கை தீர்மானிக்கிறது. கொள்கை நியாயமான பயன்பாட்டிற்கு (fair use) ஆதரவாக இருந்தால், அவள் தனது வேலையின் மீதான கட்டுப்பாட்டை இழக்கிறாள். அது படைப்பாளி உரிமைகளுக்கு ஆதரவாக இருந்தால், அவளுக்கு பணம் கிடைக்கலாம். சாரா காலையில் எழுந்து தனது மின்னஞ்சலைச் சரிபார்க்கிறாள். அவளுடைய இன்பாக்ஸ், AI பயிற்சியைச் சேர்க்க தங்கள் சேவை விதிமுறைகளை மாற்றும் சாப்ட்வேர் வழங்குநர்களின் அப்டேட்களால் நிரம்பியுள்ளது. அவள் இந்த மாற்றங்களிலிருந்து விலக (opt out) காலையிலேயே செலவிடுகிறாள், ஆனால் செட்டிங்ஸ் மெனுவில் ஆழமாகப் புதைக்கப்பட்டுள்ளன. மதிய உணவின் போது, மனித தொழிலாளர்களுக்குப் பதிலாக AI-ஐப் பயன்படுத்தும் நிறுவனங்களுக்கு வரி விதிக்கக்கூடிய ஒரு புதிய சட்டத்தைப் பற்றி படிக்கிறாள். மாலைக்குள், அவள் தனது பணியை வேகப்படுத்த ஒரு AI டூலைப் பயன்படுத்துகிறாள், தான் தனது சொந்த மாற்றீட்டிற்குப் பயிற்சி அளிக்கிறோமா என்று யோசிக்கிறாள். இது கொள்கையின் நடைமுறை உண்மை. இது சுருக்கமானது அல்ல. இது அவளுடைய சம்பளத்தையும் சொத்தையும் பாதிக்கிறது.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
படைப்பாளிகளும் தொழிலாளர்களும் இந்தப் அதிகாரப் போராட்டத்தின் முன்னணியில் உள்ளனர். AI உருவாக்கிய உள்ளடக்கத்திற்கு பதிப்புரிமை வழங்க முடியாது என்று ஒரு அரசாங்கம் முடிவு செய்யும் போது, அது மீடியா நிறுவனங்களுக்கான முழு வணிக மாதிரியையும் மாற்றுகிறது. ஒரு ஸ்டுடியோ ஒரு ஸ்கிரிப்டை எழுத AI-ஐப் பயன்படுத்த முடிந்தால் மற்றும் மனித எழுத்தாளருக்கு பணம் கொடுக்க வேண்டியதில்லை என்றால், அவர்கள் அதைத்தான் செய்வார்கள். இந்த வீழ்ச்சியைத் தடுக்கக்கூடிய ஒரே விஷயம் கொள்கைதான். இருப்பினும், அரசாங்கங்களுக்கான ஊக்கத்தொகைகள் பெரும்பாலும் நிறுவனங்களுடன் ஒத்துப்போகின்றன. குடிமக்களுக்கு வேலைவாய்ப்புகள் குறைந்தாலும், உயர் தொழில்நுட்ப வளர்ச்சி இருப்புநிலை அறிக்கையில் நன்றாகத் தெரிகிறது. இது பொருளாதாரத்தின் தேவைகளுக்கும் மக்களின் தேவைகளுக்கும் இடையே ஒரு பதற்றத்தை உருவாக்குகிறது. பெரும்பாலான பயனர்கள், ஆப்ஸுடனான தங்கள் அன்றாட தொடர்புகள் இந்த அமைதியான சட்டப் போர்களால் வடிவமைக்கப்படுகின்றன என்பதை உணரவில்லை. ஒவ்வொரு முறையும் நீங்கள் ஒரு புதிய தனியுரிமைக் கொள்கையை (privacy policy) ஏற்கும் போது, லாபியிஸ்டுகளால் வடிவமைக்கப்பட்ட ஒரு அமைப்பில் நீங்கள் பங்கேற்கிறீர்கள். இதில் உள்ள ஆபத்து வசதியைப் பற்றியது மட்டுமல்ல. இது எல்லாவற்றையும் தரவுகளாக மாற்ற விரும்பும் உலகில் உங்கள் சொந்த உழைப்பையும் அடையாளத்தையும் சொந்தமாக்கிக் கொள்வதற்கான அடிப்படை உரிமை பற்றியது.
நாம் பயன்படுத்தும் இலவச AI டூல்களுக்கு உண்மையில் யார் பணம் செலுத்துகிறார்கள்? பாதுகாப்பு குறித்த கவனம் பெரிய நிறுவனங்கள் தங்களுக்குப் பின்னால் ஏணியை இழுத்துக்கொள்வதற்கான ஒரு வழியாக இருக்குமா என்று நாம் கேட்க வேண்டும். ஒழுங்குமுறை ஒரு சிறிய ஸ்டார்ட்அப் போட்டியிடுவதற்கு மிகவும் விலை உயர்ந்ததாக மாற்றினால், அது உண்மையில் நம்மைப் பாதுகாப்பானதாக்குகிறதா அல்லது சில ஏகபோக நிறுவனங்களைச் சார்ந்திருக்கச் செய்கிறதா? இந்த பிரம்மாண்டமான டேட்டா சென்டர்களை இயக்கத் தேவையான மின்சாரம் மற்றும் தண்ணீரின் மறைமுக செலவுகள் என்ன? தரவுகளைப் பற்றியும் நாம் கேள்வி எழுப்ப வேண்டும். ஒரு அரசாங்கம் குற்றத்தைக் கணிக்க AI-ஐப் பயன்படுத்தினால், பயிற்சித் தரவில் உள்ள சார்புக்கு யார் பொறுப்பு? பாதுகாப்பின் பெயரால் பெரும்பாலும் முதலில் பலியிடப்படுவது தனியுரிமைதான். குறுகிய கால வசதிக்காக நமது நீண்ட கால சுயாட்சியை நாம் வர்த்தகம் செய்கிறோமா? இந்த கேள்விகளுக்கு எளிதான பதில்கள் இல்லை, ஆனால் அரசியல்வாதிகள் தவிர்க்கும் கேள்விகள் இவை. இந்த இடத்தில் பயனர் உரிமைகளுக்காக அவர்கள் எவ்வாறு போராடுகிறார்கள் என்பதைப் பார்க்க Electronic Frontier Foundation மற்றும் பிற வக்காலத்து குழுக்களை நாம் பார்க்க வேண்டும். செயலற்ற நிலையின் விலை என்னவென்றால், நாம் பார்க்கவோ அல்லது சவால் செய்யவோ முடியாத ஒரு அல்காரிதத்தால் நம் தேர்வுகள் நமக்காக எடுக்கப்படும் உலகம்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.இந்த சந்தேகம் வெளிப்படைத்தன்மை குறித்த வாக்குறுதிகளுக்கும் நீட்டிக்கப்பட வேண்டும். பல நிறுவனங்கள் தங்கள் மாடல்கள் ஓப்பன் சோர்ஸ் என்று கூறுகின்றன, ஆனால் அவற்றைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகளை அவை பகிர்வதில்லை. இது ஒரு அரைவேக்காட்டு நடவடிக்கை, இது வெளிப்படைத்தன்மையின் மாயையைத் தரும்போது அவர்களின் அறிவுசார் சொத்துக்களைப் பாதுகாக்கிறது. சர்வதேச ஒப்பந்தங்களுக்கான அழுத்தத்தைப் பற்றியும் நாம் எச்சரிக்கையாக இருக்க வேண்டும். அவை கேட்க நன்றாக இருந்தாலும், அவற்றில் உண்மையான அமலாக்க பொறிமுறை இல்லை. அவை பெரும்பாலும் அர்த்தமுள்ள தேசிய சட்டத்தை தாமதப்படுத்த ஒரு வழியாகப் பயன்படுத்தப்படுகின்றன. உண்மையான அதிகாரம் தொழில்நுட்ப விவரக்குறிப்புகள் மற்றும் அரசாங்கங்கள் கையெழுத்திடும் கொள்முதல் ஒப்பந்தங்களில் உள்ளது. ஒரு அரசு நிறுவனம் ஒரு குறிப்பிட்ட AI சிஸ்டத்தை வாங்கினால், அவர்கள் முழு தொழில்துறைக்கும் தரநிலையை நிர்ணயிக்கிறார்கள். இந்த ஒப்பந்தங்கள் பொதுவானவை என்றும், சிஸ்டம்கள் சுயாதீன தணிக்கைக்கு உட்பட்டவை என்றும் நாம் கோர வேண்டும். இது இல்லையென்றால், சாப்ட்வேர் எதிர்பார்த்தபடி செயல்படுகிறதா அல்லது ஏற்கனவே உள்ள சிவில் உரிமைப் பாதுகாப்புகளைத் தவிர்க்கப் பயன்படுத்தப்படுகிறதா என்பதை அறிய பொதுமக்களுக்கு வழி இல்லை.
டூல்களை உருவாக்குபவர்களுக்கு, கொள்கைப் போராட்டம் ஒரு தொழில்நுட்பப் போராட்டமாகும். இது API ரேட் லிமிட்கள் மற்றும் தரவு இருப்பிடத் தேவைகளை உள்ளடக்கியது. ஒரு சட்டம் தரவு ஒரு குறிப்பிட்ட எல்லைக்குள் இருக்க வேண்டும் என்று சொன்னால், ஒரு டெவலப்பர் வேறொரு இடத்தில் உள்ள கிளவுட் வழங்குநரைப் பயன்படுத்த முடியாது. உள்ளூர் சேமிப்பு என்பது ஒரு தேர்வை விட அவசியமாகிறது. நுகர்வோர் ஹார்டுவேரில் இயங்கக்கூடிய சிறிய மொழி மாடல்களின் எழுச்சியைக் காண்கிறோம். இது மையப்படுத்தப்பட்ட கட்டுப்பாட்டின் அச்சுறுத்தலுக்கு நேரடிப் பதிலாகும். டெவலப்பர்கள் முக்கியமான தரவுகளை மூன்றாம் தரப்பு சர்வருக்கு அனுப்பாமல், ஏற்கனவே உள்ள பணிப்பாய்வுகளில் AI-ஐ ஒருங்கிணைக்க வழிகளைத் தேடுகிறார்கள். API-ன் வரம்புகளைப் புரிந்துகொள்வது இப்போது குறியீட்டைப் புரிந்துகொள்வதைப் போலவே முக்கியமானது. இந்த தொழில்நுட்பக் கட்டுப்பாடுகள் குறித்த விரிவான AI கொள்கை பகுப்பாய்வை எங்கள் தளத்தில் நீங்கள் காணலாம். உள்ளூர் செயல்பாட்டை நோக்கிய மாற்றம் வேகம் பற்றியது மட்டுமல்ல. இது உங்கள் சொந்த கணக்கீட்டு வளங்களின் மீதான இறையாண்மை பற்றியது.
- API ரேட் லிமிட்டிங் பெரும்பாலும் டெவலப்பர்களை செயல்திறன் மற்றும் செலவுத் திறன் ஆகியவற்றுக்கு இடையே தேர்வு செய்ய கட்டாயப்படுத்துகிறது.
- தரவு இருப்பிடச் சட்டங்கள் உலகளாவிய சாப்ட்வேர் வரிசைப்படுத்தலுக்கு சிக்கலான உள்கட்டமைப்பு மாற்றங்களைக் கோருகின்றன.
மாடல் சரிவு (model collapse) என்ற சிக்கலும் உள்ளது. இணையம் AI உருவாக்கிய உள்ளடக்கத்தால் நிரப்பப்பட்டால், எதிர்கால மாடல்கள் அவற்றின் சொந்த வெளியீட்டிலேயே பயிற்றுவிக்கப்படும். இது தரத்தின் சீரழிவு மற்றும் தரவுகளில் பன்முகத்தன்மை இழப்புக்கு வழிவகுக்கிறது. பவர் யூசர்கள் ஏற்கனவே தங்கள் சிஸ்டம்களின் ஒருமைப்பாட்டைப் பராமரிக்க செயற்கைத் தரவுகளை வடிகட்ட வழிகளைத் தேடுகிறார்கள். இதற்கு புதிய டூல்கள் மற்றும் தரவு லேபிளிங்கிற்கான புதிய தரநிலைகள் தேவை. NIST AI Risk Management Framework இது குறித்து சில வழிகாட்டுதல்களை வழங்குகிறது, ஆனால் அதைச் செயல்படுத்துவது டெவலப்பர்களின் பொறுப்பாகும். தொழில்நுட்ப உண்மை என்னவென்றால், கொள்கை பெரும்பாலும் குறியீட்டை விட பல ஆண்டுகள் பின்தங்கியுள்ளது. ஒரு சட்டம் இயற்றப்படும் நேரத்தில், தொழில்நுட்பம் ஏற்கனவே முன்னேறிவிட்டது. இது நீண்ட கால தயாரிப்புகளை உருவாக்க முயற்சிக்கும் நிறுவனங்களுக்கு நிரந்தர நிச்சயமற்ற நிலையை உருவாக்குகிறது. எதிர்கால விதிகள் என்னவாக இருக்கும் என்று அவர்கள் யூகிக்க வேண்டும் மற்றும் குறுகிய அறிவிப்பில் மாற்றும் அளவுக்கு நெகிழ்வாக தங்கள் சிஸ்டம்களை உருவாக்க வேண்டும்.
AI கொள்கை மீதான அதிகாரப் போராட்டம் இப்பதான் தொடங்குகிறது. இது உண்மையை யார் வரையறுக்கிறார்கள் மற்றும் அதிலிருந்து யார் லாபம் பெறுகிறார்கள் என்பதற்கான போராட்டம். ஒரு பயனராக, தகவலறிந்திருப்பது உங்கள் நலன்களைப் பாதுகாக்க ஒரே வழியாகும். விவாதம் சத்தமாகவும் குழப்பமாகவும் தொடரும், ஆனால் ஆபத்துகள் எளிமையானவை: கட்டுப்பாடு. தொழில்நுட்ப ஜார்கன் உங்களை நியாயம் மற்றும் பொறுப்புக்கூறல் குறித்த அடிப்படை கேள்விகளிலிருந்து திசைதிருப்ப விடாதீர்கள். இன்று நாம் எழுதும் விதிகள் வரும் தசாப்தங்களுக்கு சமூகத்தின் வடிவத்தைத் தீர்மானிக்கும். கொள்கை என்பது நமது எதிர்கால உலகின் கட்டிடக்கலை. கட்டிடம் முடிவதற்கு முன்பே வரைபடங்களைக் கவனிக்க வேண்டிய நேரம் இது.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.