அரசாங்கங்கள் எவ்வாறு AI-ஐக் கட்டுப்படுத்த முயற்சிக்கின்றன?
இயந்திரங்களுக்கான புதிய விதிகள்
செயற்கை நுண்ணறிவின் (AI) காட்டுமிராண்டித்தனமான காலம் முடிவுக்கு வருகிறது. அரசாங்கங்கள் இனி வேடிக்கை மட்டும் பார்ப்பதில்லை. குறியீடுகள் (code) எவ்வாறு எழுதப்பட வேண்டும் மற்றும் அவை எங்கு பயன்படுத்தப்பட வேண்டும் என்பதைத் தீர்மானிக்கும் விதிப்புத்தகங்களை அவர்கள் எழுதி வருகின்றனர். இது வெறும் அறநெறி அல்லது தெளிவற்ற கொள்கைகள் பற்றியது மட்டுமல்ல. இது கடுமையான சட்டம் மற்றும் மிகப்பெரிய அபராதங்கள் பற்றியது. ஐரோப்பிய ஒன்றியம் தனது AI சட்டத்துடன் முன்னணியில் உள்ளது. அமெரிக்கா ஒரு விரிவான நிர்வாக உத்தரவைப் பின்பற்றியது. இந்த நடவடிக்கைகள் உலகின் ஒவ்வொரு தொழில்நுட்ப நிறுவனத்தின் கணக்கீட்டையும் மாற்றுகின்றன. ஒரு குறிப்பிட்ட சக்தி வரம்பைத் தாண்டிய மாடலை நீங்கள் உருவாக்கினால், இப்போது உங்கள் மீது ஒரு இலக்கு உள்ளது. அது பொதுமக்களிடம் சென்றடைவதற்கு முன்பு அது பாதுகாப்பானது என்பதை நீங்கள் நிரூபிக்க வேண்டும். இந்த மாற்றம் தன்னார்வ பாதுகாப்பு உறுதிமொழிகளிலிருந்து கட்டாய மேற்பார்வைக்கு மாறுவதைக் குறிக்கிறது. சராசரி பயனருக்கு, நீங்கள் நாளை பயன்படுத்தும் கருவிகள் இன்று நீங்கள் பயன்படுத்துவதை விட வித்தியாசமாக இருக்கலாம். சில அம்சங்கள் உங்கள் நாட்டில் தடுக்கப்படலாம். பிற கருவிகள் உங்கள் தரவை எவ்வாறு பயன்படுத்துகின்றன என்பதில் அதிக வெளிப்படைத்தன்மையுடன் இருக்கலாம். முன்னேற்றத்தை பாதுகாப்போடு சமநிலைப்படுத்துவதே இதன் நோக்கம், ஆனால் அந்தப் பாதை உராய்வுகள் நிறைந்தது.
அறநெறியிலிருந்து அமலாக்கத்திற்கு மாறுதல்
புதிய விதிகளைப் புரிந்துகொள்ள, நீங்கள் இடர் வகைகளைப் பார்க்க வேண்டும். பெரும்பாலான அரசாங்கங்கள் அனைவருக்கும் பொருந்தும் அணுகுமுறையிலிருந்து விலகி வருகின்றன. அதற்கு பதிலாக, அவை ஏற்படுத்தக்கூடிய சாத்தியமான பாதிப்பின் அடிப்படையில் அமைப்புகளை வகைப்படுத்துகின்றன. இது ஒரு நேரடி செயல்பாட்டு மாற்றம். நிறுவனங்கள் இனி ஒரு தயாரிப்பை வெளியிட்டுவிட்டு சிறந்ததை எதிர்பார்க்க முடியாது. அவர்கள் ஒரு பயனர் அதை அடைவதற்கு முன்பே தங்கள் தொழில்நுட்பத்தை வகைப்படுத்த வேண்டும். இந்த வகைப்பாடு அரசாங்கம் பயன்படுத்தும் ஆய்வின் அளவைத் தீர்மானிக்கிறது. ஏதாவது தவறு நடந்தால் நிறுவனம் எதிர்கொள்ளும் சட்டப்பூர்வ பொறுப்பின் அளவையும் இது தீர்மானிக்கிறது. AI என்பது என்ன என்பதிலிருந்து AI என்ன செய்கிறது என்பதற்கு கவனம் மாறியுள்ளது. ஒரு அமைப்பு மக்களைப் பற்றி முடிவுகளை எடுத்தால், அது பூனைகளின் படங்களை உருவாக்கும் அமைப்பை விட அதிக சந்தேகத்துடன் பார்க்கப்படுகிறது.
ஏற்றுக்கொள்ள முடியாத ஆபத்து என்று கருதப்படும் அமைப்புகளுக்கு மிகவும் கடுமையான விதிகள் பொருந்தும். இவை ஊக்கப்படுத்தப்படுவதில்லை. அவை தடை செய்யப்பட்டுள்ளன. இது டெவலப்பர்களுக்கு ஒரு தெளிவான எல்லையை உருவாக்குகிறது. அவர்கள் எந்தக் கோடுகளைத் தாண்டக்கூடாது என்பது அவர்களுக்குத் தெரியும். மற்ற அனைத்திற்கும், விதிகளுக்கு புதிய அளவிலான ஆவணங்கள் தேவைப்படுகின்றன. நிறுவனங்கள் தங்கள் மாடல்கள் எவ்வாறு பயிற்சியளிக்கப்பட்டன என்பதற்கான விரிவான பதிவுகளை வைத்திருக்க வேண்டும். மாடல் எவ்வாறு அதன் முடிவுகளை அடைகிறது என்பதையும் அவர்களால் விளக்க முடிய வேண்டும். இது ஒரு குறிப்பிடத்தக்க தொழில்நுட்ப சவாலாகும், ஏனெனில் பல நவீன மாடல்கள் அடிப்படையில் ‘பிளாக் பாக்ஸ்’ (black boxes) ஆகும். அவை விளக்கக்கூடியதாக இருக்க வேண்டும் என்று கட்டாயப்படுத்துவது, அவை வடிவமைக்கப்படும் விதத்தில் ஒரு அடிப்படை மாற்றத்தைக் கோருகிறது. பயிற்சிக்காகப் பயன்படுத்தப்படும் தரவு சுத்தமாகவும் பாரபட்சமின்றியும் இருக்க வேண்டும் என்றும் விதிகள் கோருகின்றன. இதன் பொருள் தரவு சேகரிப்பு செயல்முறையே இப்போது சட்டரீதியான தணிக்கைகளுக்கு உட்பட்டது. பின்வரும் வகைகள் தற்போதைய ஒழுங்குமுறை அணுகுமுறையை வரையறுக்கின்றன:
- நடத்தையைக் கையாள சமூக ஸ்கோரிங் அல்லது ஏமாற்றும் நுட்பங்களைப் பயன்படுத்தும் தடைசெய்யப்பட்ட அமைப்புகள்.
- முக்கிய உள்கட்டமைப்பு, வேலைவாய்ப்பு மற்றும் சட்ட அமலாக்கத்தில் பயன்படுத்தப்படும் உயர்-ஆபத்து அமைப்புகள், அவற்றுக்கு கடுமையான தணிக்கைகள் தேவை.
- சாட்பாட்கள் (chatbots) போன்ற குறைந்த ஆபத்துள்ள அமைப்புகள், அவை மனிதர்கள் அல்ல என்பதை வெளிப்படுத்த வேண்டும்.
- AI இயக்கப்பட்ட வீடியோ கேம்கள் போன்ற மிகக் குறைந்த ஆபத்துள்ள அமைப்புகள், அவை குறைவான கட்டுப்பாடுகளை எதிர்கொள்கின்றன.
இந்த அமைப்பு நெகிழ்வாக வடிவமைக்கப்பட்டுள்ளது. தொழில்நுட்பம் மாறும்போது, உயர்-ஆபத்து பயன்பாடுகளின் பட்டியல் வளரக்கூடும். மென்பொருள் பரிணமிக்கும் போதும் சட்டம் பொருத்தமானதாக இருப்பதை இது உறுதி செய்கிறது. இருப்பினும், இது வணிகங்களுக்கு நிரந்தர நிச்சயமற்ற நிலையை உருவாக்குகிறது. தங்கள் புதிய அம்சம் அதிக ஒழுங்குபடுத்தப்பட்ட வகைக்கு மாறியுள்ளதா என்பதை அவர்கள் தொடர்ந்து சரிபார்க்க வேண்டும். இயந்திரத்தின் சக்தியைக் கண்டு எச்சரிக்கையாக இருக்கும் உலகில் மென்பொருளை உருவாக்குவதற்கான புதிய யதார்த்தம் இதுவாகும்.
உடைந்த உலகளாவிய கட்டமைப்பு
இந்த விதிகளின் தாக்கம் ஒரு நாட்டின் எல்லைகளுக்குள் மட்டும் அடங்கிவிடவில்லை. நாம் *பிரஸ்ஸல்ஸ் விளைவின்* (Brussels Effect) எழுச்சியைக் காண்கிறோம். ஐரோப்பிய ஒன்றியம் தொழில்நுட்ப ஒழுங்குமுறைக்கு ஒரு உயர் தரத்தை நிர்ணயிக்கும் போது, உலகளாவிய நிறுவனங்கள் தங்கள் செயல்பாடுகளை எளிதாக்க அந்த தரநிலைகளை எல்லா இடங்களிலும் பின்பற்றுகின்றன. வெவ்வேறு சந்தைகளுக்கு பத்து வெவ்வேறு பதிப்புகளை உருவாக்குவதை விட, இணக்கமான ஒரு தயாரிப்பை உருவாக்குவது மலிவானது. இது சிலிக்கான் வேலியில் AI எவ்வாறு கட்டமைக்கப்படுகிறது என்பதில் ஐரோப்பாவிற்கு மிகப்பெரிய செல்வாக்கை அளிக்கிறது. இந்த தரநிலைகள் எவ்வாறு கட்டமைக்கப்பட்டுள்ளன என்பதைப் பார்க்க நீங்கள் EU AI சட்டம் பற்றி மேலும் படிக்கலாம். அமெரிக்காவில், அணுகுமுறை வேறுபட்டது ஆனால் சமமான முக்கியத்துவம் வாய்ந்தது. அரசாங்கம் **பாதுகாப்பு உற்பத்திச் சட்டத்தைப்** (Defense Production Act) பயன்படுத்தி தொழில்நுட்ப ஜாம்பவான்களை தங்கள் பாதுகாப்பு சோதனை முடிவுகளைப் பகிர கட்டாயப்படுத்துகிறது. இது அமெரிக்கா பெரிய அளவிலான AI-ஐ தேசிய பாதுகாப்பின் விஷயமாகக் கருதுகிறது என்பதைக் குறிக்கிறது.
இதற்கிடையில், சீனா மிகவும் நேரடியான பாதையை எடுத்துள்ளது. அவர்களின் விதிமுறைகள் ஜெனரேட்டிவ் AI மூலம் தயாரிக்கப்படும் உள்ளடக்கத்தில் கவனம் செலுத்துகின்றன. வெளியீடுகள் சமூக விழுமியங்களுடன் ஒத்துப்போக வேண்டும் மற்றும் அரசு அதிகாரத்தை பலவீனப்படுத்தக்கூடாது என்று அவர்கள் கோருகின்றனர். இது நீங்கள் உள்நுழையும் இடத்தைப் பொறுத்து ஒரே மாடல் வித்தியாசமாக செயல்படும் ஒரு துண்டிக்கப்பட்ட உலகத்தை உருவாக்குகிறது. பெய்ஜிங்கில் உள்ள ஒரு மாடல் பாரிஸ் அல்லது நியூயார்க்கில் உள்ளதை விட வெவ்வேறு பாதுகாப்பு அம்சங்களைக் கொண்டிருக்கும். இந்த துண்டாடுதல், இப்போது முரண்பட்ட விதிகளின் வலையமைப்பில் பணியாற்ற வேண்டிய டெவலப்பர்களுக்கு தலைவலியை உருவாக்குகிறது. சில நாடுகள் அதிக வெளிப்படைத்தன்மையை விரும்புகின்றன, மற்றவை கதையின் மீது அதிக கட்டுப்பாட்டை விரும்புகின்றன. உலகளாவிய பார்வையாளர்களுக்கு, இதன் பொருள் AI அனுபவம் உள்ளூர்மயமாக்கப்படுகிறது. ஒற்றை, எல்லைகளற்ற இணையம் என்ற கனவு மங்கி வருகிறது. அதற்கு பதிலாக, இயந்திரம் என்ன சொல்ல அனுமதிக்கப்படுகிறது என்பதை உங்கள் இருப்பிடம் தீர்மானிக்கும் ஒழுங்குபடுத்தப்பட்ட சூழல் உள்ளது. இது 2024-ன் புதிய யதார்த்தம். இது தொழில்நுட்ப வளர்ச்சியின் அடுத்த தசாப்தத்தை வரையறுக்கும் ஒரு மாற்றமாகும்.
ஒழுங்குமுறை பார்வையின் கீழ் அன்றாட வாழ்க்கை
சாரா என்ற புராஜெக்ட் மேனேஜருக்கு ஒரு வழக்கமான காலை நேரத்தை கற்பனை செய்து பாருங்கள். அவர் மின்னஞ்சல்களின் நீண்ட சங்கிலியைச் சுருக்க ஒரு AI கருவியைத் திறந்து தனது நாளைத் தொடங்குகிறார். புதிய விதிமுறைகளின் கீழ், அந்தச் சுருக்கம் ஒரு அல்காரிதம் மூலம் உருவாக்கப்பட்டது என்பதை அவரது மென்பொருள் அவருக்கு அறிவிக்க வேண்டும். அவரது நிறுவனத் தரவு அவரது அனுமதியின்றி பொது மாடலுக்குப் பயிற்சி அளிக்கப் பயன்படுத்தப்படவில்லை என்பதையும் அது உறுதி செய்ய வேண்டும். இது சமீபத்திய சட்டங்களில் கட்டமைக்கப்பட்ட புதிய தனியுரிமைப் பாதுகாப்புகளின் நேரடி விளைவாகும். பின்னர், சாரா ஒரு தொழில்நுட்ப நிறுவனத்தில் புதிய பணிக்கு விண்ணப்பிக்கிறார். அந்த நிறுவனம் ஒரு AI ஸ்கிரீனிங் கருவியைப் பயன்படுத்துகிறது. இது ஒரு உயர்-ஆபத்து பயன்பாடு என்பதால், நிறுவனம் பாரபட்சத்திற்காக கருவியைத் தணிக்கை செய்ய வேண்டியிருந்தது. AI அவரை ஏன் அந்த வரிசையில் வைத்தது என்பதற்கான விளக்கத்தைக் கேட்க சாராவிற்கு சட்டப்பூர்வ உரிமை உண்டு. கடந்த காலத்தில், அவர் ஒரு பொதுவான நிராகரிப்பைப் பெற்றிருப்பார். இப்போது, அவருக்கு வெளிப்படைத்தன்மைக்கான வழி உள்ளது. கார்ப்பரேஷன்களுக்கும் தனிநபர்களுக்கும் இடையிலான அதிகார இயக்கவியலை ஆளுமை எவ்வாறு மாற்றுகிறது என்பதற்கு இது ஒரு உறுதியான உதாரணம்.
மதிய வேளையில், சாரா ஒரு ஷாப்பிங் மாலுக்குச் செல்கிறார். சில நகரங்களில், முக அங்கீகாரம் (facial recognition) இலக்கு விளம்பரங்களை வழங்க அவரது நடமாட்டத்தைக் கண்காணிக்கும். கடுமையான ஐரோப்பிய ஒன்றிய விதிகளின் கீழ், இந்த வகையான நிகழ்நேர கண்காணிப்பு கட்டுப்படுத்தப்பட்டுள்ளது. மால் அதைப் பயன்படுத்த ஒரு குறிப்பிட்ட சட்டப்பூர்வ காரணத்தைக் கொண்டிருக்க வேண்டும் மற்றும் சாராவுக்குத் தெரிவிக்கப்பட வேண்டும். அவர் பயன்படுத்தும் தயாரிப்புகளும் மாறுகின்றன. OpenAI மற்றும் Google போன்ற நிறுவனங்கள் ஏற்கனவே உள்ளூர் சட்டங்களுக்கு இணங்க தங்கள் அம்சங்களைச் சரிசெய்து வருகின்றன. சில இமேஜ் ஜெனரேஷன் கருவிகள் உங்கள் பகுதியில் கிடைக்கவில்லை அல்லது பொது நபர்களின் யதார்த்தமான முகங்களை உருவாக்குவதைத் தடுக்கும் கடுமையான வடிப்பான்களைக் கொண்டுள்ளன என்பதை நீங்கள் கவனிக்கலாம். இது ஒரு தொழில்நுட்ப வரம்பு அல்ல. இது ஒரு சட்டப்பூர்வமான வரம்பு. டீப்ஃபேக்குகள் தேர்தல்களை சீர்குலைக்க அல்லது பாரபட்சமான அல்காரிதம்கள் மக்களுக்கு வீட்டுவசதி மறுக்க வாய்ப்புள்ளது என்று நீங்கள் கருதும் போது, இந்த விதிகளுக்கான வாதம் உண்மையானதாக உணர்கிறது. பாதுகாப்பு அம்சங்களை வைப்பதன் மூலம், அரசாங்கங்கள் இந்த பாதிப்புகள் ஏற்படுவதற்கு முன்பே அவற்றைத் தடுக்க முயற்சிக்கின்றன. இது செயல்பாட்டில் உள்ள AI பாதுகாப்பிற்கான அமெரிக்க அணுகுமுறை ஆகும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
இணக்கத்தின் மறைக்கப்பட்ட செலவுகள்
ஒழுங்குபடுத்தப்பட்ட உலகில் உண்மையில் யார் வெற்றி பெறுகிறார்கள் என்பது குறித்த கடினமான கேள்விகளை நாம் கேட்க வேண்டும். ஒரு கனமான ஒழுங்குமுறைச் சுமை உண்மையில் பொதுமக்களைப் பாதுகாக்கிறதா, அல்லது அது வெறும் பதவியில் இருப்பவர்களைப் பாதுகாக்கிறதா? பெரிய தொழில்நுட்ப நிறுவனங்கள் இணக்கத்தைக் கையாள நூற்றுக்கணக்கான வழக்கறிஞர்கள் மற்றும் பொறியாளர்களை வேலைக்கு அமர்த்தும் வளங்களைக் கொண்டுள்ளன. கேரேஜில் உள்ள ஒரு சிறிய ஸ்டார்ட்அப் நிறுவனத்திடம் அது இல்லை. ஜாம்பவான்களால் மட்டுமே புதுமைப்படுத்த முடியும் என்ற உலகத்தை உருவாக்கும் அபாயம் நமக்கு உள்ளது. இது குறைந்த போட்டி மற்றும் பயனர்களுக்கு அதிக விலைக்கு வழிவகுக்கும். தனியுரிமை மற்றும் பாதுகாப்பிற்கு இடையிலான கேள்வியும் உள்ளது. அரசாங்கங்கள் ஒரு AI மாடலின் உள் செயல்பாடுகளுக்கு அணுகலைக் கோரும்போது, அந்தத் தரவை யார் பாதுகாக்கிறார்கள்? ஒரு மாடல் பாதுகாப்பானது என்பதை உறுதிப்படுத்த அரசாங்கம் அதைத் தணிக்கை செய்ய முடிந்தால், பயனர்களிடமிருந்து அந்த மாடல் என்ன கற்றுக்கொள்கிறது என்பதைக் கண்காணிக்க அதே அணுகுமுறையைப் பயன்படுத்தலாம். இது பொது மன்றங்களில் அரிதாகவே விவாதிக்கப்படும் ஒரு வர்த்தகம்.
புதுமையின் மறைக்கப்பட்ட செலவையும் நாம் கருத்தில் கொள்ள வேண்டும். ஒவ்வொரு புதிய அம்சமும் நீண்ட ஒப்புதல் செயல்முறைக்குச் செல்ல வேண்டியிருந்தால், மருத்துவத்தில் உயிரைக் காக்கும் அல்லது சிக்கலான காலநிலை சிக்கல்களைத் தீர்க்கும் முன்னேற்றங்களை நாம் இழப்போமா? ஒழுங்குமுறையின் உராய்வு ஒரு உண்மையான செலவு. நாம் பெறும் பாதுகாப்பு நாம் இழக்கும் முன்னேற்றத்திற்கு மதிப்புள்ளதா என்பதை நாம் தெரிந்து கொள்ள வேண்டும். அமலாக்கப் பிரச்சினையும் உள்ளது. பரவலாக்கப்பட்ட நெட்வொர்க்கில் அல்லது சர்வதேச விதிமுறைகளை அலட்சியப்படுத்தும் நாட்டில் ஹோஸ்ட் செய்யப்பட்ட மாடலை நீங்கள் எவ்வாறு ஒழுங்குபடுத்துவீர்கள்? விதிகள் அவற்றைப் பின்பற்றத் தேர்ந்தெடுக்கும் நிறுவனங்களுக்கு மட்டுமே பொருந்தும், இது மிகவும் ஆபத்தான நபர்கள் மேற்பார்வையின்றி செயல்பட அனுமதிக்கிறது. இது ஒரு தவறான பாதுகாப்பு உணர்வை உருவாக்குகிறது. சட்டத்திற்கு உட்பட்ட குடிமக்களைச் சுற்றி நாம் ஒரு வேலியை உருவாக்குகிறோம், அதே நேரத்தில் மற்ற அனைவருக்கும் வாயில் திறந்தே இருக்கிறது. இவை ஒழுங்குபடுத்துபவர்கள் அடிக்கடி தவிர்க்கும் கேள்விகள். அவர்கள் முறையான அபாயங்களை புறக்கணித்துவிட்டு, புலப்படும் அபாயங்களில் கவனம் செலுத்துகிறார்கள். நாம் முன்னோக்கிச் செல்லும்போது, பாதுகாப்பிற்கான நமது விருப்பம் திறந்த மற்றும் போட்டித்தன்மை கொண்ட சந்தையின் மதிப்பை மறைக்கவில்லை என்பதை உறுதிப்படுத்த வேண்டும்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.வெளிப்படைத்தன்மையின் தொழில்நுட்ப சுமை
பவர் யூசர்கள் மற்றும் டெவலப்பர்களுக்கு, புதிய விதிமுறைகள் குறிப்பிட்ட தொழில்நுட்பக் கட்டுப்பாடுகளாக மாறுகின்றன. மிக முக்கியமான அளவீடுகளில் ஒன்று கம்ப்யூட் த்ரெஷோல்ட் (compute threshold) ஆகும். அமெரிக்க நிர்வாக உத்தரவு 10-ன் அடுக்கு 26 மிதக்கும் புள்ளி செயல்பாடுகளுக்கு (floating point operations) ஒரு வரம்பை அமைக்கிறது. இதைவிட அதிக சக்தியுடன் பயிற்சியளிக்கப்பட்ட எந்தவொரு மாடலும் அரசாங்கத்திற்குத் தெரிவிக்கப்பட வேண்டும். இது டெவலப்பர்கள் தங்கள் வன்பொருள் பயன்பாடு மற்றும் பயிற்சி ஓட்டங்களின் விரிவான பதிவுகளை வைத்திருக்க கட்டாயப்படுத்துகிறது. API வரம்புகளும் ஒழுங்குமுறைக்கான கருவியாக மாறி வருகின்றன. தவறான தகவல்களை பெருமளவில் உருவாக்குவதைத் தடுக்க, ஒரு பயனர் ஜெனரேட்டிவ் மாடலுக்கு எத்தனை கோரிக்கைகளை அனுப்பலாம் என்பதில் சில பிராந்தியங்கள் வரம்புகளைக் கருத்தில் கொள்கின்றன. இது இந்த மாடல்களைச் சார்ந்திருக்கும் பயன்பாடுகளை டெவலப்பர்கள் உருவாக்கும் விதத்தைப் பாதிக்கிறது. அவர்கள் இப்போது தங்கள் குறியீடு மற்றும் வணிக மாதிரிகளில் இந்த வரம்புகளைக் கணக்கில் கொள்ள வேண்டும். உள்ளூர் சேமிப்பு மற்றொரு முக்கிய காரணியாகும். குடிமக்கள் பற்றிய தரவு சில புவியியல் எல்லைகளுக்குள் இருக்க வேண்டும் என்று சட்டங்கள் பெரும்பாலும் கோருகின்றன. இதன் பொருள் நிறுவனங்கள் எல்லா இடங்களிலிருந்தும் தரவைச் செயலாக்க ஒரு மைய கிளவுட் (cloud) பயன்படுத்த முடியாது. அவர்கள் உள்ளூர் தரவு மையங்களை உருவாக்கி பராமரிக்க வேண்டும். தொழில்நுட்பத் தேவைகள் பின்வருவனவற்றை உள்ளடக்குகின்றன:
- AI உருவாக்கிய உள்ளடக்கத்தை அடையாளம் காண API மட்டத்தில் கட்டாய வாட்டர்மார்க்கிங்.
- உள்ளூர் செயலாக்கம் மற்றும் சேமிப்பை கட்டாயப்படுத்தும் தரவு இருப்பிடத் தேவைகள்.
- 10-ன் அடுக்கு 26 பிளாப்ஸ் (flops) வரம்பைத் தாண்டிய எந்தவொரு மாடல் பயிற்சிக்கான கம்ப்யூட் லாக்கிங்.
- மாடல் எடைகள் மற்றும் முடிவுப் பாதைகளின் மனித தணிக்கையை அனுமதிக்கும் விளக்கக்கூடிய அடுக்குகள்.
ஒருங்கிணைப்பு பணிப்பாய்வுகளும் மாறுகின்றன. டெவலப்பர்கள் இப்போது பைப்லைனின் ஒவ்வொரு கட்டத்திலும் பாதுகாப்பு சோதனைகளை உருவாக்க வேண்டும். நீங்கள் மூன்றாம் தரப்பு API-ஐப் பயன்படுத்தும் கருவியை உருவாக்குகிறீர்கள் என்றால், அந்த API தரவை எவ்வாறு கையாளுகிறது என்பதற்கு நீங்கள் இப்போது பொறுப்பாவீர்கள். உங்கள் ஒருங்கிணைப்பு வழங்குநரால் அமைக்கப்பட்ட பாதுகாப்பு வடிப்பான்களைத் தவிர்க்கவில்லை என்பதை நீங்கள் உறுதிப்படுத்த வேண்டும். சட்டத்தின் கீக் பிரிவுதான் உண்மையான போர்கள் நடக்கும் இடம். இது லேட்டன்சி (latency), தரவு இருப்பிடம் மற்றும் மாடல் எடைகளின் கணிதம் பற்றியது. ஒரு தயாரிப்பு சாத்தியமானதா அல்லது அதன் சொந்த இணக்கத் தேவைகளின் எடையின் கீழ் புதைக்கப்படுமா என்பதைத் தீர்மானிக்கும் விவரங்கள் இவை. தொழில்நுட்பக் கொள்கை தொடர்பான சமீபத்திய செய்தி அறிக்கைகளில் இந்த தொழில்நுட்ப மாற்றங்கள் குறித்த கூடுதல் விவரங்களை நீங்கள் காணலாம். இந்த மாற்றங்களுக்கு முன்னால் இருக்க விரும்புவோருக்கு, AI ஒழுங்குமுறையில் சமீபத்திய முன்னேற்றங்களைப் பின்பற்றுவது அவசியம். இந்த விதிகளின் சிக்கலான தன்மை, டெவலப்பரின் பங்கு குறியீட்டைப் போலவே சட்டத்தைப் பற்றியும் மாறி வருகிறது என்பதைக் குறிக்கிறது.
முடிக்கப்படாத குறியீடு
AI-ஐக் கட்டுப்படுத்தும் முயற்சி ஒரு தொடர்ச்சியான பணியாகும். நாம் முழுமையான சுதந்திர காலத்திலிருந்து நிர்வகிக்கப்படும் வளர்ச்சி காலத்திற்கு நகர்கிறோம். இன்று எழுதப்பட்ட விதிகள் அடுத்த தசாப்தத்தின் தொழில்நுட்பத்தை வடிவமைக்கும். இருப்பினும், மென்பொருளின் வேகம் எப்போதும் சட்டத்தின் வேகத்தை விட அதிகமாக இருக்கும். ஒரு சட்டம் இயற்றப்படும் நேரத்தில், தொழில்நுட்பம் பெரும்பாலும் புதிய ஒன்றிற்கு நகர்ந்திருக்கும். இது இந்த விஷயத்தை தொடர்ந்து பரிணமிக்க வைக்கும் ஒரு நேரடி கேள்வியை நம்மிடம் விட்டுச்செல்கிறது: தன்னைத்தானே மீண்டும் எழுதும் நுண்ணறிவை ஒழுங்குபடுத்த ஒரு ஜனநாயக செயல்முறை எப்போதாவது போதுமானதாக இருக்குமா? இப்போதைக்கு, கவனம் வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறல் மீது உள்ளது. தாங்கள் உருவாக்கிய இயந்திரங்களின் பொறுப்பில் மனிதர்கள் இருப்பதை உறுதி செய்ய நாங்கள் முயற்சிக்கிறோம். இந்த விதிகள் AI-ஐ பாதுகாப்பானதாக்குமா அல்லது இன்னும் சிக்கலாக்குமா என்பது பொறுத்திருந்துதான் பார்க்க வேண்டும். ஒழுங்குபடுத்தப்படாத அல்காரிதத்தின் காலம் முடிந்துவிட்டது என்பது மட்டுமே நிச்சயம். இது 2024 மற்றும் அதற்குப் பிந்தைய யதார்த்தம்.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.