AI-க்கான புதிய உலகளாவிய விதிமுறை புத்தகம் உருவாகத் தொடங்குகிறது
அனுமதியற்ற கண்டுபிடிப்புகளின் முடிவு
செயற்கை நுண்ணறிவில் (AI) கட்டுப்பாடற்ற காலம் முடிவுக்கு வருகிறது. பல ஆண்டுகளாக, டெவலப்பர்கள் எந்தவித மேற்பார்வையும் பொறுப்பும் இன்றி மாடல்களை உருவாக்கினர். இப்போது, அந்த சுதந்திரத்திற்குப் பதிலாக இணக்கம் மற்றும் பாதுகாப்பைக் கொண்ட ஒரு புதிய உலகளாவிய விதிமுறை புத்தகம் உருவாகி வருகிறது. இது வெறும் பரிந்துரைகள் அல்ல; அபராதங்கள் மற்றும் சந்தையிலிருந்து வெளியேற்றப்படும் அபாயத்தைக் கொண்ட கடுமையான சட்டங்கள். ஐரோப்பிய ஒன்றியம் தனது விரிவான AI Act மூலம் முன்னணியில் உள்ளது, அதே நேரத்தில் அமெரிக்கா சக்திவாய்ந்த மாடல்களைக் குறிவைத்து நிர்வாக உத்தரவுகளைப் பிறப்பித்து வருகிறது. இந்த விதிகள் கோட் எழுதப்படும் முறையையும், டேட்டா சேகரிக்கப்படும் முறையையும் மாற்றும். இந்தத் துறையில் யார் போட்டியிட முடியும் என்பதையும் இது தீர்மானிக்கும். மனித நடத்தையை முன்கூட்டியே கணிக்கும் ஒரு மாடலை நீங்கள் உருவாக்கினால், இப்போது நீங்கள் தீவிர கண்காணிப்பின் கீழ் இருக்கிறீர்கள். இந்த மாற்றம் வேகத்திலிருந்து பாதுகாப்பிற்குத் துறையை நகர்த்துகிறது. நிறுவனங்கள் இப்போது தங்கள் சிஸ்டம்களை வெளியிடுவதற்கு முன்பு அவை பாரபட்சமற்றவை என்பதை நிரூபிக்க வேண்டும். இதுதான் உலகின் ஒவ்வொரு டெக் நிறுவனத்திற்கும் புதிய யதார்த்தம்.
கோடிங்கில் அபாயத்தை வகைப்படுத்துதல்
புதிய விதிகளின் மையப்பகுதி அபாயத்தை அடிப்படையாகக் கொண்ட அணுகுமுறையாகும். அதாவது, ஒரு மியூசிக் ரெக்கமெண்டேஷன் என்ஜினை, மருத்துவ நோயறிதல் கருவி அல்லது தானியங்கி கார் போல சட்டம் பார்க்காது. ஐரோப்பிய ஒன்றியம் இதற்கான தரநிலையை அமைத்துள்ளது. சமூகத்திற்கு ஏற்படக்கூடிய பாதிப்பின் அடிப்படையில் AI-ஐ நான்கு வகைகளாகப் பிரிக்கின்றனர். தடைசெய்யப்பட்ட சிஸ்டம்கள் தெளிவான பாதிப்பை ஏற்படுத்துபவை மற்றும் முற்றிலும் தடை செய்யப்படுபவை. இதில் குடிமக்களைக் கண்காணிக்கப் பயன்படுத்தப்படும் சோஷியல் ஸ்கோரிங் சிஸ்டம்கள் அடங்கும். பொது இடங்களில் சட்ட அமலாக்க அமைப்புகள் பயோமெட்ரிக் அடையாளத்தைப் பயன்படுத்துவதும் இதில் அடங்கும். உயர்-அபாய சிஸ்டம்கள் அதிகக் கண்காணிப்புக்கு உள்ளாகும். இவை முக்கியமான உள்கட்டமைப்பு, கல்வி மற்றும் வேலைவாய்ப்பில் பயன்படுத்தப்படுகின்றன. ஒரு AI வேலை அல்லது கடனைத் தீர்மானித்தால், அது வெளிப்படையானதாக இருக்க வேண்டும். அதற்கு மனித மேற்பார்வை மற்றும் அதிக துல்லியம் தேவை. சாட்பாட்கள் போன்ற குறைந்த அபாய சிஸ்டம்களுக்கு விதிகள் குறைவு, ஆனால் அவை பயனரிடம் தாங்கள் ஒரு மெஷின் என்பதைத் தெரிவிக்க வேண்டும். வீடியோ கேம்களில் உள்ள AI எதிரிகள் போன்ற மிகக் குறைந்த அபாய சிஸ்டம்கள் பெரும்பாலும் கண்டுகொள்ளப்படுவதில்லை. இந்த கட்டமைப்பு முன்னேற்றத்தைத் தடுக்காமல் உரிமைகளைப் பாதுகாக்க வடிவமைக்கப்பட்டுள்ளது. இருப்பினும், இந்த வகைகளின் வரையறைகள் இன்னும் விவாதிக்கப்படுகின்றன. ஒருவருக்கு எளிய பரிந்துரையாகத் தெரிவது, மற்றவருக்கு உளவியல் ரீதியான கையாளுதலாகத் தெரியலாம். விதிகள் ஒரு எல்லையை வரையறுக்க முயல்கின்றன, ஆனால் தொழில்நுட்பம் வளர வளர அந்த எல்லை மாறிக்கொண்டே இருக்கிறது.
ஐரோப்பிய நாடாளுமன்றம் இந்த வகைகளை EU AI Act குறித்த சமீபத்திய விளக்கங்களில் விவரித்துள்ளது. இந்த ஆவணம் AI நிர்வாகத்தைப் பற்றி உலகம் சிந்திக்கும் விதத்திற்கு அடித்தளமாக அமைகிறது. இது சுருக்கமான அச்சங்களிலிருந்து நிறுவனங்கள் கடைபிடிக்க வேண்டிய நடைமுறைத் தேவைகளுக்கு உரையாடலை மாற்றுகிறது.
உலகளாவிய தரப்படுத்தல் போட்டி
இந்த விதிகள் ஐரோப்பாவோடு நின்றுவிடவில்லை. நாம் *Brussels Effect*-ன் எழுச்சியை நிகழ்நேரத்தில் காண்கிறோம். ஒரு பெரிய சந்தை விதிகளை அமைக்கும்போது, மற்றவர்கள் அதைப் பின்பற்ற வேண்டிய கட்டாயம் ஏற்படுகிறது. ஒரு குளோபல் நிறுவனம் பாரிஸிற்கு ஒரு மாடலையும், நியூயார்க்கிற்கு வேறொன்றையும் உருவாக்காது. அவர்கள் மிகக் கடுமையான தரநிலையின்படி உருவாக்குவார்கள். இதனால்தான் EU கட்டமைப்பு ஒரு உலகளாவிய டெம்ப்ளேட்டாக மாறுகிறது. பிரேசில் மற்றும் கனடா போன்ற நாடுகள் ஏற்கனவே ஐரோப்பிய அணுகுமுறையைப் பிரதிபலிக்கும் சட்டங்களை உருவாக்கி வருகின்றன. அமெரிக்காவும் அதிகக் கட்டுப்பாட்டை நோக்கி நகர்கிறது. வெள்ளை மாளிகை வெளியிட்ட நிர்வாக உத்தரவு, சக்திவாய்ந்த மாடல்களை உருவாக்குபவர்கள் தங்கள் பாதுகாப்பு சோதனை முடிவுகளை அரசாங்கத்துடன் பகிர்ந்து கொள்ள வேண்டும் என்று கூறுகிறது. இது சிதறிய ஆனால் ஒன்றிணையும் ஒழுங்குமுறை உலகத்தை உருவாக்குகிறது. நிறுவனங்கள் இப்போது புதிய தேவைகளைப் படிக்கவே வழக்கறிஞர்களை நியமிக்க வேண்டும். வளர்ந்து வரும் சந்தைகளில் உள்ள சிறிய ஸ்டார்ட்அப்களுக்கு இந்த விதிகளைப் பின்பற்றுவது கடினமாக இருக்கலாம். இது மிகப்பெரிய டெக் நிறுவனங்கள் மட்டுமே இணக்கமாக இருக்கக்கூடிய உலகிற்கு வழிவகுக்கும். இது ஒரு உயர்-அபாய விளையாட்டு. AI பாதுகாப்பு குறித்த US Executive Order, சுய-ஒழுங்குமுறை காலம் முடிந்துவிட்டதைக் காட்டுகிறது.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.
இணக்கமான அலுவலகத்தில் ஒரு நாள்
அலெக்ஸ் என்ற புரோடக்ட் மேனேஜரை கற்பனை செய்து பாருங்கள். அவர் மனித வளங்களுக்கான AI டூல்களை உருவாக்கும் ஸ்டார்ட்அப்பில் பணிபுரிகிறார். புதிய விதிகளுக்கு முன்பு, அவர் ஒவ்வொரு வெள்ளிக்கிழமையும் ஒரு அப்டேட்டை வெளியிடுவார். இப்போது, செயல்முறை மிகவும் மெதுவாக உள்ளது. ஒவ்வொரு புதிய அம்சமும் ஒரு கடுமையான அபாய மதிப்பீட்டிற்குப் பிறகுதான் கோட் செய்யப்படுகிறது. அலெக்ஸ் பயிற்சித் தரவை ஆவணப்படுத்தி, அது பாரபட்சமற்றது என்பதை நிரூபிக்க வேண்டும். அவர் மாடல் முடிவுகளை எடுக்கும் விதத்தைப் பற்றிய விரிவான பதிவுகளை வைத்திருக்க வேண்டும். இது டெவலப்மென்ட் சுழற்சியில் வாரங்களைச் சேர்க்கிறது. ஒரு செவ்வாய்க்கிழமை, அலெக்ஸ் கோட் செய்வதில்லை அல்லது புதிய அம்சங்களைப் பற்றி சிந்திப்பதில்லை. அவர் மாடல் கார்டுகளை ஆய்வு செய்ய ஒரு இணக்க அதிகாரியைச் சந்திக்கிறார். API லாகுகள் வெளிப்படைத்தன்மை மற்றும் டேட்டா தக்கவைப்புக்கான புதிய தரநிலைகளைச் சந்திக்கிறதா என்று அவர்கள் சரிபார்க்கிறார்கள். இது பாதுகாப்பால் ஏற்படும் உராய்வு. பயனருக்கு, இது புதிய அம்சங்கள் மெதுவாக வருவதைக் குறிக்கலாம். ஆனால், ஒரு பிளாக் பாக்ஸ் அல்காரிதத்தால் வேலை கிடைக்காமல் போவதற்கான வாய்ப்பு குறைகிறது. மக்கள் இந்த விதிகள் கண்டுபிடிப்புகளை நிறுத்திவிடும் என்று மிகைப்படுத்திக் கருதுகின்றனர். உண்மையில், அது வடிவத்தை மட்டுமே மாற்றும். மக்கள் இந்தச் சட்டங்களின் சிக்கலான தன்மையையும் குறைத்து மதிப்பிடுகின்றனர். இது பாரபட்சத்தைத் தவிர்ப்பது மட்டுமல்ல, டேட்டா இறையாண்மை மற்றும் ஆற்றல் பயன்பாடு பற்றியது. முரண்பாடுகள் எல்லா இடங்களிலும் உள்ளன. AI வேகமாகவும் சக்திவாய்ந்ததாகவும் இருக்க வேண்டும் என்று நாம் விரும்புகிறோம், ஆனால் அது மெதுவாகவும் கவனமாகவும் இருக்க வேண்டும் என்றும் விரும்புகிறோம். அலெக்ஸ் ஒவ்வொரு வாரமும் பல குறிப்பிட்ட பணிகளைக் கையாள வேண்டும்:
- அனைத்து பயிற்சித் தொகுப்புகளும் சட்டப்பூர்வமாகப் பெறப்பட்டவை என்பதை உறுதிப்படுத்த டேட்டா ஆதாரங்களை ஆய்வு செய்தல்.
- ஒவ்வொரு புதிய மாடல் மறு செய்கையிலும் பாரபட்சத்தைக் கண்டறியும் ஸ்கிரிப்ட்களை இயக்குதல்.
- பெரிய மாடல்களைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் கம்ப்யூட் வளங்களை ஆவணப்படுத்துதல்.
- கட்டாய AI வெளிப்பாடுகளைச் சேர்க்க பயனர் இடைமுகத்தைப் புதுப்பித்தல்.
- நிறுவனத்தின் பாதுகாப்பு நெறிமுறைகளின் மூன்றாம் தரப்பு தணிக்கைகளை நிர்வகித்தல்.
நாளின் முடிவில், அலெக்ஸ் இந்த புதிய விதிகளின் எடையை உணர்கிறார். இவை நியாயத்திற்கு முக்கியம் என்று அவருக்குத் தெரியும். ஆனால், குறைவான விதிகளைக் கொண்ட நாடுகளில் உள்ள அவரது போட்டியாளர்கள் வேகமாகச் செயல்படுகிறார்கள் என்பதும் அவருக்குத் தெரியும். அவரது ஸ்டார்ட்அப் இந்த நெறிமுறைச் செலவைச் சமாளிக்குமா என்று அவர் வியக்கிறார். இது ஆயிரக்கணக்கான டெவலப்பர்களின் யதார்த்தம். இந்த மாற்றங்கள் தொழில்துறையை எவ்வாறு பாதிக்கின்றன என்பதைப் பற்றி மேலும் அறிய, எங்கள் சமீபத்திய AI கொள்கை பகுப்பாய்வைப் பார்க்கவும். சட்டத் துறைக்கு இன்ஜினியரிங் துறைக்கு இணையான அதிகாரம் கிடைப்பதை நாம் காண்கிறோம்.
புதிய ஒழுங்குமுறை அமைப்புகளுக்கான கடினமான கேள்விகள்
இந்த விதிகளால் உண்மையில் பயனடைவது யார்? பொதுமக்களா அல்லது சட்டக் கட்டணங்களைச் செலுத்தக்கூடிய பெரிய டெக் நிறுவனங்களா? ஒரு ஸ்டார்ட்அப் தனது நிதியில் பாதியை இணக்கத்திற்காகச் செலவிட வேண்டியிருந்தால், அது போட்டியை அழித்துவிடுமா? தனியுரிமையின் மறைமுகச் செலவுகள் குறித்தும் நாம் கேட்க வேண்டும். ஒவ்வொரு மாடலும் தணிக்கை செய்யப்பட வேண்டும் என்றால், யார் தணிக்கை செய்வது? ஒவ்வொரு பெரிய AI-ன் உள் செயல்பாடுகளை அணுக அரசு நிறுவனத்தை நாம் நம்புகிறோமா? உலகளாவிய சமத்துவமின்மை குறித்த கேள்வியும் உள்ளது. மேற்கத்திய நாடுகள் விதிகளை அமைத்தால், குளோபல் சவுத் என்னவாகும்? அவர்கள் தங்கள் உள்ளூர் தேவைகளுக்குப் பொருந்தாத தரநிலைகளை ஏற்க வேண்டிய கட்டாயத்தில் இருப்பார்களா? இந்த விதிகள் நம்மைப் பாதுகாப்பானதாக்குகின்றனவா அல்லது உண்மையான அபாயங்கள் டார்க் வெப்-க்கு நகரும்போது ஒரு போலி பாதுகாப்பு உணர்வை உருவாக்குகின்றனவா? ஒவ்வொரு மாதமும் மாறும் தொழில்நுட்பத்துடன் ஒரு சட்டம் ஈடுகொடுக்க முடியுமா என்று நாம் கேட்க வேண்டும். கோட் மற்றும் சட்டத்திற்கு இடையிலான இடைவெளிதான் பல தவறுகள் நடக்கும் இடம். ஐக்கிய நாடுகள் சபையின் AI ஆலோசனைக் குழு இந்த உலகளாவிய இடைவெளிகளைச் சரிசெய்ய முயல்கிறது, ஆனால் ஒருமித்த கருத்து கிடைப்பது கடினம். நாம் பாதுகாப்பை விரும்புகிறோம், ஆனால் அதிகப்படியான கட்டுப்பாட்டை அஞ்சுகிறோம். நாம் கண்டுபிடிப்புகளை விரும்புகிறோம், ஆனால் நமக்கு முழுமையாகப் புரியாத ஒரு அமைப்பின் விளைவுகளை அஞ்சுகிறோம். இந்தக் கேள்விகளுக்கு எளிதான பதில்கள் இல்லை, தற்போதைய சட்டங்கள் அவற்றைக் கண்டறிவதற்கான முதல் முயற்சி மட்டுமே.
இணக்கத்தின் தொழில்நுட்ப கட்டமைப்பு
பவர் யூசர்கள் மற்றும் டெவலப்பர்களுக்கு, விதிகள் மிகவும் குறிப்பிட்டவை. அமெரிக்க நிர்வாக உத்தரவு அபாயத்திற்கான ஒரு காரணியாக கம்ப்யூட் பவரை மையமாகக் கொண்டுள்ளது. ஒரு மாடல் 10^26 மிதக்கும் புள்ளி செயல்பாடுகளுக்கு மேல் பயிற்சியளிக்கப்பட்டால், அது கட்டாய அறிக்கையிடல் தேவையைத் தூண்டுகிறது. இது மிகப்பெரிய கம்ப்யூட் அளவு, ஆனால் ஹார்டுவேர் மேம்படும்போது, பல மாடல்கள் இந்த எல்லையை எட்டும். டெவலப்பர்கள் டேட்டா ஆதாரங்களைப் பற்றியும் கவலைப்பட வேண்டும். நீங்கள் இனி இணையத்திலிருந்து டேட்டாவை ஸ்கிராப் செய்துவிட்டு சிறந்ததை எதிர்பார்க்க முடியாது. டேட்டாவைப் பயன்படுத்த உங்களுக்கு உரிமை உண்டு என்பதை நீங்கள் நிரூபிக்க வேண்டும். ரெட்-டீமிங்கிற்கான புதிய தரநிலைகளும் உள்ளன. இதில் உங்கள் AI-ஐ உடைக்க முயற்சி செய்ய நீங்கள் ஆட்களை நியமிக்கிறீர்கள். இந்தச் சோதனைகளின் முடிவுகள் இப்போது ஆவணப்படுத்தப்பட்டு ஒழுங்குமுறை அமைப்புகளுடன் பகிரப்பட வேண்டும். API வழங்குநர்களும் புதிய வரம்புகளை எதிர்கொள்கின்றனர். தவறான கைகளில் AI சிக்காமல் இருக்க அவர்கள் தங்கள் வாடிக்கையாளர்களின் அடையாளத்தைச் சரிபார்க்க வேண்டியிருக்கலாம். மாடல்களின் உள்ளூர் சேமிப்பு மற்றொரு கவலைக்குரிய பகுதி. ஒரு மாடல் லேப்டாப்பில் இயங்கும் அளவுக்குச் சிறியதாக இருந்தால், இந்த விதிகளை எப்படி அமல்படுத்துவது? இதற்கான பதில் பெரும்பாலும் ஹார்டுவேர்-நிலை கட்டுப்பாடுகள் அல்லது AI-உருவாக்கிய உள்ளடக்கத்திற்கு கட்டாய வாட்டர்மார்க்கிங் மூலம் கிடைக்கிறது. நீங்கள் இப்போது பின்வரும் தொழில்நுட்பத் தேவைகளைக் கருத்தில் கொள்ள வேண்டும்:
- அனைத்து மாடல் பயிற்சி அமர்வுகளுக்கும் வலுவான லாகிங் முறையைச் செயல்படுத்துதல்.
- உரை மற்றும் பட வெளியீடுகளை வாட்டர்மார்க் செய்ய தானியங்கி கருவிகளை உருவாக்குதல்.
- மூன்றாம் தரப்பு மாடல் தணிக்கைகளுக்கு பாதுகாப்பான சூழலை அமைத்தல்.
- API ரேட் லிமிட்கள் பாதுகாப்பு வடிகட்டிகளைத் தவிர்க்கவில்லை என்பதை உறுதிப்படுத்துதல்.
- மனித-ஈடுபாடுள்ள தலையீடுகளின் விரிவான பதிவுகளைப் பராமரித்தல்.
இந்தத் தேவைகள் ஒரு டெவலப்பரின் பணிப்பாய்வுகளை மாற்றுகின்றன. இது இனி துல்லியம் அல்லது வேகத்தை மேம்படுத்துவது பற்றியது அல்ல. இது ஆரம்பத்திலிருந்தே தணிக்கை செய்யக்கூடிய ஒரு அமைப்பை உருவாக்குவது பற்றியது. இது உள்கட்டமைப்பில் அதிக நேரத்தையும், முக்கிய அல்காரிதத்தில் குறைந்த நேரத்தையும் செலவிடுவதைக் குறிக்கிறது.
முடிக்கப்படாத கட்டமைப்பு
சுருக்கமாகச் சொன்னால், செயற்கை நுண்ணறிவுக்கான ‘வேகமாக நகர்ந்து விஷயங்களை உடைக்கும்’ காலம் முடிந்துவிட்டது. நாம் ‘கவனமாக நகர்ந்து அனைத்தையும் ஆவணப்படுத்தும்’ காலத்திற்குள் நுழைகிறோம். விதிகள் இன்னும் எழுதப்படுகின்றன, அவை இன்னும் முழுமையடையவில்லை. அவை பாதுகாப்பு, லாபம் மற்றும் தேசிய பாதுகாப்புக்கு இடையிலான ஒரு குழப்பமான சமரசம். ஒரு பெரிய கேள்வி இன்னும் திறந்தே உள்ளது: ஒரு மையப்படுத்தப்பட்ட சட்டம் ஒரு பரவலாக்கப்பட்ட தொழில்நுட்பத்தை உண்மையிலேயே கட்டுப்படுத்த முடியுமா? ஓப்பன்-சோர்ஸ் மாடல்கள் தொடர்ந்து மேம்படுவதால், ஒழுங்குபடுத்தப்பட்டதற்கும் சாத்தியமானதற்கும் இடையிலான இடைவெளி வளரும். இது கதையின் முடிவு அல்ல. இது ஆரம்பத்தின் முடிவு மட்டுமே. விதிமுறை புத்தகம் உருவாகத் தொடங்குகிறது, ஆனால் மை இன்னும் காயவில்லை. வரும் மாதங்களில் இந்தச் சட்டங்கள் எவ்வாறு அமல்படுத்தப்படுகின்றன மற்றும் தொழில்துறை எவ்வாறு மாறுகிறது என்பதை நாம் பார்ப்போம். நாம் AI-ஐ உருவாக்கும் மற்றும் பயன்படுத்தும் விதம் இனி எப்போதும் ஒரே மாதிரியாக இருக்காது என்பது மட்டுமே நிச்சயம்.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.