நீங்கள் கவனிக்க வேண்டிய மிக முக்கியமான AI சட்டங்கள் மற்றும் விதிமுறைகள்
கட்டுப்பாடற்ற செயற்கை நுண்ணறிவு (AI) காலம் முடிவுக்கு வந்துவிட்டது. உலகம் முழுவதும் உள்ள அரசாங்கங்கள் தெளிவற்ற ஆலோசனைகளிலிருந்து கடுமையான அபராதங்களுடன் கூடிய சட்டங்களை நோக்கி நகர்கின்றன. நீங்கள் மென்பொருளை உருவாக்கினாலும் அல்லது பயன்படுத்தினாலும், உங்கள் காலடியில் விதிகள் மாறிக்கொண்டிருக்கின்றன. இது வெறும் அறநெறி சார்ந்த விஷயம் மட்டுமல்ல; இது சட்டப்பூர்வ இணக்கம் மற்றும் பல பில்லியன் அபராதங்கள் குறித்த அச்சுறுத்தல். ஐரோப்பிய ஒன்றியம் முதல் பெரிய விரிவான சட்டத்துடன் முன்னணியில் உள்ளது, ஆனால் அமெரிக்காவும் சீனாவும் பின்தங்கியிருக்கவில்லை. இந்த விதிகள் நீங்கள் எந்தெந்த அம்சங்களைப் பயன்படுத்தலாம் மற்றும் நிறுவனங்கள் உங்கள் தரவை எவ்வாறு கையாளும் என்பதைத் தீர்மானிக்கும். இது வழக்கறிஞர்களுக்கான தொலைதூரப் பிரச்சனை என்று பெரும்பாலான மக்கள் நினைக்கிறார்கள். அவர்கள் தவறு செய்கிறார்கள். நீங்கள் வேலைக்கு விண்ணப்பிப்பது முதல் உங்கள் சமூக ஊடக ஃபீட் (feed) எவ்வாறு தரவரிசைப்படுத்தப்படுகிறது என்பது வரை அனைத்தையும் இது பாதிக்கிறது. கடந்த காலத்தின் திறந்த இணையத்தை விட, வங்கி அல்லது மருத்துவம் போன்ற ஒழுங்குபடுத்தப்பட்ட ஒரு துறையின் பிறப்பை நாம் காண்கிறோம். இந்த மாற்றம் அடுத்த தசாப்தத்தின் தொழில்நுட்ப வளர்ச்சி மற்றும் கார்ப்பரேட் உத்தியை வரையறுக்கும். அரசாங்கத்தின் அறைகளிலிருந்து உங்கள் ஆப்ஸ்களில் உள்ள குறியீட்டிற்கு (code) நகரும் குறிப்பிட்ட கட்டளைகளைப் பார்க்க வேண்டிய நேரம் இது.
செயற்கை நுண்ணறிவு மேற்பார்வையை நோக்கிய உலகளாவிய மாற்றம்
தற்போதைய ஒழுங்குமுறையின் மையப்பகுதி ஐரோப்பிய ஒன்றியத்தின் AI சட்டம் (EU AI Act) ஆகும். இந்தச் சட்டம் அனைத்து மென்பொருளையும் ஒரே மாதிரியாக நடத்துவதில்லை. எது அனுமதிக்கப்படுகிறது மற்றும் எது இல்லை என்பதைத் தீர்மானிக்க இது இடர் சார்ந்த கட்டமைப்பைப் பயன்படுத்துகிறது. பிரமிட்டின் உச்சியில் தடைசெய்யப்பட்ட அமைப்புகள் உள்ளன. பொது இடங்களில் நிகழ்நேர பயோமெட்ரிக் அடையாளம் காணுதல் அல்லது அரசாங்கங்களின் சமூக ஸ்கோரிங் போன்றவை இதில் அடங்கும். இவை குடிமை உரிமைகளுக்கு அதிக ஆபத்தை ஏற்படுத்துவதால் எளிமையாகத் தடை செய்யப்பட்டுள்ளன. அதற்கு கீழே அதிக ஆபத்துள்ள அமைப்புகள் உள்ளன. இந்தக் பிரிவில் கல்வி, வேலைவாய்ப்பு அல்லது முக்கியமான உள்கட்டமைப்பில் பயன்படுத்தப்படும் AI அடங்கும். ஒரு நிறுவனம் விண்ணப்பங்களைச் சரிபார்க்க ஒரு கருவியை உருவாக்கினால், அது பாரபட்சமற்றது என்பதை அவர்கள் நிரூபிக்க வேண்டும். அவர்கள் விரிவான பதிவுகளை வைத்திருக்க வேண்டும் மற்றும் மனித மேற்பார்வையை வழங்க வேண்டும். இந்தச் சட்டம் பொது நோக்கத்திற்கான மாடல்களையும் (general purpose models) குறிவைக்கிறது. இந்த மாடல்கள் எவ்வாறு பயிற்சியளிக்கப்பட்டன என்பது குறித்து வெளிப்படையாக இருக்க வேண்டும். அவர்கள் பதிப்புரிமைச் சட்டங்களை மதிக்க வேண்டும் மற்றும் பயிற்சிக்காகப் பயன்படுத்தப்படும் தரவைச் சுருக்க வேண்டும். இரண்டு ஆண்டுகளுக்கு முன்பு மாடல்கள் உருவாக்கப்பட்ட ரகசியமான முறையிலிருந்து இது ஒரு பெரிய மாற்றமாகும்.
அமெரிக்காவில், அணுகுமுறை வேறுபட்டது ஆனால் சமமான முக்கியத்துவம் வாய்ந்தது. வெள்ளை மாளிகை ஒரு நிர்வாக உத்தரவை (Executive Order) வெளியிட்டது, இது சக்திவாய்ந்த அமைப்புகளை உருவாக்குபவர்கள் தங்கள் பாதுகாப்பு சோதனை முடிவுகளை அரசாங்கத்துடன் பகிர்ந்து கொள்ள வேண்டும் என்று கோருகிறது. AI ஒரு தேசிய பாதுகாப்பு அச்சுறுத்தலாக மாறாமல் இருப்பதை உறுதி செய்ய இது பாதுகாப்பு உற்பத்திச் சட்டத்தைப் (Defense Production Act) பயன்படுத்துகிறது. இது காங்கிரஸால் நிறைவேற்றப்பட்ட சட்டம் அல்ல, ஆனால் இது கூட்டாட்சி கொள்முதல் மற்றும் மேற்பார்வையின் எடையைக் கொண்டுள்ளது. இது ரெட்-டீமிங் (red-teaming) மீது கவனம் செலுத்துகிறது, இது ஒரு அமைப்பின் பலவீனங்கள் அல்லது தீங்கு விளைவிக்கும் வெளியீடுகளுக்காகச் சோதிக்கும் நடைமுறையாகும். சீனாவில் உள்ளடக்கத்தின் உண்மைத்தன்மை மற்றும் சமூக ஒழுங்கைப் பாதுகாப்பதில் கவனம் செலுத்தும் அதன் சொந்த விதிகள் உள்ளன. முறைகள் வேறுபட்டாலும், இலக்கு ஒன்றுதான். அரசாங்கங்கள் தாங்கள் எதிர்பார்த்ததை விட வேகமாக நகர்ந்த தொழில்நுட்பத்தின் மீது கட்டுப்பாட்டை மீண்டும் பெற விரும்புகின்றன. குறிப்பிட்ட தேவைகள் குறித்த கூடுதல் விவரங்களை அதிகாரப்பூர்வ ஐரோப்பிய ஆணையத்தின் AI சட்ட ஆவணங்களில் நீங்கள் காணலாம். உலகளாவிய அளவில் செயல்பட விரும்பும் எந்தவொரு நிறுவனத்திற்கும் இந்த விதிகள் புதிய அடிப்படைத் தரமாகும்.
இந்தச் சட்டங்கள் அவற்றை இயற்றும் நாடுகளின் எல்லைகளுக்கு அப்பால் நீண்ட தூரம் பரவியுள்ளன. இது பெரும்பாலும் *பிரஸ்ஸல்ஸ் விளைவு* (Brussels Effect) என்று அழைக்கப்படுகிறது. ஒரு பெரிய தொழில்நுட்ப நிறுவனம் தனது மென்பொருளை ஐரோப்பாவில் விற்க விரும்பினால், அது ஐரோப்பிய ஒன்றிய விதிகளுக்கு இணங்க வேண்டும். ஒவ்வொரு நாட்டிற்கும் வெவ்வேறு பதிப்புகளை உருவாக்குவதற்குப் பதிலாக, பெரும்பாலான நிறுவனங்கள் மிகக் கடுமையான விதிகளைத் தங்கள் முழு உலகளாவிய தயாரிப்புக்கும் பயன்படுத்தும். இதன் பொருள் பிரஸ்ஸல்ஸில் நிறைவேற்றப்பட்ட ஒரு சட்டம் கலிபோர்னியாவில் உள்ள ஒரு டெவலப்பருக்கு அல்லது டோக்கியோவில் உள்ள ஒரு பயனருக்குச் சட்டமாகிறது. இது பாதுகாப்பு மற்றும் வெளிப்படைத்தன்மைக்கான உலகளாவிய அடித்தளத்தை உருவாக்குகிறது. இருப்பினும், இது சில அம்சங்கள் சில பிராந்தியங்களில் வெறுமனே முடக்கப்படும் ஒரு துண்டு துண்டான உலகத்தையும் உருவாக்குகிறது. இது ஏற்கனவே நடப்பதை நாம் காண்கிறோம். சில நிறுவனங்கள் ஐரோப்பாவில் மேம்பட்ட அம்சங்களைத் தொடங்குவதைத் தாமதப்படுத்தியுள்ளன, ஏனெனில் சட்ட ஆபத்து மிக அதிகமாக உள்ளது. இது ஒரு டிஜிட்டல் பிளவை உருவாக்குகிறது, அங்கு அமெரிக்காவில் உள்ள பயனர்கள் பிரான்சில் உள்ள பயனர்களுக்கு இல்லாத கருவிகளை அணுகலாம். படைப்பாளர்களுக்கு, இதன் பொருள் அவர்களின் பணி அனுமதியின்றி பயிற்சித் தரவாகப் பயன்படுத்தப்படாமல் சிறப்பாகப் பாதுகாக்கப்படுகிறது. அரசாங்கங்களுக்கு, நம்பகமான தொழில்நுட்பத்திற்கான உலகளாவிய மையமாக யார் மாற முடியும் என்பதைப் பார்ப்பதற்கான பந்தயம் இது. இதில் அதிக ஆபத்துகள் உள்ளன. ஒரு நாடு அதிகப்படியான ஒழுங்குமுறை செய்தால், அது தனது சிறந்த திறமையை இழக்கக்கூடும். அது குறைவாக ஒழுங்குபடுத்தினால், அது தனது குடிமக்களின் பாதுகாப்பை ஆபத்தில் ஆழ்த்துகிறது. இந்த பதற்றம் உலகளாவிய தொழில்நுட்ப பொருளாதாரத்திற்கு புதிய இயல்பாகும். இந்த மாற்றங்களை AI குறித்த வெள்ளை மாளிகை நிர்வாக உத்தரவு மூலம் நீங்கள் கண்காணிக்கலாம், இது கண்டுபிடிப்பு மற்றும் பாதுகாப்பை சமநிலைப்படுத்துவதற்கான அமெரிக்க உத்தியை கோடிட்டுக் காட்டுகிறது.
மார்கஸ் என்ற மென்பொருள் பொறியாளரின் வாழ்க்கையில் ஒரு நாளைக் கவனியுங்கள். இரண்டு ஆண்டுகளுக்கு முன்பு, மார்கஸ் இணையத்திலிருந்து ஒரு தரவுத்தொகுப்பை எடுத்து ஒரே வார இறுதியில் ஒரு மாடலைப் பயிற்றுவிக்க முடியும். அவர் யாரிடமும் அனுமதி கேட்க வேண்டியதில்லை. இன்று, அவரது காலை ஒரு இணக்கக் கூட்டத்துடன் தொடங்குகிறது. அவர் தனது பயிற்சித் தொகுப்பில் உள்ள ஒவ்வொரு படத்தின் ஆதாரத்தையும் ஆவணப்படுத்த வேண்டும். குறிப்பிட்ட ஜிப் குறியீடுகளுக்கு எதிராக மாடல் பாகுபாடு காட்டவில்லை என்பதை உறுதிப்படுத்த அவர் சோதனைகளைச் செய்ய வேண்டும். அவரது நிறுவனம் ஒரு புதிய தலைமை AI இணக்க அதிகாரியை (Chief AI Compliance Officer) பணியமர்த்தியுள்ளது, அவர் எந்தவொரு வெளியீட்டையும் நிறுத்தும் அதிகாரத்தைக் கொண்டுள்ளார். இது செயல்பாட்டு உண்மை. இது இனி குறியீடு பற்றியது மட்டுமல்ல. இது தணிக்கை பாதை (audit trail) பற்றியது. மார்கஸ் தனது நேரத்தின் முப்பது சதவீதத்தை பயனர்களுக்கான அம்சங்களை எழுதுவதற்குப் பதிலாக, கட்டுப்பாட்டாளர்களுக்காக அறிக்கைகளை எழுதுவதில் செலவிடுகிறார். இது புதிய ஒழுங்குமுறை காலத்தின் மறைமுக வரி. சராசரி பயனருக்கு, தாக்கம் மிகவும் நுட்பமானது ஆனால் ஆழமானது. நீங்கள் கடனுக்கு விண்ணப்பிக்கும்போது, AI உங்களை ஏன் நிராகரித்தது என்பதை வங்கி விளக்க முடியும். உங்களுக்கு விளக்கம் கேட்க உரிமை உண்டு. இது தானியங்கி முடிவெடுக்கும் பிளாக் பாக்ஸ் (black box) காலத்தை முடிவுக்குக் கொண்டுவருகிறது. இந்தச் சட்டங்கள் பிழைகளை எவ்வளவு விரைவாக நிறுத்தும் என்பதை மக்கள் மிகைப்படுத்திக் கூறுகிறார்கள். புதிய அம்சங்களின் வெளியீட்டை இந்தச் சட்டங்கள் எவ்வளவு மெதுவாக்கும் என்பதை அவர்கள் குறைத்து மதிப்பிடுகிறார்கள். பீட்டா மென்பொருள் உலகத்திலிருந்து சான்றளிக்கப்பட்ட மென்பொருள் உலகத்திற்கு நாம் நகர்கிறோம். இது மிகவும் நிலையான தயாரிப்புகளுக்கு வழிவகுக்கும், ஆனால் தீவிரமான முன்னேற்றங்கள் குறைவாகவே இருக்கும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
தொழில்துறைக்கான நடைமுறை மாற்றங்கள்
- குறிப்பிட்ட கம்ப்யூட்டிங் பவர் வரம்புகளை மீறும் எந்தவொரு மாடலுக்கும் கட்டாய பாதுகாப்பு சோதனை.
- தங்கள் சட்ட நிலையைப் பாதிக்கும் எந்தவொரு தானியங்கி முடிவிற்கும் விளக்கம் பெற பயனர்களுக்கு உரிமை.
- பயிற்சித் தொகுப்புகளில் தரவு லேபிளிங் மற்றும் பதிப்புரிமை வெளிப்பாட்டிற்கான கடுமையான தேவைகள்.
- ஒரு நிறுவனத்தின் மொத்த உலகளாவிய வருவாயில் ஏழு சதவீதம் வரை அடையக்கூடிய கடுமையான அபராதங்கள்.
- இணக்கத்தை கண்காணிக்கவும் புகார்களை விசாரிக்கவும் தேசிய AI அலுவலகங்களை உருவாக்குதல்.
இந்த விதிகள் உண்மையில் பொதுமக்களைப் பாதுகாக்கின்றனவா அல்லது சக்திவாய்ந்தவர்களைப் பாதுகாக்கின்றனவா என்று நாம் கேட்க வேண்டும். நானூறு பக்க ஒழுங்குமுறை ஒரு சிறிய ஸ்டார்ட்அப்பிற்கு (startup) உதவுகிறதா, அல்லது பில்லியன் டாலர் சட்டக் குழுக்களைக் கொண்ட நிறுவனங்கள் மட்டுமே உயிர்வாழ முடியும் என்பதை இது உறுதிப்படுத்துகிறதா? இணக்கத்திற்கான செலவு மிக அதிகமாக இருந்தால், தற்போதைய தொழில்நுட்ப ஜாம்பவான்களுக்கு நாம் நிரந்தர ஏகபோக உரிமையை வழங்கக்கூடும். பாதுகாப்பின் வரையறையையும் நாம் கேள்வி கேட்க வேண்டும். ஏற்றுக்கொள்ள முடியாத ஆபத்து எது என்பதை யார் தீர்மானிப்பது? ஒரு அரசாங்கம் சில வகையான AI-ஐத் தடைசெய்ய முடிந்தால், அவர்கள் அந்த அதிகாரத்தைப் பயன்படுத்தி கருத்து வேறுபாடுகளை அமைதிப்படுத்தலாம் அல்லது தகவலைக் கட்டுப்படுத்தலாம். வெளிப்படைத்தன்மைக்கும் மறைமுகமான செலவு உண்டு. ஒரு நிறுவனம் அதன் மாடல் எவ்வாறு செயல்படுகிறது என்பதைத் துல்லியமாக வெளிப்படுத்த வேண்டும் என்றால், அது மோசமான நடிகர்கள் பலவீனங்களைக் கண்டறிவதை எளிதாக்குகிறதா? நாம் வேகத்தை பாதுகாப்பிற்காக மாற்றுகிறோம், ஆனால் பாதுகாப்பானது உண்மையில் எப்படி இருக்கும் என்பதை நாம் இன்னும் வரையறுக்கவில்லை. ஒவ்வொரு ஆறு மாதங்களுக்கும் மாறும் ஒரு தொழில்துறையை, எழுத பல ஆண்டுகள் எடுக்கும் சட்டங்களுடன் ஒழுங்குபடுத்த முடியுமா? இந்த ஒழுங்குமுறை காலம் வெற்றியா அல்லது தோல்வியா என்பதைத் தீர்மானிக்கும் கேள்விகள் இவை. மை காய்வதற்கு முன்பே வழக்கற்றுப் போகும் அளவுக்குக் கடினமான ஒரு அமைப்பை உருவாக்காமல் நாம் கவனமாக இருக்க வேண்டும். சீனாவின் சைபர்ஸ்பேஸ் நிர்வாகத்தால் நிர்வகிக்கப்படும் சீனாவின் விதிகள், பாதுகாப்பு எவ்வாறு சமூக ஸ்திரத்தன்மையாக விளக்கப்படலாம் என்பதைக் காட்டுகின்றன. நாடுகள் எடுத்துக்கொள்ளும் வெவ்வேறு தத்துவப் பாதைகளை இது எடுத்துக்காட்டுகிறது. அடுத்த தலைமுறை உருவாக்குநர்களுக்குப் புதிய சிக்கல்களை உருவாக்கும் அதே வேளையில், அனைத்துப் பிரச்சனைகளையும் தீர்ப்பதாகக் கூறும் எந்தவொரு சட்டத்தையும் நாம் சந்தேகிக்க வேண்டும்.
தொழில்நுட்ப தரநிலைகள் மற்றும் இணக்க பணிப்பாய்வுகள்
தொழில்நுட்பக் கூட்டத்தைப் பொறுத்தவரை, கவனம் இணக்க ஸ்டாக் (compliance stack) நோக்கி மாறுகிறது. இதில் தரவு வம்சாவளி (data lineage) மற்றும் தானியங்கி மாடல் தணிக்கைக்கான கருவிகள் அடங்கும். டெவலப்பர்கள் டிஜிட்டல் வாட்டர்மார்க்கிங்கிற்கான C2PA தரநிலைகளைப் பார்க்கிறார்கள். இது கிராப்பிங் அல்லது மீண்டும் சேமித்தாலும் அழியாத கோப்புகளில் மெட்டாடேட்டாவை உட்பொதிப்பதை உள்ளடக்கியது. முக்கியமான தரவை உள்ளூர் சேமிப்பகத்திற்கு நகர்த்துவதும் உள்ளது. தனியுரிமை விதிகளுக்கு இணங்க, நிறுவனங்கள் சில பணிகளுக்காக மையப்படுத்தப்பட்ட கிளவுட் (cloud) செயலாக்கத்திலிருந்து விலகிச் செல்கின்றன. பயனர் தரவை சாதனத்திலேயே வைத்திருக்க அவர்கள் எட்ஜ் கம்ப்யூட்டிங் (edge computing) பயன்படுத்துகின்றனர். API வரம்புகளும் மறுவடிவமைப்பு செய்யப்படுகின்றன. இது இனி போக்குவரத்திற்கான ரேட் லிமிட்டிங் (rate limiting) பற்றியது மட்டுமல்ல. இது வன்பொருள் மட்டத்தில் சில வகையான வினவல்களைத் தடுக்கும் பாதுகாப்பு வடிப்பான்கள் பற்றியது. AI-க்கான ஊட்டச்சத்து லேபிள்களைப் போன்ற மாடல் கார்டுகளின் (Model Cards) எழுச்சியை நாம் காண்கிறோம். அவை பயிற்சித் தரவு, நோக்கம் கொண்ட பயன்பாடு மற்றும் அறியப்பட்ட வரம்புகளைப் பட்டியலிடுகின்றன. பணிப்பாய்வு கண்ணோட்டத்தில், இது தானியங்கி சோதனையை தொடர்ச்சியான ஒருங்கிணைப்பு செயல்பாட்டில் (continuous integration process) ஒருங்கிணைப்பதைக் குறிக்கிறது. ஒவ்வொரு முறை மாடல் புதுப்பிக்கப்படும்போதும், அது பயன்படுத்தப்படுவதற்கு முன்பு சார்பு மற்றும் பாதுகாப்பிற்கான சோதனைகளைத் தேர்ச்சி பெற வேண்டும். இது மேம்பாட்டு சுழற்சியில் தாமதத்தை சேர்க்கிறது ஆனால் சட்ட பேரழிவின் அபாயத்தைக் குறைக்கிறது. பயிற்சியளிக்கப்பட்ட மாடல்களுக்கான தரவு நீக்குதல் கோரிக்கைகளை எவ்வாறு கையாள்வது என்பதையும் நிறுவனங்கள் பார்க்கின்றன, இது ஒரு குறிப்பிடத்தக்க தொழில்நுட்ப சவாலாகும். ஒரு பயனர் தனது தரவை நீக்கக் கோரினால், அந்தத் தரவை நியூரல் நெட்வொர்க்கிலிருந்து (neural network) எப்படி மறக்கச் செய்வது? இங்கேதான் சட்டம் தற்போதைய கணினி அறிவியலின் வரம்புகளை சந்திக்கிறது. இந்தச் சட்டத் தேவைகளை நிர்வகிப்பதற்காகவே வடிவமைக்கப்பட்ட ஒரு புதிய வகை மென்பொருளை நாம் காண்கிறோம்.
அடுத்த ஆண்டு இந்தச் சட்டங்களின் முதல் உண்மையான சோதனையாக இருக்கும். அரசாங்க அதிகாரத்தின் வரம்புகளை வரையறுக்கும் முதல் பெரிய அபராதங்கள் மற்றும் முதல் நீதிமன்ற வழக்குகளை நாம் காண்போம். அர்த்தமுள்ள முன்னேற்றம் என்பது சிறிய நிறுவனங்கள் காகித வேலைகளில் மூழ்காமல் போட்டியிட அனுமதிக்கும் தெளிவான தரநிலைகளின் தொகுப்பாக இருக்கும். ஒரு AI பாதுகாப்பானது என்று சான்றளிக்கக்கூடிய மூன்றாம் தரப்பு தணிக்கையாளர்களின் வருகையை நாம் எதிர்பார்க்க வேண்டும். மிகைப்படுத்தல் மற்றும் பயத்தைத் தாண்டிச் செல்வதே இலக்கு. தொழில்நுட்பம் மக்களின் உரிமைகளை மீறாமல் அவர்களுக்குச் சேவை செய்யும் ஒரு அமைப்பு நமக்குத் தேவை. **EU AI Act** அமலாக்கம் கவனிக்க வேண்டிய முதன்மை சமிக்ஞையாக இருக்கும். அமலாக்கம் மிகவும் ஆக்ரோஷமாக இருந்தால், மூலதனம் மற்ற பிராந்தியங்களுக்குச் செல்வதை நாம் காணலாம். அது பலவீனமாக இருந்தால், சட்டம் காகிதப் புலியாகக் கருதப்படும். விதிகள் வந்துவிட்டன. இப்போது அவை நிஜ உலகில் உண்மையில் செயல்படுகின்றனவா என்பதை நாம் பார்க்க வேண்டும்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.