AI-ன் புதிய விதிகள்: 2026-ன் தற்போதைய நிலை
தன்னார்வ பாதுகாப்பு உறுதிமொழிகளின் காலம் முடிந்துவிட்டது. 2026-ல், சுருக்கமான நெறிமுறைகளிலிருந்து சட்டப்பூர்வமான விதிகளுக்கு மாறியிருப்பது தொழில்நுட்ப நிறுவனங்கள் செயல்படும் விதத்தை அடியோடு மாற்றியுள்ளது. பல ஆண்டுகளாக, டெவலப்பர்கள் பெரிய அளவிலான லாங்குவேஜ் மாடல்களை (large language models) மற்றும் ஜெனரேட்டிவ் டூல்களை மிக வேகமாக உருவாக்கி வெளியிட்டனர். இன்று, அந்த வேகம் ஒரு ஆபத்தாக மாறியுள்ளது. EU AI Act மற்றும் அமெரிக்காவின் புதிய நிர்வாக உத்தரவுகள் போன்ற கட்டமைப்புகள், கட்டாய தணிக்கைகள், வெளிப்படைத்தன்மை அறிக்கைகள் மற்றும் தரவு மேலாண்மை குறித்த கடுமையான விதிகளைக் கொண்டு வந்துள்ளன. ஒரு நிறுவனம் தனது மாடலில் என்ன தரவு பயன்படுத்தப்பட்டது அல்லது ஒரு முடிவு எப்படி எடுக்கப்பட்டது என்பதை நிரூபிக்க முடியாவிட்டால், அவர்கள் உலகளாவிய வருவாய்க்கு ஏற்ப அபராதங்களைச் சந்திக்க நேரிடும். இந்த மாற்றம் செயற்கை நுண்ணறிவுக்கான சோதனை காலத்தின் முடிவைக் குறிக்கிறது. இப்போது நாம் அதிக பொறுப்புள்ள காலகட்டத்தில் இருக்கிறோம், அங்கு ஒரு சிறிய அல்காரிதமிக் சார்பு பிழை கூட பன்னாட்டு விசாரணையைத் தூண்டலாம். டெவலப்பர்கள் இனி ஒரு அம்சம் சாத்தியமா என்று கேட்பதில்லை. அது சட்டப்பூர்வமானதா என்றுதான் கேட்கிறார்கள். ஆதாரங்களைச் சமர்ப்பிக்கும் பொறுப்பு பொதுமக்களிடமிருந்து உருவாக்குபவர்களுக்கு மாறியுள்ளது, மேலும் தோல்விக்கான விளைவுகள் வெறும் நற்பெயரை மட்டும் பாதிக்காமல், நிதி மற்றும் கட்டமைப்பு ரீதியான பாதிப்புகளையும் ஏற்படுத்துகின்றன.
நெறிமுறைகளிலிருந்து அமலாக்கத்திற்கு மாறிய கடினமான பாதை
தற்போதைய ஒழுங்குமுறைச் சூழலின் மையப்பகுதி அபாயத்தின் வகைப்பாடாகும். பெரும்பாலான புதிய சட்டங்கள் தொழில்நுட்பத்தை மட்டும் கட்டுப்படுத்தாமல், அதன் குறிப்பிட்ட பயன்பாட்டை ஒழுங்குபடுத்துகின்றன. ஒரு சிஸ்டம் வேலை விண்ணப்பங்களை வடிகட்டவோ, கிரெடிட் ஸ்கோரைத் தீர்மானிக்கவோ அல்லது முக்கியமான உள்கட்டமைப்பை நிர்வகிக்கவோ பயன்படுத்தப்பட்டால், அது அதிக ஆபத்துள்ளதாகக் கருதப்படுகிறது. இந்த வகைப்பாடு இரண்டு ஆண்டுகளுக்கு முன்பு இல்லாத செயல்பாட்டுத் தடைகளை உருவாக்குகிறது. நிறுவனங்கள் இப்போது விரிவான தொழில்நுட்ப ஆவணங்களைப் பராமரிக்க வேண்டும் மற்றும் தயாரிப்பின் முழு வாழ்க்கைச் சுழற்சியிலும் செயல்படும் வலுவான இடர் மேலாண்மை அமைப்பை உருவாக்க வேண்டும். இது ஒருமுறை செய்யும் சரிபார்ப்பு அல்ல. இது தொடர்ந்து கண்காணித்து அறிக்கை செய்யும் ஒரு செயல்முறை. பல ஸ்டார்ட்அப்களுக்கு, இது நுழைவுச் செலவு கணிசமாக அதிகரித்துள்ளதைக் குறிக்கிறது. ஒரு கருவி மனித உரிமைகள் அல்லது பாதுகாப்பை பாதிக்கும் என்றால், அதை வெளியிட்டுவிட்டு பிறகு பிழைகளைச் சரிசெய்ய முடியாது.
தரவு நிர்வாகத்திற்கான தேவையில் செயல்பாட்டு விளைவுகள் மிகவும் தெளிவாகத் தெரிகின்றன. பயிற்சி தரவுத்தொகுப்புகள் பொருத்தமானதாகவும், பிரதிநிதித்துவமானதாகவும், பிழையற்றதாகவும் இருக்க வேண்டும் என்று கட்டுப்பாட்டாளர்கள் கோருகின்றனர். இது கோட்பாட்டில் எளிதாகத் தெரிந்தாலும், டிரில்லியன் கணக்கான டோக்கன்களைக் கையாளும் போது நடைமுறையில் மிகவும் கடினம். 2026-ல், ஆவணப்படுத்தப்பட்ட தரவு ஆதாரம் இல்லாததால் நீதிமன்ற உத்தரவின் பேரில் மாடல்கள் நீக்கப்படும் முதல் பெரிய வழக்குகளை நாம் காண்கிறோம். இதுவே இறுதி அபராதம். மாடலின் அடிப்படை இணக்கமற்றதாகக் கருதப்பட்டால், அந்த மாடலின் முழு எடைகளும் சார்புகளும் அழிக்கப்பட வேண்டியிருக்கும். இது கொள்கையை ஒரு நிறுவனத்தின் முக்கிய அறிவுசார் சொத்துரிமைக்கு நேரடி அச்சுறுத்தலாக மாற்றுகிறது. வெளிப்படைத்தன்மை என்பது இனி ஒரு மார்க்கெட்டிங் வார்த்தை அல்ல. இது பெரிய அளவில் உருவாக்கும் எந்தவொரு நிறுவனத்திற்கும் உயிர்வாழும் பொறிமுறையாகும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
இந்த விதிகள் உண்மையில் என்ன செய்கின்றன என்பதைப் பொதுமக்களின் பார்வை பெரும்பாலும் தவறவிடுகிறது. பெரும்பாலான மக்கள் ஒழுங்குமுறை என்பது ஒரு இயந்திரம் உலகைக் கைப்பற்றுவதைத் தடுப்பது என்று நினைக்கிறார்கள். உண்மையில், இந்த விதிகள் பதிப்புரிமை மற்றும் பொறுப்புக்கூறல் போன்ற சாதாரணமான ஆனால் முக்கியமான சிக்கல்களைப் பற்றியவை. ஒரு AI அவதூறான அறிக்கையையோ அல்லது பாதுகாப்பு பாதிப்புள்ள குறியீட்டையோ உருவாக்கினால், வழங்குநரைப் பொறுப்பாக்க சட்டம் இப்போது தெளிவான வழியை வழங்குகிறது. இது