AI நிறுவனங்கள் மற்றும் பயனர்களுக்கான புதிய விதிமுறைகள் 2026
AI ஒழுங்குமுறையின் முதல் பெரிய மாற்றம் தொழில்நுட்பத்தை நிறுத்துவது பற்றியது அல்ல, மாறாக அதை வெளிச்சத்திற்குக் கொண்டுவருவது பற்றியது. பல ஆண்டுகளாக, பிரம்மாண்டமான மாடல்களைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகள் ரகசியமாகவே இருந்தன. அது இப்போது முடிவுக்கு வருகிறது. நிறுவனங்கள் மற்றும் பயனர்களுக்கான மிக உடனடி மாற்றம், வெளிப்படைத்தன்மை ஆணைகளின் (transparency mandates) வருகையாகும். இது, தங்கள் சிஸ்டம்கள் எந்தெந்த புத்தகங்கள், கட்டுரைகள் மற்றும் படங்களைப் பயன்படுத்தின என்பதை டெவலப்பர்கள் வெளிப்படுத்த வேண்டும் என்று கட்டாயப்படுத்துகிறது. இது வெறும் காகித வேலை மட்டுமல்ல; மென்பொருள் உருவாக்கப்படும் மற்றும் விற்கப்படும் விதத்தில் இது ஒரு அடிப்படை மாற்றமாகும். ஒரு நிறுவனம் தனது பயிற்சி ஆதாரங்களை மறைக்க முடியாதபோது, சட்டப்பூர்வ ஆபத்து டெவலப்பரிடமிருந்து முழு விநியோகச் சங்கிலிக்கும் மாறுகிறது. உணவுப் பொருட்களில் உள்ள சத்துக்கள் பற்றிய விவரங்களைப் போல, AI உருவாக்கிய உள்ளடக்கத்திலும் லேபிள்களைப் பயனர்கள் விரைவில் காண்பார்கள். இந்த லேபிள்கள் மாடல் பதிப்பு, தரவு ஆதாரம் மற்றும் பாதுகாப்புச் சோதனைகள் பற்றிய விவரங்களைக் கொண்டிருக்கும். இந்த மாற்றம், ‘வேகமாகச் செயல்படு, எதையும் உடைத்துவிடு’ என்ற காலத்திலிருந்து, ஆவணப்படுத்துதலுக்கு முக்கியத்துவம் அளிக்கும் காலத்திற்குத் தொழில்துறையை நகர்த்துகிறது. ஒவ்வொரு வெளியீட்டையும் சரிபார்க்கப்பட்ட ஆதாரத்துடன் இணைப்பதே இதன் நோக்கம், இதுவே தொழில்துறைக்கு புதிய பொறுப்புக்கூறல் தரநிலையாகும்.
அதிக ஆபத்துள்ள சிஸ்டம்களுக்கான புதிய விதிமுறை புத்தகம்
ஒழுங்குமுறை ஆணையங்கள் பரந்த தடைகளிலிருந்து மாறி, ஆபத்து நிலைகளின் அடிப்படையில் ஒரு சிஸ்டத்தை நோக்கி நகர்கின்றன. மிகவும் செல்வாக்கு மிக்க கட்டமைப்பான EU AI Act, பாதிப்பை ஏற்படுத்தும் திறனின் அடிப்படையில் AI-ஐ வகைப்படுத்துகிறது. வேலைவாய்ப்பு, கடன் மதிப்பீடு அல்லது சட்ட அமலாக்கத்தில் பயன்படுத்தப்படும் சிஸ்டம்கள் ‘அதிக ஆபத்துள்ளவை’ என்று முத்திரை குத்தப்படுகின்றன. நீங்கள் ரெஸ்யூம்களை ஸ்கிரீன் செய்யும் கருவியை உருவாக்கும் நிறுவனமாக இருந்தால், நீங்கள் வெறும் மென்பொருள் வழங்குநர் மட்டுமல்ல. நீங்கள் இப்போது ஒரு மருத்துவக் கருவி தயாரிப்பாளருக்கு இணையான கண்காணிப்புக்கு உட்பட்ட ஒரு ஒழுங்குபடுத்தப்பட்ட நிறுவனமாகும். அதாவது, தயாரிப்பு வாடிக்கையாளரைச் சென்றடைவதற்கு முன்பே நீங்கள் கடுமையான பாரபட்சச் சோதனைகளை (bias testing) மேற்கொள்ள வேண்டும். AI எவ்வாறு முடிவுகளை எடுக்கிறது என்பதற்கான விரிவான பதிவுகளையும் நீங்கள் பராமரிக்க வேண்டும். சாதாரண பயனரைப் பொறுத்தவரை, முக்கியமான வாழ்க்கை முடிவுகளுக்கு அவர்கள் பயன்படுத்தும் கருவிகள் அதிக கணிக்கக்கூடியவையாகவும், ‘பிளாக் பாக்ஸ்’ போல இல்லாமலும் மாறும். இந்த ஒழுங்குமுறை, மனித நடத்தையைக் கையாள அல்லது பாதிப்புகளைச் சுரண்ட AI பயன்படுத்தப்படும் ‘டார்க் பேட்டர்ன்களை’யும் குறிவைக்கிறது. இது AI-ஐ ஒரு பொம்மையாகப் பார்க்காமல், ஒரு பயன்பாடாகக் கருதும் நுகர்வோர் பாதுகாப்பை நோக்கிய நகர்வாகும். இந்தத் தரநிலைகளைப் பூர்த்தி செய்யத் தவறும் நிறுவனங்கள் பல மில்லியன் டாலர்கள் அபராதத்தைச் சந்திக்க நேரிடும். இது ஒரு ஆலோசனையல்ல, உலகின் மிகப்பெரிய சந்தைகளில் வணிகம் செய்வதற்கான கடுமையான நிபந்தனையாகும்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.அமெரிக்காவில், கவனம் சற்று வித்தியாசமானது, ஆனால் சமமான தாக்கத்தை ஏற்படுத்துகிறது. நிர்வாக உத்தரவுகள் மற்றும் நேஷனல் இன்ஸ்டிடியூட் ஆஃப் ஸ்டாண்டர்ட்ஸ் அண்ட் டெக்னாலஜி (NIST) வழங்கும் புதிய கட்டமைப்புகள் பாதுகாப்புச் சோதனை மற்றும் ‘ரெட் டீமிங்’ (red teaming) ஆகியவற்றிற்கு முக்கியத்துவம் அளிக்கின்றன. இதில், AI-ஐத் தோல்வியடையச் செய்ய அல்லது ஆபத்தான தகவல்களை உருவாக்க வழிகளைக் கண்டறிய ஹேக்கர்களைப் பணியமர்த்துவது அடங்கும். இவை ஐரோப்பிய விதிகளைப் போல சட்டப்பூர்வமாக வலுவாக இல்லாவிட்டாலும், அரசு ஒப்பந்தங்களுக்கு இவை நடைமுறைத் தரநிலைகளாக மாறி வருகின்றன. ஒரு டெக் நிறுவனம் தனது மென்பொருளை மத்திய அரசுக்கு விற்க விரும்பினால், அது இந்த பாதுகாப்பு வழிகாட்டுதல்களைப் பின்பற்றியுள்ளதை நிரூபிக்க வேண்டும். இது ஒரு ‘ட்ரிக்கிள் டவுன்’ விளைவை உருவாக்குகிறது. பெரிய நிறுவனங்களால் கையகப்படுத்தப்பட விரும்பும் சிறிய ஸ்டார்ட்அப்களும் தங்கள் மதிப்பைத் தக்கவைக்க இந்த விதிகளைப் பின்பற்ற வேண்டும். இதன் விளைவாக, பாரம்பரிய மென்பொருள் உருவாக்கத்தை விட விமானப் பாதுகாப்பு போன்ற தரப்படுத்தப்பட்ட பாதுகாப்பு நெறிமுறைகளை நோக்கி உலகம் மாறுகிறது. ஒரு மாடலை வெளியிட்டு என்ன நடக்கிறது என்று பார்க்கும் காலம் முடிந்து, வெளியீட்டிற்கு முந்தைய சரிபார்ப்பு கலாச்சாரம் உருவாகி வருகிறது.
உள்ளூர் சட்டங்கள் ஏன் உலகளாவிய தாக்கத்தை ஏற்படுத்துகின்றன?
பிரஸ்ஸல்ஸ் அல்லது வாஷிங்டனில் நிறைவேற்றப்படும் சட்டம் அந்த நகரங்களில் உள்ள நிறுவனங்களை மட்டுமே பாதிக்கும் என்பது ஒரு பொதுவான தவறான கருத்து. உண்மையில், டெக் துறை மிகவும் ஒன்றோடொன்று இணைக்கப்பட்டுள்ளதால், ஒரு பெரிய ஒழுங்குமுறை பெரும்பாலும் உலகளாவிய தரநிலையாக மாறுகிறது. இது ‘பிரஸ்ஸல்ஸ் விளைவு’ (Brussels Effect) என்று அழைக்கப்படுகிறது. கூகுள் அல்லது மைக்ரோசாப்ட் போன்ற ஒரு பெரிய நிறுவனம் ஐரோப்பிய சட்டத்திற்கு இணங்க தனது தரவு கையாளுதல் நடைமுறைகளை மாற்றும்போது, உலகின் பிற பகுதிகளுக்கு முற்றிலும் மாறுபட்ட, பாதுகாப்பற்ற பதிப்பை உருவாக்குவதில் அர்த்தமில்லை. இரண்டு தனித்தனி சிஸ்டம்களைப் பராமரிப்பதற்கான செலவு, முழு தயாரிப்பையும் கடுமையான விதிகளுக்கு இணங்கச் செய்வதை விட அதிகம். இதன் பொருள், தென் அமெரிக்கா அல்லது தென்கிழக்கு ஆசியாவில் உள்ள பயனர்கள் ஆயிரக்கணக்கான மைல்களுக்கு அப்பால் நிறைவேற்றப்பட்ட தனியுரிமைப் பாதுகாப்பு மற்றும் வெளிப்படைத்தன்மை விதிகளால் பயனடைவார்கள். இந்த விதிகளின் உலகளாவிய அமலாக்கம் அனைத்து அளவிலான நிறுவனங்களுக்கும் சமமான களத்தை உறுதி செய்கிறது.
இந்த உலகளாவிய ஒருங்கிணைப்பு பதிப்புரிமை கையாளப்படும் விதத்திலும் காணப்படுகிறது. AI நிறுவனங்கள் பதிப்புரிமை பெற்ற பொருட்களை அனுமதி இல்லாமல் பயன்படுத்தலாமா என்பதை பல்வேறு அதிகார வரம்புகளில் உள்ள நீதிமன்றங்கள் தற்போது தீர்மானித்து வருகின்றன. ஒழுங்குமுறையின் முதல் அலை, ஒரு இழப்பீட்டு முறையை அல்லது படைப்பாளிகள் தங்கள் தரவை பயிற்சியிலிருந்து விலக்கிக்கொள்ள ஒரு வழியை கட்டாயமாக்கும். தரவு ஒரு தெளிவான உரிமைச் சங்கிலியைக் கொண்ட ஒரு பௌதிக சொத்தாகக் கருதப்படும் புதிய பொருளாதாரத்தின் தொடக்கத்தை நாம் காண்கிறோம். ஒரு பயனராக, நிறுவனங்கள் தரவு உரிமச் செலவுகளைத் தங்கள் சந்தாக் கட்டணங்களில் சேர்ப்பதால், நீங்கள் பயன்படுத்தும் AI கருவிகள் சற்று விலை உயர்ந்ததாக மாறக்கூடும். இருப்பினும், இதன் பொருள் கருவிகள் சட்டப்பூர்வமாக அதிக நிலைத்தன்மையுடன் இருக்கும். இன்று நீங்கள் உருவாக்கும் படம் அல்லது உரை நாளை ஒரு வழக்கிற்கு உட்படும் என்று நீங்கள் கவலைப்பட வேண்டியதில்லை. சட்ட உள்கட்டமைப்பு தொழில்நுட்பத் திறன்களுக்கு இணையாக வளர்ந்து வருகிறது, இது தொடர்ச்சியான வழக்குகளின் நிழல் இல்லாமல் நீண்டகால வளர்ச்சிக்கு அடித்தளத்தை வழங்குகிறது.
புதிய அலுவலக பணிப்பாய்வு
எதிர்காலத்தில் ‘சாரா’ என்ற மார்க்கெட்டிங் மேலாளரின் ஒரு நாளைக் கவனியுங்கள். சாரா ஒரு புதிய விளம்பரப் பிரச்சாரத்தை உருவாக்க AI கருவியைப் பயன்படுத்துவதற்கு முன்பு, அவரது நிறுவனத்தின் உள்நாட்டு இணக்கத்தன்மை டேஷ்போர்டு (compliance dashboard) அந்த மாடலுக்கு அனுமதி அளிக்க வேண்டும். சமீபத்திய பாதுகாப்புத் தரங்களின் கீழ் மாடல் சான்றளிக்கப்பட்டதா என்பதை மென்பொருள் தானாகவே சரிபார்க்கிறது. சாரா ஒரு படத்தை உருவாக்கும்போது, மென்பொருள் கண்ணுக்குத் தெரியாத, ஆனால் எந்த பிரவுசராலும் படிக்கக்கூடிய டிஜிட்டல் வாட்டர்மார்க்கை உட்பொதிக்கிறது. இந்த வாட்டர்மார்க் பயன்படுத்தப்பட்ட AI மற்றும் உருவாக்கப்பட்ட தேதி பற்றிய மெட்டாடேட்டாவைக் கொண்டுள்ளது. இது அவர் தேர்வு செய்த அம்சம் அல்ல. பிராந்திய சட்டங்களுக்கு இணங்க டெவலப்பரால் மென்பொருளில் உருவாக்கப்பட்ட கட்டாயத் தேவையாகும். சாரா இந்த படத்தை ஒரு சமூக ஊடகத் தளத்தில் பதிவேற்ற முயற்சித்தால், அந்த தளம் வாட்டர்மார்க்கைப் படித்து, தானாகவே ‘AI Generated’ என்ற லேபிளைச் சேர்க்கிறது. இது மனித மற்றும் இயந்திர வேலைகளுக்கு இடையிலான கோடு தெளிவாகக் குறிக்கப்பட்ட வெளிப்படையான சூழலை உருவாக்குகிறது.
அன்றைய தினம், சாரா வாடிக்கையாளர் தரவை ஆய்வு செய்ய வேண்டும். கடந்த காலத்தில், அவர் இந்தத் தரவை ஒரு பொது சாட்பாட்டில் (chatbot) ஒட்டியிருக்கலாம். புதிய விதிமுறைகளின் கீழ், அவரது நிறுவனம் அனைத்து தரவையும் ஒரு தனியார் சர்வரில் சேமிக்கும் AI-ன் உள்ளூர் பதிப்பைப் பயன்படுத்துகிறது. முக்கியமான தனிப்பட்ட தகவல்கள் பொதுவான மாடலைப் பயிற்றுவிக்கப் பயன்படுத்தப்படக்கூடாது என்று ஒழுங்குமுறை கட்டாயப்படுத்துகிறது. இந்த கூடுதல் படிகளால் சாராவின் பணிப்பாய்வு மெதுவாக உள்ளது, ஆனால் தரவு மீறல் ஆபத்து கணிசமாகக் குறைவு. மென்பொருள் ஒரு தணிக்கை பாதையையும் (audit trail) வழங்குகிறது. ஒரு வாடிக்கையாளர் ஏன் ஒரு குறிப்பிட்ட விளம்பரத்திற்கு இலக்கு வைக்கப்பட்டார் என்று கேட்டால், AI பயன்படுத்திய தர்க்கத்தைக் காட்டும் அறிக்கையை சாரா எடுக்க முடியும். இது ஒழுங்குபடுத்தப்பட்ட AI-ன் செயல்பாட்டு யதார்த்தம். இது மந்திரத்தைப் பற்றியது அல்ல, நிர்வகிக்கப்படும் செயல்முறைகளைப் பற்றியது. இந்த விதிகளால் ஏற்படும் உராய்வு, சக்திவாய்ந்த கருவிகளின் தவறான பயன்பாட்டைத் தடுக்க எடுக்கப்பட்ட ஒரு திட்டமிட்ட தேர்வாகும்.
இந்தக் கருவிகளை உருவாக்குபவர்களுக்கு, தாக்கம் இன்னும் நேரடியானது. ஒரு ஸ்டார்ட்அப்பில் உள்ள டெவலப்பர் இனி இணையத்திலிருந்து ஒரு தரவுத்தொகுப்பை (dataset) எடுத்து பயிற்சியைத் தொடங்க முடியாது. ஒவ்வொரு ஜிகாபைட் தரவின் ஆதாரத்தையும் அவர்கள் ஆவணப்படுத்த வேண்டும். நச்சு வெளியீடுகள் மற்றும் பாரபட்சத்தை சரிபார்க்க அவர்கள் தானியங்கி சோதனைகளை இயக்க வேண்டும். மாடல் அதிக ஆபத்துள்ளதாகக் கருதப்பட்டால், அவர்கள் தங்கள் கண்டுபிடிப்புகளை மூன்றாம் தரப்பு தணிக்கையாளரிடம் சமர்ப்பிக்க வேண்டும். இது டெக் நிறுவனங்களின் பணியமர்த்தல் தேவைகளை மாற்றுகிறது. அவர்கள் இப்போது தரவு விஞ்ஞானிகளைத் தேடுவதைப் போலவே, நெறிமுறை அதிகாரிகள் மற்றும் இணக்கப் பொறியாளர்களையும் (compliance engineers) தேடுகிறார்கள். புதிய AI தயாரிப்பைச் சந்தைக்குக் கொண்டுவருவதற்கான செலவு அதிகரித்து வருகிறது, இது அதிக நிதி வசதி கொண்ட பெரிய நிறுவனங்களுக்குச் சாதகமாக இருக்கலாம். இது ஒழுங்குமுறையின் முரண்பாடுகளில் ஒன்றாகும். இது பயனரைப் பாதுகாக்கும் அதே வேளையில், இதுவே புதுமையை ஊக்குவிக்கும் போட்டியைத் தடுக்கவும் கூடும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
முழுமையான பாதுகாப்பின் விலை
மொத்தப் பாதுகாப்பிற்கான உந்துதல் புதிய சிக்கல்களை உருவாக்குகிறதா என்று நாம் கேட்க வேண்டும். ஒவ்வொரு AI வெளியீடும் வாட்டர்மார்க் செய்யப்பட வேண்டும் மற்றும் ஒவ்வொரு பயிற்சித் தொகுப்பும் வெளிப்படுத்தப்பட வேண்டும் என்றால், நாம் தனிப்பட்ட முறையில் புதுமைப்படுத்தும் திறனை இழக்கிறோமா? வெளிப்படைத்தன்மைக்கு ஒரு மறைமுக விலை உள்ளது. சிறிய டெவலப்பர்கள் ஆவணப்படுத்துதலின் சுமை மிக அதிகமாக இருப்பதைக் கண்டு, உருவாக்குவதை நிறுத்திவிடலாம். இது ஒரு சில பிரம்மாண்டமான நிறுவனங்கள் மட்டுமே இருக்கக்கூடிய எதிர்காலத்திற்கு வழிவகுக்கும். ‘அதிக ஆபத்துள்ள சிஸ்டம்’ என்பதை யார் தீர்மானிப்பது? அரசியல் பேச்சுக்காகப் பயன்படுத்தப்படும் AI அதிக ஆபத்தானது என்று ஒரு அரசாங்கம் முடிவு செய்தால், அது தணிக்கைக்கான கருவியாக மாறுமா? இவை முதல் கட்ட ஒழுங்குமுறை முழுமையாகப் பதிலளிக்காத கடினமான கேள்விகள். நாம் ஒரு குறிப்பிட்ட அளவு சுதந்திரத்தை ஒரு குறிப்பிட்ட அளவு பாதுகாப்பிற்காக மாற்றுகிறோம், ஆனால் பரிமாற்ற விகிதம் இன்னும் தெளிவாக இல்லை.
தனியுரிமை என்பது விதிகள் பின்வாங்கக்கூடிய மற்றொரு பகுதியாகும். ஒரு குறிப்பிட்ட குழுவிற்கு எதிராக AI பாரபட்சமாக இல்லை என்பதை நிரூபிக்க, டெவலப்பர்கள் பெரும்பாலும் அந்த குழுவைப் பற்றிய அதிக தரவைச் சேகரிக்க வேண்டியிருக்கும். அனைத்து இன மக்களுக்கும் ஒரு மாடல் நியாயமானது என்பதை உறுதிப்படுத்த, பயிற்சித் தரவில் உள்ளவர்களின் இனம் என்ன என்பதை டெவலப்பர் தெரிந்து கொள்ள வேண்டும். இது குறைவான பாகுபாட்டை உறுதிப்படுத்த அதிக கண்காணிப்பு தேவைப்படும் ஒரு முரண்பாட்டை உருவாக்குகிறது. இந்த பரிமாற்றம் மதிப்புக்குரியதா? மேலும், தரவைப் பாதுகாக்க உள்ளூர் சேமிப்பகத் தேவைகளை நோக்கி நாம் நகரும்போது, இணையத்தின் துண்டாதலை நாம் காணலாம். ஒரு நாடு தனது குடிமக்களுக்கான அனைத்து AI தரவுகளும் அதன் எல்லைக்குள் இருக்க வேண்டும் என்று கட்டாயப்படுத்தினால், அது ஒரு டிஜிட்டல் சுவரை உருவாக்குகிறது. இது முப்பது ஆண்டுகளாக டெக் துறையின் அடையாளமாக இருந்த உலகளாவிய ஒத்துழைப்பைத் தடுக்கலாம். நாம் ஒழுங்குபடுத்தும் அவசரத்தில், இணையத்தின் திறந்த தன்மையை தற்செயலாக அழித்துவிடாமல் கவனமாக இருக்க வேண்டும்.
இணக்கத்தன்மையின் பொறியியல்
தொழில்நுட்பக் கண்ணோட்டத்தில், இணக்கத்தன்மை API லேயரில் சேர்க்கப்படுகிறது. முக்கிய வழங்குநர்கள் ஏற்கனவே பாதுகாப்பு அம்சங்களை விட அதிகமான விகித வரம்புகள் மற்றும் உள்ளடக்க வடிப்பான்களைச் செயல்படுத்தி வருகின்றனர். அவை சட்டப்பூர்வ பாதுகாப்புகள். பவர் பயனர்களுக்கு, தணிக்கையற்ற, மூல மாடல் அணுகல் காலம் முடிந்துவிட்டது என்பதையே இது குறிக்கிறது. பெரும்பாலான வணிக API-கள் இப்போது ஒவ்வொரு தூண்டுதலையும் (prompt) மற்றும் ஒவ்வொரு பதிலையும் ஸ்கேன் செய்யும் கட்டாய மதிப்பீட்டு முனையத்தை (moderation endpoint) உள்ளடக்கியுள்ளன. இந்த மாடல்களின் மேல் நீங்கள் ஒரு அப்ளிகேஷனை உருவாக்குகிறீர்கள் என்றால், இந்த சோதனைகள் உங்கள் சிஸ்டத்தில் சேர்க்கும் தாமதத்தை (latency) நீங்கள் கணக்கில் கொள்ள வேண்டும். மாடல் பதிப்பு சிக்கலும் உள்ளது. தணிக்கைத் தேவைகளுக்கு இணங்க, நிறுவனங்கள் தங்கள் பழைய மாடல் பதிப்புகளைச் செயலில் வைத்திருக்க வேண்டும், இதனால் கடந்த கால முடிவுகளை மறுபரிசீலனை செய்ய முடியும். இது வழங்குநருக்கான சேமிப்பு மற்றும் கணினிச் செலவுகளை அதிகரிக்கிறது, இது இறுதியில் பயனருக்குக் கடத்தப்படுகிறது.
உள்ளூர் சேமிப்பகம் மற்றும் எட்ஜ் கம்ப்யூட்டிங் (edge computing) ஆகியவை தனியுரிமை உணர்வுள்ள நிறுவனங்களுக்கு விருப்பமான தீர்வுகளாக மாறி வருகின்றன. தரவை ஒரு மைய கிளவுடுக்கு (cloud) அனுப்புவதற்குப் பதிலாக, நிறுவனங்கள் சிறிய, உகந்த மாடல்களைத் தங்கள் சொந்த வன்பொருளில் இயக்குகின்றன. இது எல்லை தாண்டிய தரவு பரிமாற்றங்களின் சட்ட சிக்கலைத் தவிர்க்கிறது. இருப்பினும், இந்த உள்ளூர் மாடல்கள் பெரும்பாலும் அவற்றின் கிளவுட் அடிப்படையிலான மாடல்களின் ஆற்றலைக் கொண்டிருப்பதில்லை. டெவலப்பர்கள் இப்போது ஒரு புதிய வகை மேம்படுத்தல் பணியில் ஈடுபட்டுள்ளனர். சட்டத்தின் அனைத்து வெளிப்படைத்தன்மைத் தேவைகளையும் பூர்த்தி செய்யும் அதே வேளையில், ஒரே சர்வரில் பொருந்தக்கூடிய மாடலில் இருந்து அதிகபட்ச செயல்திறனைப் பெறுவது எப்படி என்பதைக் கண்டறிய வேண்டும். C2PA போன்ற ஆதார நெறிமுறைகளின் (provenance protocols) எழுச்சியையும் நாம் காண்கிறோம். இது டிஜிட்டல் உள்ளடக்கத்தை கிரிப்டோகிராஃபிக் முறையில் பாதுகாப்பாக லேபிளிங் செய்ய அனுமதிக்கும் ஒரு தொழில்நுட்பத் தரநிலையாகும். இது ஒரு குறிச்சொல்லைச் சேர்ப்பது மட்டுமல்ல. கேமரா அல்லது AI முதல் திரை வரை ஒரு படத்தின் வரலாற்றின் நிரந்தரப் பதிப்பை உருவாக்குவது பற்றியது. கீக் பிரிவைப் பொறுத்தவரை, இது சிக்கலான கீ ஆர்க்கிடெக்சர்களை நிர்வகிப்பதையும், சமூக ஊடக சுருக்க அல்காரிதம்களால் மெட்டாடேட்டா அகற்றப்படாமல் இருப்பதை உறுதி செய்வதையும் குறிக்கிறது.
பொறுப்புக்கூறலை நோக்கிய மாற்றம்
AI ஒழுங்குமுறையின் முதல் அலை, தொழில்துறையின் சோதனை கட்டம் முடிந்துவிட்டது என்பதற்கான தெளிவான சமிக்ஞையாகும். AI-ஐ உருவாக்குதல் மற்றும் பயன்படுத்துவதன் செயல்பாட்டு யதார்த்தம் வெறும் திறனை விட சட்டத்தால் வரையறுக்கப்படும் காலத்திற்கு நாம் நகர்கிறோம். நிறுவனங்கள் தாங்கள் பயன்படுத்தும் தரவு மற்றும் வெளியிடும் தயாரிப்புகள் குறித்து அதிக கவனத்துடன் இருக்க வேண்டும். AI லேபிளிடப்பட்டு, கண்காணிக்கப்பட்டு, தணிக்கை செய்யப்படும் உலகத்திற்குப் பயனர்கள் பழகிக்கொள்ள வேண்டும். இது செயல்பாட்டில் உராய்வைச் சேர்த்தாலும், விடுபட்ட நம்பிக்கையின் ஒரு அடுக்கையும் சேர்க்கிறது. பாரபட்சம், திருட்டு அல்லது தவறான தகவல்கள் பற்றிய தொடர்ச்சியான பயம் இல்லாமல் AI-ன் நன்மைகளை அனுபவிக்கக்கூடிய ஒரு சிஸ்டத்தை உருவாக்குவதே இதன் நோக்கம். இது நடப்பதற்கு கடினமான பாதை, ஆனால் இந்த கருவிகள் நமது உலகளாவிய சமூகத்தின் நிரந்தர மற்றும் நேர்மறையான பகுதியாக மாறுவதை உறுதி செய்வதற்கான ஒரே வழி இதுதான்.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.