2026-இல் பொறுப்பான AI எப்படி இருக்க வேண்டும்?
பிளாக் பாக்ஸ் (Black Box) காலத்தின் முடிவு
2026-ஆம் ஆண்டு வாக்கில், செயற்கை நுண்ணறிவு (AI) குறித்த உரையாடல் அறிவியல் புனைகதை பயங்களிலிருந்து முற்றிலும் மாறிவிட்டது. ஒரு இயந்திரத்தால் சிந்திக்க முடியுமா என்பதை நாம் இப்போது விவாதிக்கவில்லை. மாறாக, ஒரு மாடல் வழங்கும் மருத்துவப் பரிந்துரை வழக்கிற்கு வழிவகுக்கும்போது அதற்கு யார் பொறுப்பு என்பதைப் பார்க்கிறோம். தற்போதைய காலத்தில் பொறுப்பான AI என்பது அதன் செயல்பாடுகளைக் கண்டறியும் திறன் (traceability) மற்றும் பிளாக் பாக்ஸ் தன்மையை நீக்குதல் ஆகியவற்றால் வரையறுக்கப்படுகிறது. ஒரு மாடல் ஏன் ஒரு குறிப்பிட்ட முடிவை எடுத்தது என்பதை பயனர்கள் துல்லியமாகப் பார்க்க விரும்புகிறார்கள். இது ஏதோ மேலோட்டமான அறநெறி சார்ந்தது மட்டுமல்ல; இது காப்பீடு மற்றும் சட்டப்பூர்வ அந்தஸ்து சார்ந்தது. இந்த பாதுகாப்பு அம்சங்களைச் செயல்படுத்தத் தவறும் நிறுவனங்கள் முக்கிய சந்தைகளில் இருந்து வெளியேற்றப்படுகின்றன. வேகமாகச் செயல்பட்டு எதையாவது உடைக்கும் காலம் முடிந்துவிட்டது, ஏனெனில் இப்போது உடைக்கப்படும் விஷயங்கள் சரிசெய்ய முடியாத அளவுக்கு விலை உயர்ந்தவை. ஒவ்வொரு வெளியீடும் டிஜிட்டல் கையொப்பத்துடன் குறிக்கப்படும் சரிபார்க்கக்கூடிய அமைப்புகளை நோக்கி நாம் நகர்கிறோம். இந்த மாற்றம் தானியங்கி பொருளாதாரத்தில் உறுதிக்கான தேவையால் தூண்டப்படுகிறது.
தரநிலை அம்சமாக டிரேஸ்பிலிட்டி (Traceability)
நவீன கம்ப்யூட்டிங்கில் பொறுப்பு என்பது இனி ஒரு சுருக்கமான வழிகாட்டுதல் அல்ல. இது ஒரு தொழில்நுட்பக் கட்டமைப்பு. இது டேட்டா ப்ரோவெனன்ஸ் (data provenance) எனப்படும் கடுமையான செயல்முறையை உள்ளடக்கியது, இதில் ஒரு மாடலுக்குப் பயிற்சியளிக்கப் பயன்படுத்தப்படும் ஒவ்வொரு தகவலும் பதிவு செய்யப்பட்டு நேர முத்திரை இடப்படுகிறது. கடந்த காலத்தில், டெவலப்பர்கள் இணையத்தை கண்மூடித்தனமாக ஸ்கிராப் (scrape) செய்வார்கள். இன்று, அந்த அணுகுமுறை ஒரு சட்டப்பூர்வ பொறுப்பாகும். பொறுப்பான அமைப்புகள் இப்போது தெளிவான உரிமம் மற்றும் அங்கீகாரத்துடன் கூடிய க்யூரேட்டட் டேட்டாசெட்களைப் (curated datasets) பயன்படுத்துகின்றன. இந்த மாற்றம், இந்த மாடல்கள் உருவாக்கும் வெளியீடுகள் அறிவுசார் சொத்துரிமைகளை மீறாமல் இருப்பதை உறுதி செய்கிறது. மேலும், குறிப்பிட்ட தரவுப் புள்ளிகள் தவறானவை அல்லது சார்புடையவை எனத் தெரிந்தால் அவற்றை நீக்கவும் இது அனுமதிக்கிறது. இது தசாப்தத்தின் தொடக்கத்தில் இருந்த நிலையான மாடல்களிலிருந்து ஒரு குறிப்பிடத்தக்க மாற்றமாகும். எத்திக்கல் கம்ப்யூட்டிங்கின் சமீபத்திய போக்குகள் குறித்த கூடுதல் தகவல்களை AI Magazine-இல் நீங்கள் காணலாம், அங்கு கவனம் தொழில்நுட்பப் பொறுப்புக்கூறலை நோக்கி நகர்ந்துள்ளது.
மற்றொரு முக்கிய அம்சம் வாட்டர்மார்க்கிங் (watermarking) மற்றும் கன்டென்ட் கிரெடென்ஷியல்களைச் (content credentials) செயல்படுத்துவதாகும். உயர்தர அமைப்பால் உருவாக்கப்பட்ட ஒவ்வொரு படம், வீடியோ அல்லது உரைத் தொகுப்பும் அதன் தோற்றத்தை அடையாளம் காணும் மெட்டாடேட்டாவைக் கொண்டுள்ளது. இது டீப்ஃபேக்குகளைத் தடுப்பதற்காக மட்டுமல்ல, தகவல் விநியோகச் சங்கிலியின் ஒருமைப்பாட்டைப் பேணுவதற்காகவும் ஆகும். ஒரு வணிகம் ஒரு அறிக்கையை உருவாக்க தானியங்கி கருவியைப் பயன்படுத்தும்போது, எந்தப் பகுதிகள் மனிதனால் எழுதப்பட்டன மற்றும் எவை அல்காரிதத்தால் பரிந்துரைக்கப்பட்டன என்பதை பங்குதாரர்கள் தெரிந்து கொள்ள வேண்டும். இந்த வெளிப்படைத்தன்மையே நம்பிக்கையின் அடித்தளம். கோப்புகள் வெவ்வேறு பிளாட்ஃபார்ம்களில் பகிரப்படும்போது இந்த நற்சான்றிதழ்கள் அப்படியே இருப்பதை உறுதிசெய்ய, தொழில் துறை C2PA standard-ஐ நோக்கி நகர்ந்துள்ளது. இந்த அளவிலான விவரங்கள் ஒரு காலத்தில் சுமையாகக் கருதப்பட்டன, ஆனால் இப்போது ஒழுங்குபடுத்தப்பட்ட சூழலில் செயல்பட இதுவே ஒரே வழி. மாடல் என்ன செய்ய முடியும் என்பதிலிருந்து, மாடல் அதை எப்படிச் செய்கிறது என்பதற்கு கவனம் மாறியுள்ளது.
- அனைத்து வணிக மாடல்களுக்கும் கட்டாய டேட்டா ப்ரோவெனன்ஸ் பதிவுகள்.
- தவறான தகவல்களைத் தடுக்க செயற்கை ஊடகங்களின் நிகழ்நேர வாட்டர்மார்க்கிங்.
- பயனரைச் சென்றடைவதற்கு முன்பே வெளியீடுகளை நிறுத்தும் தானியங்கி சார்பு கண்டறிதல் நெறிமுறைகள்.
- அனைத்து உரிமம் பெற்ற பயிற்சித் தரவுகளுக்கும் தெளிவான அங்கீகாரம்.
அல்காரிதமிக் பாதுகாப்பின் புவிசார் அரசியல்
கோட்பாடு நடைமுறையைச் சந்திக்கும் இடமே உலகளாவிய தாக்கம். தொழில்நுட்ப ஜாம்பவான்களின் தன்னார்வ உறுதிமொழிகளுடன் அரசாங்கங்கள் திருப்தியடையவில்லை. EU AI Act உலகளாவிய தரநிலையை அமைத்துள்ளது, இது நிறுவனங்களை அவற்றின் கருவிகளை அபாய நிலையின் அடிப்படையில் வகைப்படுத்த கட்டாயப்படுத்துகிறது. கல்வி, வேலைவாய்ப்பு மற்றும் சட்ட அமலாக்கத்தில் உள்ள உயர்-அபாய அமைப்புகள் கடுமையான மேற்பார்வையை எதிர்கொள்கின்றன. இது சந்தையில் ஒரு பிளவை உருவாக்கியுள்ளது. நிறுவனங்கள் உலகளாவிய தரத்திற்காக உருவாக்குகின்றன அல்லது தனிமைப்படுத்தப்பட்ட அதிகார வரம்புகளுக்குள் பின்வாங்குகின்றன. இது ஐரோப்பியப் பிரச்சினை மட்டுமல்ல. அமெரிக்கா மற்றும் சீனாவும் தேசிய பாதுகாப்பு மற்றும் நுகர்வோர் பாதுகாப்பிற்கு முக்கியத்துவம் அளிக்கும் தங்கள் சொந்த கட்டமைப்புகளைச் செயல்படுத்தியுள்ளன. இதன் விளைவாக, நிர்வகிக்க சிறப்பு சட்ட மற்றும் தொழில்நுட்பக் குழுக்கள் தேவைப்படும் சிக்கலான இணக்க வலை உருவாகியுள்ளது. இந்த ஒழுங்குமுறை அழுத்தமே பாதுகாப்புத் துறையில் புதுமையின் முதன்மை உந்துசக்தியாகும்.
பொதுமக்கள் கருத்துக்கும் யதார்த்தத்திற்கும் இடையிலான வேறுபாடு இங்கே தெளிவாகத் தெரிகிறது. பொதுமக்கள் பெரும்பாலும் உணர்வுள்ள இயந்திரங்களைப் பற்றி கவலைப்படுகிறார்கள், ஆனால் நிர்வகிக்கப்படும் உண்மையான ஆபத்து நிறுவன நம்பிக்கையின் அரிப்பு ஆகும். ஒரு வங்கி கடன்களை மறுக்க நியாயமற்ற அல்காரிதத்தைப் பயன்படுத்தினால், பாதிப்பு தனிநபருக்கு மட்டுமல்ல, முழு நிதி அமைப்பிற்கும் ஏற்படும். உலகளாவிய வர்த்தகம் இப்போது இந்த பாதுகாப்பு தரநிலைகளின் இயங்குதன்மை (interoperability) சார்ந்து உள்ளது. வட அமெரிக்காவில் பயிற்சியளிக்கப்பட்ட ஒரு மாடல் தென்கிழக்கு ஆசியாவின் வெளிப்படைத்தன்மை தேவைகளைப் பூர்த்தி செய்யவில்லை என்றால், அதை எல்லை தாண்டிய பரிவர்த்தனைகளில் பயன்படுத்த முடியாது. இது குறிப்பிட்ட பிராந்திய சட்டங்களைப் பூர்த்தி செய்ய ஃபைன்-டியூன் (fine-tune) செய்யப்பட்ட உள்ளூர்மயமாக்கப்பட்ட மாடல்களின் எழுச்சிக்கு வழிவகுத்தது. இந்த உள்ளூர்மயமாக்கல் என்பது அனைவருக்கும் பொருந்தும் அணுகுமுறையின் தோல்விக்கான எதிர்வினையாகும். நடைமுறை ஆபத்து என்பது பில்லியன் கணக்கான டாலர் அபராதங்கள் மற்றும் தங்கள் அமைப்புகள் பாதுகாப்பானவை என்பதை நிரூபிக்க முடியாதவர்களுக்கு சந்தை அணுகல் இழப்பு ஆகும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
தொழில்முறை பணிப்பாய்வுகளில் பாதுகாப்பு அரண்கள்
2026-இல் ஒரு மூத்த மென்பொருள் பொறியாளரின் ஒரு நாளைக் கவனியுங்கள். அவள் பெயர் எலினா. அவள் காலையில் ஒரு உள் உதவியாளரால் உருவாக்கப்பட்ட குறியீடு பரிந்துரைகளை ஆய்வு செய்வதன் மூலம் தொடங்குகிறாள். பத்து ஆண்டுகளுக்கு முன்பு, அவள் குறியீட்டை நகலெடுத்து ஒட்டியிருக்கலாம். இப்போது, அவளது சூழல் பரிந்துரைக்கப்பட்ட ஒவ்வொரு துண்டின் உரிமத்தையும் சரிபார்க்க அவளைக் கோருகிறது. AI கருவியே மூல களஞ்சியத்திற்கான (source repository) இணைப்பையும் பாதுகாப்பு ஸ்கோரையும் வழங்குகிறது. குறியீட்டில் பாதிப்பு இருந்தால், கணினி அதை கொடியிட்டு பிரதான கிளையில் ஒருங்கிணைக்க மறுக்கிறது. இது ஒரு பரிந்துரை அல்ல. இது ஒரு கடினமான நிறுத்தம். எலினா இதை எரிச்சலூட்டுவதாகக் கருதவில்லை. இது அவசியமானது என்று அவள் கருதுகிறாள். இது நிறுவனத்திற்கு மில்லியன் கணக்கில் செலவாகும் பிழைகளை அனுப்புவதிலிருந்து அவளைப் பாதுகாக்கிறது. அந்த கருவி இனி மாயத்தோற்றம் கொண்ட ஒரு படைப்பாற்றல் கூட்டாளி அல்ல. இது அவளுடன் இணைந்து செயல்படும் ஒரு கடுமையான தணிக்கையாளர்.
நாளின் பிற்பகுதியில், ஒரு புதிய மார்க்கெட்டிங் பிரச்சாரம் மதிப்பாய்வு செய்யப்படும் கூட்டத்தில் எலினா கலந்துகொள்கிறாள். படங்கள் ஒரு நிறுவனக் கருவியால் உருவாக்கப்பட்டன. ஒவ்வொரு படத்திலும் அதன் உருவாக்கத்தின் வரலாற்றைக் காட்டும் ப்ரோவெனன்ஸ் பேட்ஜ் (provenance badge) உள்ளது. பதிப்புரிமை பெற்ற கதாபாத்திரங்கள் அல்லது பாதுகாக்கப்பட்ட பாணிகள் எதுவும் பயன்படுத்தப்படவில்லை என்பதை உறுதிப்படுத்த சட்டக் குழு இந்த பேட்ஜ்களைச் சரிபார்க்கிறது. AI வழங்கும் சுதந்திரத்தை மக்கள் மிகைப்படுத்திக் கூறும் இடம் இதுதான். இது விளைவுகள் இல்லாமல் முடிவற்ற படைப்பாற்றலை அனுமதிக்கிறது என்று அவர்கள் நினைக்கிறார்கள். உண்மையில், தொழில்முறை நிபுணர்களுக்கு தரவு சுத்தமாகவும், அதன் தோற்றம் தெளிவாகவும் இருக்க வேண்டும். அடிப்படை யதார்த்தம் என்னவென்றால், மிகவும் வெற்றிகரமான தயாரிப்புகள் மிகவும் கட்டுப்படுத்தப்பட்டவை. இந்த கட்டுப்பாடுகள் படைப்பாற்றலுக்குத் தடையல்ல. அவை ஒரு வணிகத்தை சட்ட நடவடிக்கைகளுக்கு அஞ்சாமல் வேகத்துடன் நகர்த்த அனுமதிக்கும் பாதுகாப்பு அரண்கள். இந்த தலைப்பில் பலருக்கு இருக்கும் குழப்பம் என்னவென்றால், பாதுகாப்பு விஷயங்களை மெதுவாக்குகிறது என்ற கருத்து. ஒரு தொழில்முறை அமைப்பில், பாதுகாப்பு என்பது அளவிலான வரிசைப்படுத்தலை (deployment at scale) அனுமதிப்பதாகும்.
இதன் தாக்கம் பொதுத் துறையிலும் உணரப்படுகிறது. ஒரு நகரத் திட்டமிடுபவர் போக்குவரத்து ஓட்டத்தை மேம்படுத்த தானியங்கி அமைப்பைப் பயன்படுத்துகிறார். ஒரு குறிப்பிட்ட பகுதியில் விளக்குகளின் நேரத்தை மாற்ற கணினி பரிந்துரையை வழங்குகிறது. மாற்றம் செயல்படுத்தப்படுவதற்கு முன்பு, திட்டமிடுபவர் கணினியிடம் எதிர்மறையான பகுப்பாய்வைக் (counterfactual analysis) கேட்கிறார். தரவு தவறாக இருந்தால் என்ன நடக்கும் என்பதை அவள் அறிய விரும்புகிறாள். கணினி முடிவுகளின் வரம்பை வழங்குகிறது மற்றும் உள்ளீட்டுத் தரவை வழங்கிய குறிப்பிட்ட சென்சார்களை அடையாளம் காட்டுகிறது. ஒரு சென்சார் செயலிழந்தால், திட்டமிடுபவர் அதை உடனடியாகப் பார்க்க முடியும். இந்த அளவிலான நடைமுறை பொறுப்புக்கூறல் தான் பொறுப்பான AI என்பது நடைமுறையில் எப்படி இருக்கும் என்பதைக் காட்டுகிறது. இது பயனருக்குச் சந்தேகப்படும் கருவிகளை வழங்குவதாகும். இது இயந்திரத்தின் யூகத்தால் மனிதத் தீர்ப்பை மாற்றுவதற்குப் பதிலாக அதை கூர்மைப்படுத்துவதாகும்.
இணக்கத்தின் மறைமுக விலை
இந்த புதிய காலத்தின் செலவுகள் குறித்து நாம் கடினமான கேள்விகளைக் கேட்க வேண்டும். இந்த உயர் பாதுகாப்புத் தரங்களால் உண்மையில் யார் பயனடைகிறார்கள்? அவை நுகர்வோரைப் பாதுகாக்கும் அதே வேளையில், சிறிய நிறுவனங்களுக்கு நுழைவதற்கு மிகப்பெரிய தடையையும் உருவாக்குகின்றன. ஒவ்வொரு உலகளாவிய ஒழுங்குமுறைக்கும் இணங்கும் ஒரு மாடலை உருவாக்குவதற்குச் சில நிறுவனங்கள் மட்டுமே கொண்ட மூலதனம் தேவைப்படுகிறது. பாதுகாப்பின் பெயரால் நாம் தற்செயலாக ஏகபோகத்தை உருவாக்குகிறோமா? உலகில் ஐந்து நிறுவனங்கள் மட்டுமே பொறுப்பான மாடலை உருவாக்க முடிந்தால், அந்த ஐந்து நிறுவனங்களும் தகவலின் ஓட்டத்தைக் கட்டுப்படுத்துகின்றன. இது கொள்கை வட்டங்களில் அரிதாகவே விவாதிக்கப்படும் மறைமுக செலவாகும். நாம் பாதுகாப்பிற்காகப் போட்டியை வர்த்தகம் செய்கிறோம். இந்த வர்த்தகம் அவசியமாக இருக்கலாம், ஆனால் நாம் எதை இழக்கிறோம் என்பதில் நேர்மையாக இருக்க வேண்டும்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.தனியுரிமை பற்றிய கேள்வியும் உள்ளது. ஒரு மாடலைப் பொறுப்பானதாக மாற்ற, டெவலப்பர்கள் அது நிகழ்நேரத்தில் எவ்வாறு பயன்படுத்தப்படுகிறது என்பதைக் கண்காணிக்க வேண்டும். இதன் பொருள் ஒவ்வொரு ப்ராம்ப்ட் (prompt) மற்றும் ஒவ்வொரு வெளியீடும் பதிவு செய்யப்பட்டு சாத்தியமான மீறல்களுக்காக பகுப்பாய்வு செய்யப்படுகிறது. இந்தத் தரவு எங்கே செல்கிறது? ஒரு மருத்துவர் நோயறிதலுக்கு உதவ AI-ஐப் பயன்படுத்தினால், அந்த நோயாளி தரவு அடுத்த பாதுகாப்பு வடிகட்டியைப் பயிற்றுவிக்கப் பயன்படுத்தப்படுகிறதா? நிறுவனங்களுக்கான ஊக்கத்தொகை என்னவென்றால், தாங்கள் பொறுப்புடன் செயல்படுவதை நிரூபிக்க முடிந்தவரை அதிக தரவைச் சேகரிப்பதாகும். இது பாதுகாப்பிற்கான தேடல் தனிநபர் தனியுரிமையைக் குறைப்பதற்கு வழிவகுக்கும் முரண்பாட்டை உருவாக்குகிறது. பாதுகாப்பு அரண்கள் பயனரைப் பாதுகாக்கிறதா அல்லது நிறுவனத்தைப் பாதுகாக்கிறதா என்று நாம் கேட்க வேண்டும். பெரும்பாலான பாதுகாப்பு அம்சங்கள் நிறுவனத்தின் பொறுப்பைக் கட்டுப்படுத்த வடிவமைக்கப்பட்டுள்ளன, பயனர் அனுபவத்தை மேம்படுத்த அவசியமில்லை. அதன் சொந்த தரவு சேகரிப்பு நடைமுறைகளைப் பற்றி வெளிப்படையாக இருக்காமல் பாதுகாப்பானது என்று கூறும் எந்தவொரு அமைப்பையும் நாம் சந்தேகிக்க வேண்டும். இந்த உரிமைகோரல்களை அப்படியே ஏற்றுக்கொள்வதற்கு ஆபத்துகள் அதிகம்.
சரிபார்க்கக்கூடிய வெளியீடுகளுக்கான பொறியியல்
பொறுப்பை நோக்கிய தொழில்நுட்ப மாற்றம் குறிப்பிட்ட பணிப்பாய்வு ஒருங்கிணைப்புகளில் வேரூன்றியுள்ளது. டெவலப்பர்கள் அனைத்தையும் செய்ய முயற்சிக்கும் ஒற்றைக்கல் (monolithic) மாடல்களிலிருந்து விலகிச் செல்கிறார்கள். அதற்கு பதிலாக, அவர்கள் மாடுலர் கட்டமைப்புகளைப் பயன்படுத்துகிறார்கள், அங்கு ஒரு முக்கிய மாடல் சிறப்பு பாதுகாப்பு அடுக்குகளால் சூழப்பட்டுள்ளது. இந்த அடுக்குகள் Retrieval Augmented Generation (RAG)-ஐப் பயன்படுத்தி மாடலை ஒரு குறிப்பிட்ட, சரிபார்க்கப்பட்ட தரவுத்தளத்தில் நிலைநிறுத்துகின்றன. இது மாடல் விஷயங்களை உருவாக்குவதைத் தடுக்கிறது. பதில் தரவுத்தளத்தில் இல்லை என்றால், தனக்குத் தெரியாது என்று மாடல் எளிமையாகக் கூறிவிடும். இது ஜெனரேட்டிவ் கருவிகளின் ஆரம்ப நாட்களிலிருந்து ஒரு பெரிய மாற்றமாகும். தரவுத்தளத்தைப் புதுப்பித்த நிலையில் வைத்திருக்க வலுவான தரவு குழாய் மற்றும் உயர் மட்ட பராமரிப்பு தேவைப்படுகிறது. ஒரு பொறுப்பான அமைப்பின் தொழில்நுட்பக் கடன் (technical debt) ஒரு சாதாரண மாடலை விட மிக அதிகம்.
பவர் பயனர்களும் API வரம்புகள் மற்றும் உள்ளூர் சேமிப்பகத்தைப் பார்க்கிறார்கள். தனியுரிமையைப் பேணுவதற்கு, பல நிறுவனங்கள் தங்கள் இன்ஃபெரன்ஸை (inference) உள்ளூர் வன்பொருளுக்கு மாற்றுகின்றன. இது மூன்றாம் தரப்பு கிளவுடுக்கு (cloud) முக்கியமான தரவை அனுப்பாமல் பாதுகாப்பு சோதனைகளை இயக்க அனுமதிக்கிறது. இருப்பினும், இது அதன் சொந்த சவால்களுடன் வருகிறது:
- சிக்கலான பாதுகாப்பு வடிகட்டிகளைக் கையாள உள்ளூர் வன்பொருள் போதுமான சக்திவாய்ந்ததாக இருக்க வேண்டும்.
- பல பாதுகாப்பு சோதனைகள் ஒரே நேரத்தில் இயங்கும்போது API ரேட் லிமிட்கள் பெரும்பாலும் தூண்டப்படுகின்றன.
- மாடல் வெளியீடு ஒரு குறிப்பிட்ட வடிவத்திற்குப் பொருந்துவதை உறுதிசெய்ய JSON ஸ்கீமா வேலிடேஷன் (validation) பயன்படுத்தப்படுகிறது.
- ஸ்டேக்கில் அதிக சரிபார்ப்பு அடுக்குகள் சேர்க்கப்படுவதால் லேட்டன்சி (latency) அதிகரிக்கிறது.
இந்தத் துறையின் கீக் (geek) பிரிவு தற்போது இந்த பாதுகாப்பு அடுக்குகளை மேம்படுத்துவதில் ஆர்வமாக உள்ளது. பயனர் அனுபவத்தின் மீதான தாக்கத்தைக் குறைக்க, உருவாக்கத்துடன் இணையாக சரிபார்ப்பை இயக்குவதற்கான வழிகளை அவர்கள் தேடுகிறார்கள். இது பெரிய மாடலை நிகழ்நேரத்தில் தணிக்கை செய்ய சிறிய, சிறப்பு மாடல்களைப் பயன்படுத்துவதை உள்ளடக்கியது. இது மொழியியல் மற்றும் புள்ளிவிவரங்கள் இரண்டையும் ஆழமாகப் புரிந்துகொள்ள வேண்டிய ஒரு சிக்கலான பொறியியல் சிக்கலாகும். வேகமான மற்றும் சரிபார்க்கக்கூடிய ஒரு அமைப்பை உருவாக்குவதே இலக்காகும்.
புதிய குறைந்தபட்ச சாத்தியமான தயாரிப்பு (MVP)
சுருக்கமாகச் சொன்னால், பொறுப்பு என்பது இனி விருப்பத்தேர்வு அல்ல. அது தயாரிப்பின் மையப்பகுதி. 2026-இல், சக்திவாய்ந்த ஆனால் கணிக்க முடியாத ஒரு மாடல் தோல்வியாகக் கருதப்படுகிறது. சந்தை நம்பகமான, கண்டறியக்கூடிய மற்றும் சட்டப்பூர்வமாக இணக்கமான அமைப்புகளை நோக்கி நகர்ந்துள்ளது. இந்த மாற்றம் டெவலப்பர்களுக்கான ஊக்கத்தொகையை மாற்றியுள்ளது. மிகவும் ஈர்க்கக்கூடிய டெமோவிற்காக அவர்கள் இனி வெகுமதி பெறுவதில்லை. மிகவும் நிலையான மற்றும் வெளிப்படையான அமைப்பிற்காக அவர்கள் வெகுமதி பெறுகிறார்கள். இது தொழில் துறைக்கு ஒரு ஆரோக்கியமான பரிணாமமாகும். இது நம்மை மிகைப்படுத்தலில் (hype) இருந்து பயன்பாட்டிற்கு (utility) நகர்த்துகிறது. நடைமுறை ஆபத்துகள் தெளிவாக உள்ளன: உங்கள் AI பொறுப்பானது என்பதை நீங்கள் நிரூபிக்க முடியாவிட்டால், அதை தொழில்முறை சூழலில் பயன்படுத்த முடியாது. இது தொழில் துறைக்கான புதிய தரநிலையாகும். இது சந்திப்பதற்கு கடினமான தரநிலை, ஆனால் இதுவே முன்னோக்கிச் செல்லும் ஒரே வழி.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.