AI எங்கும் நிறைந்திருக்கும் காலத்தில் புத்திசாலித்தனமான குழுக்கள் எதை கவனிக்கின்றன?
செயற்கை நுண்ணறிவு (AI) இருப்பதையே ஒரு சாதனையாகக் கருதும் காலம் முடிந்துவிட்டது. புத்திசாலித்தனமான குழுக்கள் இப்போது generative tools-ன் கவர்ச்சியைக் கடந்து, அதைவிட சவாலான ஒரு விஷயத்தில் கவனம் செலுத்துகின்றன. ஒரு மாடல் தனக்குத் தெரியும் என்று கூறுவதற்கும், அது துல்லியமாக வெளிப்படுத்துவதற்கும் இடையே உள்ள இடைவெளியை அவர்கள் கண்காணிக்கிறார்கள். இது வெறும் பயன்பாட்டிலிருந்து சரிபார்ப்புக்கு மாறும் ஒரு கட்டம். ஒரு நிறுவனம் large language models-ஐப் பயன்படுத்துகிறது என்று சொல்வது மட்டும் போதாது. அந்த மாடல்கள் சாதாரணக் கண்களுக்குத் தெரியாத வகையில் எவ்வளவு அடிக்கடி தவறு செய்கின்றன என்பதுதான் உண்மையான கேள்வி. சிறப்பாகச் செயல்படும் நிறுவனங்கள் இப்போது தங்கள் முழு உத்தியையும் measurement uncertainty-ஐ மையப்படுத்தியே அமைத்துள்ளன. அவை ஒவ்வொரு வெளியீட்டையும் ஒரு உண்மையாகக் கருதாமல், நிகழ்தகவு சார்ந்த யூகமாகவே பார்க்கின்றன. இந்த மாற்றத்தால் கார்ப்பரேட் செயல்பாடுகள் முழுமையாக மாற்றியமைக்கப்படுகின்றன. இதை அலட்சியப்படுத்தும் குழுக்கள், தொழில்நுட்பக் கடனிலும் (technical debt), பார்ப்பதற்குச் சரியாகத் தோன்றி அழுத்தத்தின் கீழ் தோல்வியடையும் hallucinated தரவுகளிலும் சிக்கிக்கொள்கின்றன. இப்போது வேகம் முக்கியமல்ல, முடிவுகளின் நம்பகத்தன்மைதான் முக்கியம்.
இயந்திரத்திற்குள் இருக்கும் மர்மத்தை அளவிடுதல்
Measurement uncertainty என்பது ஒரு வெளியீட்டின் உண்மையான மதிப்பு எந்த வரம்பிற்குள் இருக்கும் என்பதைக் குறிக்கும் புள்ளிவிவரமாகும். பாரம்பரிய மென்பொருளில், இரண்டுடன் இரண்டைக் கூட்டினால் எப்போதும் நான்குதான் வரும். ஆனால் நவீன AI உலகில், விடை நான்காக இருக்கலாம், அல்லது நான்கு என்ற எண்ணின் வரலாற்றைப் பற்றி ஒரு நீண்ட கட்டுரையாக இருக்கலாம், அதில் தற்செயலாக அது சில நேரங்களில் ஐந்து என்றும் குறிப்பிடப்படலாம். புத்திசாலித்தனமான குழுக்கள் இப்போது ஒவ்வொரு பதிலுக்கும் ஒரு confidence score-ஐ வழங்க சிறப்பு மென்பொருளைப் பயன்படுத்துகின்றன. ஒரு மாடல் சட்டப்பூர்வமான சுருக்கத்தை வழங்கும்போது, அதன் confidence score குறைவாக இருந்தால், அந்த சிஸ்டம் அதை மனிதர்கள் சரிபார்க்க வேண்டியதாகக் குறிக்கும். இது தவறுகளைக் கண்டுபிடிப்பது மட்டுமல்ல, மாடலின் எல்லைகளைப் புரிந்துகொள்வது பற்றியது. ஒரு கருவி எங்கே தவறு செய்ய வாய்ப்புள்ளது என்று தெரிந்தால், அந்த இடங்களைச் சுற்றி பாதுகாப்பு வளையங்களை உருவாக்க முடியும். பெரும்பாலான ஆரம்பநிலை பயனர்கள் AI சரி அல்லது தவறு என்று நினைக்கிறார்கள். ஆனால் நிபுணர்களுக்குத் தெரியும், AI எப்போதும் ஒரு குறிப்பிட்ட நிகழ்தகவு நிலையில்தான் இயங்குகிறது என்று. அவர்கள் வெறும் uptime அல்லது token counts-ஐக் காட்டும் platform reporting-ஐத் தாண்டிச் செல்கிறார்கள். அதற்குப் பதிலாக, வெவ்வேறு வகையான கேள்விகளில் தவறுகள் எவ்வாறு பரவியுள்ளன என்பதைப் பார்க்கிறார்கள். மாடல் கணிதத்தில் மோசமடைந்து, படைப்பாற்றல் எழுத்தில் முன்னேறுகிறதா என்பதை அவர்கள் அறிய விரும்புகிறார்கள்.
பெரிய மாடல்கள் எப்போதும் குறைவான நிச்சயமற்ற தன்மையைக் கொண்டிருக்கும் என்பது பொதுவான தவறான கருத்து. இது பெரும்பாலும் தவறு. பெரிய மாடல்கள் சில நேரங்களில் தங்கள் hallucination-களில் அதிக நம்பிக்கையுடன் இருக்கலாம், இதனால் அவற்றைக் கண்டறிவது கடினம். குழுக்கள் இப்போது calibration எனப்படும் விஷயத்தைக் கண்காணிக்கின்றன. சரியாக calibrate செய்யப்பட்ட ஒரு மாடலுக்கு, தனக்கு விடை தெரியாது என்பது தெரியும். ஒரு மாடல் ஒரு தகவலைப் பற்றி 90 சதவீதம் உறுதியாக இருப்பதாகக் கூறினால், அது சரியாக 90 சதவீத நேரமே உண்மையாக இருக்க வேண்டும். அது 60 சதவீத நேரம்தான் சரியாக இருந்தால், அது அதிகப்படியான தன்னம்பிக்கை கொண்டது மற்றும் ஆபத்தானது. இது AI பயன்பாட்டின் ஆழமான அடுக்கு. இது வெறும் உரையைப் படிப்பதை விட, வெளியீடுகளின் கணிதத்தை ஆழமாக ஆராய வேண்டும். நிறுவனங்கள் இப்போது இந்த drift-ஐ அளவிட தரவு விஞ்ஞானிகளை (data scientists) வேலைக்கு அமர்த்துகின்றன. தெளிவற்ற தூண்டுதல்களை (prompts) மாடல் எவ்வாறு புரிந்துகொள்கிறது என்பதில் உள்ள வடிவங்களை அவர்கள் தேடுகிறார்கள். நிச்சயமற்ற தன்மையில் கவனம் செலுத்துவதன் மூலம், ஒரு சிஸ்டம் வாடிக்கையாளருக்குப் பாதிப்பை ஏற்படுத்தும் முன்பே அது எப்போது செயலிழக்கும் என்பதைக் கணிக்க முடியும். நிறுவனத்தின் நற்பெயருக்கு ஆபத்து விளைவிக்காமல், தொழில்முறை சூழலில் இந்த கருவிகளைப் பயன்படுத்துவதற்கு இந்த முன்கூட்டிய அணுகுமுறை மட்டுமே வழி.
நம்பிக்கையின் உலகளாவிய நெருக்கடி
இந்தக் கடுமையான அளவீட்டு முறை வெற்றிடத்திலிருந்து வரவில்லை. தரவு ஒருமைப்பாடு (data integrity) சட்டப்பூர்வத் தேவையாகி வரும் உலகளாவிய சூழலுக்கு இது ஒரு பதில். ஐரோப்பிய ஒன்றியத்தில், 2026-ன் AI Act, உயர் அபாயமுள்ள சிஸ்டம்கள் எவ்வாறு கண்காணிக்கப்பட வேண்டும் என்பதற்கு ஒரு முன்னுதாரணத்தை அமைத்துள்ளது. டோக்கியோ, லண்டன் மற்றும் சான் பிரான்சிஸ்கோவில் உள்ள நிறுவனங்கள், black box என்ற சாக்குப்போக்கின் பின்னால் ஒளிந்துகொள்ள முடியாது என்பதை உணர்ந்து வருகின்றன. ஒரு தானியங்கி சிஸ்டம் கடனை மறுத்தாலோ அல்லது வேலை விண்ணப்பத்தை நிராகரித்தாலோ, அந்த நிறுவனம் பிழைக்கான வரம்பை (margin of error) விளக்க வேண்டும். இது வெளிப்படைத்தன்மைக்கான புதிய உலகளாவிய தரத்தை உருவாக்கியுள்ளது. தானியங்கி தளவாடங்களை (logistics) நம்பியிருக்கும் விநியோகச் சங்கிலிகள் இந்த அளவீடுகளுக்கு மிகவும் உணர்திறன் கொண்டவை. ஒரு முன்கணிப்பு மாடலில் ஏற்படும் சிறிய பிழை, மில்லியன் கணக்கான டாலர் எரிபொருள் வீணாவதற்கோ அல்லது சரக்கு இழப்பிற்கோ வழிவகுக்கும். ஆபத்துகள் இனி ஒரு chat window-க்குள் மட்டும் இல்லை. அவை உடல் ரீதியானவை மற்றும் நிதி ரீதியானவை. இந்த உலகளாவிய அழுத்தம், மென்பொருள் வழங்குநர்களைத் தங்கள் சிஸ்டம்களைத் திறந்து, தங்கள் நிறுவன வாடிக்கையாளர்களுக்கு அதிக granular தரவை வழங்கத் தூண்டுகிறது. அவர்கள் இனி ஒரு எளிய இடைமுகத்தை மட்டும் வழங்க முடியாது. குழுக்கள் தகவலறிந்த முடிவுகளை எடுக்க அனுமதிக்கும் raw confidence தரவை அவர்கள் வழங்க வேண்டும்.
இந்த மாற்றத்தின் தாக்கம் அதிக துல்லியம் தேவைப்படும் துறைகளில் வலுவாக உணரப்படுகிறது. சுகாதாரம் மற்றும் நிதித் துறைகள் இந்த புதிய அறிக்கையிடல் தரங்களை உருவாக்குவதில் முன்னணியில் உள்ளன. அவர்கள் பொதுவான உதவியாளர் என்ற கருத்திலிருந்து விலகி, குறுகிய, அளவிடக்கூடிய இலக்குகளைக் கொண்ட சிறப்பு முகவர்களை (specialized agents) நோக்கி நகர்கிறார்கள். இது நிச்சயமற்ற தன்மையைக் குறைத்து, காலப்போக்கில் செயல்திறனைக் கண்காணிப்பதை எளிதாக்குகிறது. ஒரு AI சிஸ்டத்தின் மிக மதிப்புமிக்க பகுதி மாடல் அல்ல, அதைச் சரிபார்க்கப் பயன்படுத்தப்படும் தரவுதான் என்பதை அனைவரும் உணர்ந்து வருகின்றனர். நிறுவனங்கள் தங்கள் உள் சோதனைகளுக்கு ground truth-ஆகச் செயல்படும் “golden datasets”-ல் அதிக முதலீடு செய்கின்றன. இது ஒவ்வொரு புதிய மாடல் பதிப்பையும் தெரிந்த சரியான பதில்களுடன் ஒப்பிட்டு, நிச்சயமற்ற நிலைகள் மாறியுள்ளதா என்று பார்க்க அனுமதிக்கிறது. இது கடந்த காலத்தின் சோதனைமுறை “prompt engineering”-ஐ விட, பாரம்பரிய பொறியியல் போன்ற ஒரு கடுமையான செயல்முறையாகும். ஆபத்துகள் தெரிந்த மற்றும் நிர்வகிக்கப்படும் ஒரு கணிக்கக்கூடிய சூழலை உருவாக்குவதே இதன் நோக்கம். இதுதான் measurement uncertainty-ஐ ஒரு பொறுப்பாக இல்லாமல், ஒரு போட்டி நன்மையாக மாற்றும் வழியாகும்.
உலகளாவிய குழுக்கள் இந்த கருவிகளின் கலாச்சார தாக்கத்தையும் கையாளுகின்றன. வேகம் மற்றும் துல்லியம் ஆகியவற்றுக்கு இடையே ஒரு மோதல் உள்ளது. பல பிராந்தியங்களில், அதிகப்படியான ஒழுங்குமுறை (over-regulation) கண்டுபிடிப்புகளை மெதுவாக்கும் என்ற அச்சம் உள்ளது. இருப்பினும், துறையின் தலைவர்கள், மணல் மீது நீங்கள் எதையும் உருவாக்க முடியாது என்று வாதிடுகின்றனர். நிச்சயமற்ற தன்மைக்கான தெளிவான அளவீடுகளை நிறுவுவதன் மூலம், அவர்கள் உண்மையில் வேகமான வளர்ச்சியைச் செயல்படுத்துகிறார்கள். செயல்திறனில் ஏதேனும் குறிப்பிடத்தக்க விலகல்கள் இருந்தால், அவற்றைத் தங்கள் கண்காணிப்பு சிஸ்டம்கள் கண்டறியும் என்ற நம்பிக்கையுடன் அவர்கள் புதிய அம்சங்களை அறிமுகப்படுத்தலாம். இது சிஸ்டம் புத்திசாலித்தனமாக மாறும்போது பாதுகாப்பாகவும் மாறும் ஒரு feedback loop-ஐ உருவாக்குகிறது. உலகளாவிய உரையாடல் “AI என்ன செய்ய முடியும்” என்பதிலிருந்து “AI செய்ததை நாம் எப்படி நிரூபிக்க முடியும்” என்பதற்கு மாறிவருகிறது. இது மனிதர்களுக்கும் இயந்திரங்களுக்கும் இடையிலான உறவில் ஒரு அடிப்படை மாற்றமாகும். இதற்குப் புதிய திறன்களும், தரவைப் பற்றிய புதிய சிந்தனை முறையும் தேவை. இந்த புதிய யுகத்தில் வெற்றியாளர்கள், AI பேசும் வார்த்தைகளுக்கு இடையே உள்ள மௌனத்தை விளக்கக்கூடியவர்களாக இருப்பார்கள். confidence scores என்பது உரையை விட முக்கியமானது என்பதைப் புரிந்துகொள்பவர்களே வெற்றி பெறுவார்கள்.
Hallucinating உதவியாளருடன் ஒரு செவ்வாய் காலை
இது நடைமுறையில் எவ்வாறு செயல்படுகிறது என்பதைப் புரிந்துகொள்ள, மார்கஸ் என்ற மூத்த திட்ட மேலாளரின் ஒரு நாளைக் கவனியுங்கள். அவர் ஷிப்பிங் மேனிஃபெஸ்ட்களை நிர்வகிக்க AI-ஐப் பயன்படுத்தும் ஒரு உலகளாவிய லாஜிஸ்டிக்ஸ் நிறுவனத்தில் பணிபுரிகிறார். ஒரு செவ்வாய்க்கிழமை, அவர் தனது dashboard-ஐத் திறந்து, AI ஐந்தாயிரம் ஆவணங்களைச் செயலாக்கியதைக் காண்கிறார். ஒரு அடிப்படை அறிக்கையிடல் கருவி இதை வெற்றியாகக் காட்டும். ஆனால், மார்கஸ் uncertainty heat map-ஐப் பார்க்கிறார். தென்கிழக்கு ஆசியாவில் உள்ள ஒரு குறிப்பிட்ட துறைமுகத்திலிருந்து வந்த ஆவணங்களில் confidence scores கடுமையாகக் குறைந்திருப்பதைக் கவனிக்கிறார். அவர் ஐந்தாயிரம் ஆவணங்களையும் சரிபார்க்க வேண்டிய அவசியமில்லை. சிஸ்டம் நிச்சயமற்றதாகக் குறிப்பிட்ட அந்த ஐம்பது ஆவணங்களை மட்டும் பார்த்தால் போதும். உள்ளூர் ஷிப்பிங் வடிவத்தில் ஏற்பட்ட மாற்றம் மாடலைக் குழப்பமடையச் செய்ததைக் கண்டறிகிறார். அவரது குழு நிச்சயமற்ற தன்மையைக் கண்காணிப்பதால், கப்பல்கள் ஏற்றப்படுவதற்கு முன்பே அவர்கள் பிழையைக் கண்டுபிடித்துவிடுகிறார்கள். அவர்கள் நிலையான platform reporting-ஐ நம்பியிருந்தால், அந்தப் பிழை முழு விநியோகச் சங்கிலியிலும் பரவி, தாமதங்களையும் அபராதங்களையும் ஏற்படுத்தியிருக்கும். எதைக் கண்காணிக்க வேண்டும் என்று தெரிந்த ஒரு குழுவின் நடைமுறைச் செயல்பாடு இது.
இந்தச் சூழல் ஒவ்வொரு துறையிலும் மீண்டும் நிகழ்கிறது. ஒரு மார்க்கெட்டிங் துறையில், ஒரு குழு நூற்றுக்கணக்கான சமூக ஊடக இடுகைகளை உருவாக்க AI-ஐப் பயன்படுத்தலாம். உருவாக்கப்பட்ட இடுகைகளின் எண்ணிக்கையைப் பார்ப்பதற்குப் பதிலாக, அவர்கள் மனித தலையீட்டு விகிதத்தைக் (human intervention rate) கண்காணிக்கிறார்கள். இது ஒரு பிழையைச் சரிசெய்ய மனிதர் தலையிட வேண்டிய AI வெளியீடுகளின் சதவீதமாகும். தலையீட்டு விகிதம் அதிகரிக்கத் தொடங்கினால், மாடல் பிராண்ட் குரலுடன் ஒத்துப்போகவில்லை அல்லது தூண்டுதல்கள் (prompts) புதுப்பிக்கப்பட வேண்டும் என்பதற்கான அறிகுறியாகும். இந்த அளவீடு சிஸ்டத்தில் உள்ள நிச்சயமற்ற தன்மையின் நேரடிப் பிரதிபலிப்பாகும். இது “AI எழுத்தாளர்களை மாற்றுகிறது” என்பதிலிருந்து “AI எழுத்தாளர்களை மேம்படுத்துகிறது, அந்த மேம்பாட்டின் செயல்திறனை நாங்கள் அளவிடுகிறோம்” என்ற உரையாடலுக்கு மாற்றுகிறது. இந்தக் கருவிகளுக்கான முதலீட்டின் மீதான லாபத்தைக் கணக்கிட இது ஒரு தெளிவான வழியை வழங்குகிறது. தலையீட்டு விகிதம் 80 சதவீதமாக இருந்தால், AI உண்மையில் அதிக நேரத்தைச் சேமிக்கவில்லை. அது 5 சதவீதமாக இருந்தால், குழு மிகப்பெரிய அளவை எட்டியுள்ளது. தொழில்நுட்பத்தில் தொடர்ந்து முதலீடு செய்வதை நியாயப்படுத்த நிர்வாகிகள் பார்க்க வேண்டிய உறுதியான தரவு இது.
படைப்பாளிகளும் இந்த அளவீடுகளைப் பயன்படுத்த புதிய வழிகளைக் கண்டறிந்து வருகின்றனர். ஒரு மென்பொருள் உருவாக்குநர் ஒரு புதிய அம்சத்தை எழுத AI கோடிங் உதவியாளரைப் பயன்படுத்தலாம். குறியீட்டை அப்படியே ஏற்றுக்கொள்வதற்குப் பதிலாக, பிழைகள் ஏற்படுவதற்கான நிகழ்தகவை அளவிடும் தானியங்கி சோதனைகள் மூலம் அதை இயக்குகிறார்கள். அவர்கள் AI வெளியீட்டில் “code smell”-ஐத் தேடுகிறார்கள். தொழில்நுட்ப ரீதியாகச் சரியாக இருந்தாலும் பாதுகாப்பற்ற ஒரு தீர்வை AI எவ்வளவு அடிக்கடி பரிந்துரைக்கிறது என்பதைக் கண்காணிக்கிறார்கள். இந்த அபாயங்களை அளவிடுவதன் மூலம், அவர்கள் தங்கள் மேம்பாட்டுச் செயல்பாட்டில் சிறந்த பாதுகாப்பு வளையங்களை உருவாக்க முடியும். அவர்கள் கருவியைப் பயன்படுத்துவது மட்டுமல்ல, கருவியை நிர்வகிக்கிறார்கள். இந்த அளவிலான கண்காணிப்புதான் ஒரு பொழுதுபோக்கு ஆர்வலருக்கும் ஒரு நிபுணருக்கும் உள்ள வித்தியாசம். இதற்கு ஒரு சந்தேகத்திற்குரிய மனநிலை மற்றும் பார்ப்பதற்குச் சரியாகத் தோன்றும் வெளியீட்டில் உள்ள குறைபாடுகளைத் தேடும் விருப்பம் தேவை. AI-ன் உண்மை என்னவென்றால், அது பெரும்பாலும் மிகவும் நம்பிக்கையான வழிகளில் தவறாகவே இருக்கும். புத்திசாலித்தனமான குழுக்கள் இந்த குழப்பத்தை நேரடியாகப் பெயரிடுகின்றன. மாடல் சரியானது என்று அவர்கள் பாசாங்கு செய்வதில்லை. அது குறைபாடுடையது என்ற அனுமானத்தின் அடிப்படையில் தங்கள் முழு பணிப்பாய்வுகளையும் (workflow) உருவாக்குகிறார்கள். தானியங்கி உருவாக்கத்தின் இந்த யுகத்தில் நம்பகமான வேலையைச் செய்ய இது மட்டுமே வழி.
அரசாங்கங்கள் மற்றும் பொது நிறுவனங்களுக்கு ஆபத்துகள் இன்னும் அதிகம். சமூக சேவைகளுக்கான தகுதியைத் தீர்மானிக்க AI பயன்படுத்தப்படும்போது, பிழைக்கான வரம்பு மனித வாழ்க்கையில் நேரடித் தாக்கத்தை ஏற்படுத்துகிறது. 95 சதவீதம் துல்லியமான ஒரு சிஸ்டம் கூட இருபது பேரில் ஒருவரைத் தவறாகவே நடத்துகிறது. புத்திசாலித்தனமான அரசாங்கக் குழுக்கள் இப்போது “impact of the tail”-ஐக் கண்காணிக்கின்றன. அதாவது, AI தோல்வியடைந்த குறிப்பிட்ட நிகழ்வுகளைப் பார்த்து, ஏன் என்று கேட்கிறார்கள். அவர்கள் அதிக சராசரி மதிப்பெண்ணில் திருப்தியடைவதில்லை. தவறுகள் குறிப்பிட்ட மக்கள் தொகைக்கு எதிராகச் சார்புடையதா அல்லது தற்செயலாக நிகழ்கிறதா என்பதை அவர்கள் அறிய விரும்புகிறார்கள். இங்கேதான்
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
கண்ணுக்குத் தெரியாத பிழைகளின் விலை
ஒவ்வொரு தானியங்கி சிஸ்டத்திற்கும் ஒரு மறைமுகச் செலவு உண்டு. API அழைப்புகள் அல்லது சர்வர்களை இயக்குவதற்கான மின்சாரத்தின் விலை மிகவும் வெளிப்படையானது. கவனிக்கப்படாத பிழைகளின் விலைதான் மிகவும் ஆபத்தானது. ஒரு நிறுவனம் தனது உள் கூட்டங்களைச் சுருக்க AI-ஐ நம்பியிருந்து, அந்த AI ஒரு முக்கிய முடிவைத் தவறவிட்டால், அதன் விலை ஆயிரக்கணக்கான டாலர் உற்பத்தித்திறன் இழப்பாக இருக்கலாம். புத்திசாலித்தனமான குழுக்கள் இந்த மறைமுக அபாயங்களைப் பற்றி கடினமான கேள்விகளைக் கேட்கின்றன. AI தவறு செய்யும்போது யார் பொறுப்பு என்று அவர்கள் அறிய விரும்புகிறார்கள். மாடலை உருவாக்கியவரா? தூண்டுதலை (prompt) எழுதியவரா? வெளியீட்டை அங்கீகரித்த மேலாளரா? measurement uncertainty-ஐ மையப்படுத்துவதன் மூலம், ஒரு நெருக்கடி ஏற்படும் முன்பே இந்தக் கேள்விகளுக்குப் பதிலளிக்க அவர்கள் கட்டாயப்படுத்தப்படுகிறார்கள். அவர்கள் “வேகமாக நகர்ந்து விஷயங்களை உடைக்கும்” கலாச்சாரத்திலிருந்து “இரண்டு முறை அளந்து ஒருமுறை வெட்டும்” கலாச்சாரத்தை நோக்கி நகர்கிறார்கள். தொழில்நுட்பம் நமது சமூகத்தின் மையத்தில் ஒருங்கிணைக்கப்படுவதால் இது அவசியமான பரிணாமமாகும்.
feedback loop-ல் தனியுரிமை (privacy) மற்றொரு முக்கிய கவலையாகும். நிச்சயமற்ற தன்மையை திறம்பட அளவிட, மனிதர்கள் AI-உடன் எவ்வாறு தொடர்பு கொள்கிறார்கள் என்பது குறித்த தரவை குழுக்கள் பெரும்பாலும் சேகரிக்க வேண்டும். எந்த வெளியீடுகள் திருத்தப்பட்டன மற்றும் ஏன் என்பதை அவர்கள் பார்க்க வேண்டும். இது பாதுகாக்கப்பட வேண்டிய முக்கியமான தரவுகளின் புதிய தொகுப்பை உருவாக்குகிறது. இங்கே ஒரு முரண்பாடு உள்ளது. AI-ஐப் பாதுகாப்பானதாக்க, உங்களுக்கு அதிக தரவு தேவை. ஆனால் அதிக தரவு அதிக தனியுரிமை அபாயங்களை உருவாக்குகிறது. புத்திசாலித்தனமான குழுக்கள் இந்த முரண்பாட்டை மறைப்பதில்லை. அவர்கள் அதைத் தெளிவாக வைத்து வெளிப்படையாக விவாதிக்கிறார்கள். பயனர்களின் தனியுரிமையை சமரசம் செய்யாமல் செயல்திறனை அளவிட வழிகளைத் தேடுகிறார்கள். இது ஒரு மைய சர்வருக்குத் தரவை அனுப்பாத local models-ஐப் பயன்படுத்துவது அல்லது தனிப்பட்ட அடையாளங்களை மறைக்க differential privacy நுட்பங்களைப் பயன்படுத்துவது போன்றவற்றை உள்ளடக்கியிருக்கலாம். துல்லியமான மற்றும் நெறிமுறை சார்ந்த ஒரு சிஸ்டத்தை உருவாக்குவதே இதன் நோக்கம். இது சமநிலைப்படுத்துவது கடினம், ஆனால் நீண்ட காலத்திற்கு பொதுமக்களின் நம்பிக்கையைத் தக்கவைக்க இதுவே ஒரே வழி.
இறுதி வரம்பு மனித காரணி. சிறந்த அளவீடுகள் இருந்தாலும், மனிதர்கள் இன்னும் “automation bias”-க்கு ஆளாகிறார்கள். இது ஒரு இயந்திரம் தவறாக இருந்தாலும் அதை நம்பும் போக்கு. ஒரு dashboard மாடலுக்கு 99 சதவீத confidence score இருப்பதாகக் கூறினால், ஒரு மனிதர் அந்த வேலையைச் சரிபார்ப்பதை நிறுத்திவிட அதிக வாய்ப்புள்ளது. புத்திசாலித்தனமான குழுக்கள் “red team” சவால்களை வேண்டுமென்றே அறிமுகப்படுத்துவதன் மூலம் இதை எதிர்க்கின்றன. அவர்கள் எப்போதாவது ஒரு மனிதருக்குத் தெரிந்தே தவறான வெளியீட்டைக் கொடுத்து, அதைக் கண்டுபிடிக்கிறார்களா என்று பார்க்கலாம். இது human-in-the-loop-ஐக் கூர்மையாக வைத்திருக்கிறது மற்றும் அவர்களை AI-க்கான ரப்பர் ஸ்டாம்பாக மாறுவதைத் தடுக்கிறது. எந்தவொரு AI சிஸ்டத்தின் மிக முக்கியமான பகுதி அதைப் பயன்படுத்தும் நபர் என்பதை இது அங்கீகரிக்கிறது. சந்தேகத்திற்குரிய மற்றும் தகவலறிந்த பயனர் இல்லாமல், மிகவும் மேம்பட்ட மாடல் கூட ஒரு பொறுப்பாகும். வெற்றியின் உண்மையான அளவீடு AI எவ்வளவு செய்ய முடியும் என்பது அல்ல, மனிதர் எவ்வளவு சரிபார்க்க முடியும் என்பதுதான். இதுவே தொழில்நுட்பத்தை நடைமுறை முடிவுகளுடன் இணைத்து வைத்திருக்கும் நங்கூரம்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.Inference Engine-ன் உட்புறம்
மேற்பரப்பு நிலைக்கு அப்பால் செல்ல விரும்புவோருக்கு, இந்த அளவீடுகளின் தொழில்நுட்பச் செயலாக்கம் சில முக்கிய கூறுகளை உள்ளடக்கியது. முதலாவதாக, மாடலால் உருவாக்கப்பட்ட டோக்கன்களின் log-probabilities-ஐக் குழுக்கள் பார்க்கின்றன. அடுத்த வார்த்தையைத் தேர்ந்தெடுக்க மாடல் எவ்வளவு “போராடியது” என்பதைச் சொல்லும் raw தரவு இது. log-probabilities-ல் அதிக மாறுபாடு இருப்பது அதிக நிச்சயமற்ற தன்மையின் தெளிவான அறிகுறியாகும். பல நவீன API-கள் இப்போது உரை வெளியீட்டுடன் இந்தத் தரவை இழுக்க உங்களை அனுமதிக்கின்றன. இரண்டாவதாக, குழுக்கள் “ensemble methods”-ஐப் பயன்படுத்தி நவீன AI அறிக்கையிடல் உத்திகளைச் செயல்படுத்துகின்றன. இது ஒரே தூண்டுதலை (prompt) மூன்று வெவ்வேறு மாடல்கள் மூலம் இயக்கி முடிவுகளை ஒப்பிடுவதை உள்ளடக்கியது. மூன்று மாடல்களும் ஒப்புக்கொண்டால், நிச்சயமற்ற தன்மை குறைவு. அவை மூன்று வெவ்வேறு பதில்களை வழங்கினால், சிஸ்டம் அந்த வெளியீட்டைச் சரிபார்ப்பிற்காகக் குறிக்கும். இது AI-ஐ இயக்க அதிக செலவாகும் வழி, ஆனால் முக்கியமான பணிகளுக்கு, நம்பகத்தன்மை அதிகரிப்பதன் மூலம் அந்தச் செலவு நியாயப்படுத்தப்படுகிறது.
பணிப்பாய்வு ஒருங்கிணைப்பு (workflow integration) அடுத்த எல்லையாகும். தரவு இருப்பது மட்டும் போதாது. அதை பணியாளர்கள் இருக்கும் இடத்தில் வைக்க வேண்டும். Slack, Microsoft Teams அல்லது Jira போன்ற கருவிகளுக்கான custom plugins-ஐ உருவாக்குவது, confidence score-ஐ இடைமுகத்திலேயே நேரடியாகக் காட்டுகிறது. ஒரு உருவாக்குநர் தனது எடிட்டரில் குறியீட்டின் ஒரு பகுதியில் மஞ்சள் நிற எச்சரிக்கை ஒளியைக் கண்டால், கவனமாக இருக்க வேண்டும் என்று அவருக்குத் தெரியும். தனித்தனி dashboard-ஐச் சரிபார்ப்பதை விட இது சிறந்த அனுபவம். குழுக்கள் தங்கள் API வரம்புகளை நிர்வகிக்க, குறைந்த முன்னுரிமை பணிகளை மலிவான, நிச்சயமற்ற மாடல்களுக்கு அனுப்பி, மிக முக்கியமான வேலைகளுக்கு உயர் துல்லிய மாடல்களைச் சேமிக்கின்றன. இந்த “model routing” AI stack-ன் ஒரு நிலையான பகுதியாக மாறி வருகிறது. இதற்குச் செலவு, வேகம் மற்றும் துல்லியம் ஆகியவற்றுக்கு இடையேயான வர்த்தக பரிமாற்றங்கள் (trade-offs) பற்றிய நுணுக்கமான புரிதல் தேவை. புத்திசாலித்தனமான குழுக்கள் இப்போது கண்காணிக்கும் முதன்மை தொழில்நுட்ப அளவீடுகளைப் பின்வரும் பட்டியல் காட்டுகிறது:
- முழு பதில் சரத்திலும் டோக்கன் log-probability மாறுபாடு.
- ஒரே தூண்டுதலின் பல மறு செய்கைகளுக்கு இடையே உள்ள சொற்பொருள் ஒற்றுமை மதிப்பெண்கள்.
- பணி வகை மற்றும் மாடல் பதிப்பின் அடிப்படையில் வகைப்படுத்தப்பட்ட மனித தலையீட்டு விகிதங்கள்.
- அதிக நிச்சயமற்ற வெளியீடுகளுடன் தொடர்புடைய தாமத ஸ்பைக்குகள் (latency spikes).
- உருவாக்கப்பட்ட உரையில் உறுதிப்படுத்தப்படாத கூற்றுகளுக்கு எதிராக உறுதிப்படுத்தப்பட்ட உண்மைகளின் விகிதம்.
உள்ளூர் சேமிப்பு (local storage) மற்றும் vector databases நிச்சயமற்ற தன்மையைக் குறைப்பதில் பங்கு வகிக்கின்றன. Retrieval-Augmented Generation அல்லது RAG-ஐப் பயன்படுத்துவதன் மூலம், ஒரு கேள்விக்கு பதிலளிக்கும் முன் குறிப்பிட்ட ஆவணங்களைப் பார்க்க மாடலை குழுக்கள் கட்டாயப்படுத்தலாம். இது hallucination-களின் வாய்ப்பை கணிசமாகக் குறைக்கிறது. இருப்பினும், RAG-க்கும் அதன் சொந்த அளவீடுகள் உள்ளன. குழுக்கள் இப்போது “retrieval precision”-ஐக் கண்காணிக்கின்றன. கேள்விக்கு பதிலளிக்க சிஸ்டம் சரியான ஆவணத்தைக் கண்டுபிடித்ததா என்பதை இது அளவிடுகிறது. retrieval படி தோல்வியுற்றால், generation படியும் தோல்வியடையும். இது ஒவ்வொரு இணைப்பிலும் நிர்வகிக்கப்பட வேண்டிய நிச்சயமற்ற சங்கிலியை உருவாக்குகிறது. நிறுவனத்தின் கீக் பிரிவு இனி குறியீடு எழுதுவது மட்டுமல்ல. இறுதி வெளியீடு உண்மைக்கு முடிந்தவரை நெருக்கமாக இருப்பதை உறுதி செய்யும் சிக்கலான சோதனைகள் மற்றும் சமநிலைகளின் குழாய்வழியை (pipeline) உருவாக்குவது பற்றியது. இதற்கு தரவு அறிவியல், மென்பொருள் பொறியியல் மற்றும் டொமைன் நிபுணத்துவம் ஆகியவற்றை இணைக்கும் புதிய வகை தொழில்நுட்ப அறிவு தேவை.
வெற்றிக்கான புதிய அளவீடு
Measurement uncertainty-ஐக் கண்காணிப்பதற்கான மாற்றம், முதல் large language models வெளியானதிலிருந்து AI வெளியில் ஏற்பட்டுள்ள மிக முக்கியமான வளர்ச்சியாகும். இது விளம்பரக் காலத்திலிருந்து பயன்பாட்டுக் காலத்திற்கு மாறுவதைக் குறிக்கிறது. AI-ன் மதிப்பு மனித பேச்சைப் பிரதிபலிப்பதில் இல்லை, மாறாக சிக்கலான பணிகளில் நம்பகமான கூட்டாளியாக இருப்பதில்தான் உள்ளது என்பதை புத்திசாலித்தனமான குழுக்கள் உணர்ந்துள்ளன. கூற்றுகளுக்கும் யதார்த்தத்திற்கும் இடையே உள்ள இடைவெளியில் கவனம் செலுத்துவதன் மூலம், நிஜ உலகில் நம்பக்கூடிய சிஸ்டங்களை அவர்கள் உருவாக்குகிறார்கள். அவர்கள் பிளாட்ஃபார்ம் விற்பனையாளர்கள் வழங்கும் அடிப்படை அறிக்கையிடலைத் தாண்டி, ஆழமான விளக்க நிலைக்குச் செல்கிறார்கள். இது ஒரு தெளிவான கதை அல்ல. இது நிலையான விழிப்புணர்வு தேவைப்படும் குழப்பமான, கடினமான செயல்முறை. இருப்பினும், இந்த அளவீடுகளைப் புறக்கணிப்பதன் விளைவுகள் புறக்கணிக்க முடியாத அளவுக்கு அதிகம். AI-ன் எதிர்காலம் அதன் சந்தேகங்களை அளவிடக்கூடியவர்களுக்கே சொந்தம். அடுத்த தசாப்தத்தின் தொழில்நுட்ப முன்னேற்றத்தை வரையறுக்கும் நடைமுறைப் பங்கு இது. எல்லாவற்றையும் அறிந்த ஒரு இயந்திரத்தை உருவாக்குவது இனி இலக்கல்ல. அது எப்போது யூகிக்கிறது என்பதை அறியும் இயந்திரத்தை உருவாக்குவதே இலக்கு.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.