நிஜமான சோதனைக்குப் பிறகும் எந்த AI கருவிகள் இன்னும் மிகைப்படுத்தப்பட்டதாகத் தோன்றுகின்றன?
வைரலான டெக் டெமோவிற்கும், அலுவலகத்தில் பயனுள்ள கருவிக்கும் இடையிலான இடைவெளி அதிகரித்து வருகிறது. மார்க்கெட்டிங் துறையினர் மாயாஜாலங்களை வாக்குறுதி அளிக்கும் அதே வேளையில், பயனர்களுக்குக் கிடைப்பதோ வெறும் மேம்படுத்தப்பட்ட ஆட்டோகம்பிளீட் (autocomplete) மட்டுமே. பலரும் இந்த சிஸ்டம்கள் சிந்திக்கும் என்று எதிர்பார்க்கிறார்கள், ஆனால் அவை அடுத்த வார்த்தையை மட்டுமே கணிக்கின்றன. இந்தத் தவறான புரிதலால், ஒரு கருவி அடிப்படை லாஜிக்கில் தவறு செய்யும்போதோ அல்லது உண்மைகளைத் திரித்துக் கூறும்போதோ ஏமாற்றம் ஏற்படுகிறது. மனித மேற்பார்வை இன்றி 100 சதவீதம் நம்பகமான கருவி உங்களுக்குத் தேவைப்பட்டால், தற்போதைய ஜெனரேட்டிவ் அசிஸ்டண்ட் (generative assistants) அலையை முழுமையாகத் தவிர்ப்பது நல்லது. துல்லியம் மட்டுமே முக்கியமாக இருக்கும் உயர்-நிலைச் சூழல்களுக்கு இவை இன்னும் தயாராகவில்லை. இருப்பினும், உங்கள் வேலை பிரைன்ஸ்டார்மிங் (brainstorming) அல்லது ரஃப் டிராஃப்டிங் (rough drafting) தொடர்பானதாக இருந்தால், இரைச்சலுக்கு அடியில் பயன் மறைந்திருக்கலாம். இதன் சாராம்சம் என்னவென்றால், இந்தக் கருவிகளின் புத்திசாலித்தனத்தை நாம் மிகைப்படுத்திக் கணிக்கிறோம், அதே சமயம் அவற்றைப் பயனுள்ளதாக்கத் தேவைப்படும் உழைப்பை குறைவாக மதிப்பிடுகிறோம். சமூக ஊடகங்களில் நீங்கள் காண்பவை பெரும்பாலும் கவனமாகத் தயாரிக்கப்பட்ட ஒரு நடிப்பு மட்டுமே, இது ஒரு சாதாரண நாற்பது மணிநேர வேலை வாரத்தின் அழுத்தத்தில் உடைந்துவிடும்.
அலங்கார உடையில் இருக்கும் கணிப்பு எஞ்சின்கள்
பல கருவிகள் ஏன் ஏமாற்றமளிக்கின்றன என்பதைப் புரிந்துகொள்ள, அவை உண்மையில் என்ன என்பதை நீங்கள் புரிந்துகொள்ள வேண்டும். இவை லார்ஜ் லாங்குவேஜ் மாடல்கள் (LLMs). இவை மனித உரைகளின் பிரம்மாண்டமான டேட்டாசெட்களில் பயிற்சி அளிக்கப்பட்ட புள்ளிவிவர எஞ்சின்கள். இவற்றுக்கு உண்மை, அறநெறி அல்லது நிஜ உலகம் பற்றிய புரிதல் கிடையாது. நீங்கள் ஒரு கேள்வியைக் கேட்கும்போது, அந்த சிஸ்டம் அதன் பயிற்சித் தரவுகளில் உள்ள பேட்டர்ன்களைத் தேடி, நம்பகமானதாகத் தோன்றும் பதிலை உருவாக்குகிறது. அதனால்தான் இவை கவிதை எழுதுவதில் சிறந்தவையாகவும், கணிதத்தில் மோசமானவையாகவும் இருக்கின்றன. இவை ஒரு சரியான பதிலை அடைவதற்கான லாஜிக்கைப் பின்பற்றுவதற்குப் பதிலாக, சரியான பதிலின் பாணியை மட்டுமே பிரதிபலிக்கின்றன. இந்த வேறுபாடுதான் AI ஒரு சர்ச் எஞ்சின் (search engine) என்ற பொதுவான தவறான புரிதலுக்குக் காரணமாகிறது. ஒரு சர்ச் எஞ்சின் ஏற்கனவே உள்ள தகவலைக் கண்டறியும். ஒரு LLM நிகழ்தகவு அடிப்படையில் புதிய உரையை உருவாக்கும். இதனால்தான் “ஹாலுசினேஷன்” (hallucinations) ஏற்படுகிறது. சிஸ்டம் தான் என்ன செய்ய உருவாக்கப்பட்டதோ அதைத்தான் செய்கிறது, அதாவது ஒரு ஸ்டாப் டோக்கன் (stop token) வரும் வரை பேசிக்கொண்டே இருக்கிறது.
தற்போதைய சந்தை ரேப்பர்களால் (wrappers) நிரம்பியுள்ளது. இவை OpenAI அல்லது Anthropic போன்ற நிறுவனங்களின் API-ஐப் பயன்படுத்தி, தனிப்பயன் இடைமுகத்தைச் சேர்க்கும் எளிய அப்ளிகேஷன்கள். பல ஸ்டார்ட்அப்கள் (startups) தனித்துவமான தொழில்நுட்பம் இருப்பதாகக் கூறுகின்றன, ஆனால் அவை பெரும்பாலும் ஒரே மாடலின் வெவ்வேறு வடிவங்களே. அதன் அடிப்படை ஆர்க்கிடெக்சரை (architecture) விளக்காத எந்தவொரு கருவியையும் நீங்கள் எச்சரிக்கையுடன் அணுக வேண்டும். தற்போது நடைமுறையில் சோதிக்கப்படும் மூன்று முக்கிய வகை கருவிகள் உள்ளன:
- மின்னஞ்சல்கள் மற்றும் அறிக்கைகளுக்கான டெக்ஸ்ட் ஜெனரேட்டர்கள் (text generators), இவை பெரும்பாலும் ரோபோ போல ஒலிக்கின்றன.
- மனித கைகள் அல்லது உரை போன்ற குறிப்பிட்ட விவரங்களில் தடுமாறும் இமேஜ் கிரியேட்டர்கள் (image creators).
- பாய்லர் பிளேட் (boilerplate) குறியீடுகளை எழுதக்கூடிய, ஆனால் சிக்கலான லாஜிக்கில் தடுமாறும் கோடிங் அசிஸ்டண்ட்கள் (coding assistants).
உண்மை என்னவென்றால், இந்தக் கருவிகளை உலகத்திலுள்ள அனைத்து புத்தகங்களையும் படித்த, ஆனால் நிஜ வாழ்க்கையை அனுபவிக்காத இன்டர்ன்களாக (interns) பார்ப்பதே சிறந்தது. எதையேனும் பயனுள்ளதாக உருவாக்க இவை தொடர்ச்சியான சரிபார்ப்பையும் குறிப்பிட்ட அறிவுறுத்தல்களையும் கோருகின்றன. இவை தானாகவே வேலை செய்யும் என்று நீங்கள் எதிர்பார்த்தால், ஒவ்வொரு முறையும் ஏமாற்றமே மிஞ்சும்.
உலகளாவிய FOMO பொருளாதாரம்
இந்தக் கருவிகளைப் பயன்படுத்த வேண்டும் என்ற அழுத்தம் அவற்றின் நிரூபிக்கப்பட்ட செயல்திறனிலிருந்து வரவில்லை. இது உலகளாவிய FOMO (fear of missing out) உணர்விலிருந்து வருகிறது. பெரிய நிறுவனங்கள் பில்லியன் கணக்கான டாலர்களை லைசென்ஸ்களுக்காகச் செலவிடுகின்றன, ஏனெனில் தங்கள் போட்டியாளர்கள் ரகசிய அனுகூலத்தைக் கண்டறிந்துவிடுவார்கள் என்று அவை அஞ்சுகின்றன. இது ஒரு விசித்திரமான பொருளாதாரச் சூழலை உருவாக்கியுள்ளது, அங்கு AI-க்கான தேவை அதிகமாக உள்ளது, ஆனால் உண்மையான உற்பத்தித்திறன் வளர்ச்சியை அளவிடுவது கடினம். Gartner குரூப் போன்ற நிறுவனங்களின் ஆராய்ச்சியின்படி, இந்தத் தொழில்நுட்பங்கள் பல தற்போது மிகைப்படுத்தப்பட்ட எதிர்பார்ப்புகளின் உச்சத்தில் உள்ளன. மனித ஊழியர்களுக்குப் பதிலாக இவற்றை மாற்றுவது விற்பனைப் பேச்சுகளில் கூறப்பட்டதை விட மிகவும் கடினம் என்பதை நிறுவனங்கள் உணரும்போது, ஏமாற்றத்தின் காலம் தவிர்க்க முடியாதது. அவுட்சோர்சிங் (outsourcing) ஒரு காலத்தில் வளர்ச்சியின் முதன்மை காரணியாக இருந்த வளரும் பொருளாதாரங்களில் இதன் தாக்கம் அதிகமாக உணரப்படுகிறது. இப்போது, அதே பணிகள் தரம் குறைந்த AI மூலம் தானியக்கமாக்கப்படுவதால், உள்ளடக்கத் தரத்தில் ஒரு வீழ்ச்சி ஏற்பட்டுள்ளது.
உழைப்பு எவ்வாறு மதிப்பிடப்படுகிறது என்பதில் மாற்றத்தைக் காண்கிறோம். ஒரு அடிப்படை மின்னஞ்சலை எழுதும் திறன் இனி ஒரு சந்தைப்படுத்தக்கூடிய திறமை அல்ல. சரிபார்ப்பதற்கும் திருத்துவதற்கும் உள்ள திறனுக்கே மதிப்பு உயர்ந்துள்ளது. இது ஒரு புதிய வகையான டிஜிட்டல் பிளவை (digital divide) உருவாக்குகிறது. மிகவும் சக்திவாய்ந்த மாடல்களை வாங்கக்கூடியவர்களும், அவற்றை திறம்பட ப்ராம்ப்ட் (prompt) செய்யும் திறனும் கொண்டவர்கள் முன்னிலையில் இருப்பார்கள். மற்றவர்கள் அனைவரும் பொதுவான மற்றும் பெரும்பாலும் தவறான முடிவுகளைத் தரும் இலவச, கீழ்நிலை மாடல்களையே பயன்படுத்த வேண்டியிருக்கும். இது வெறும் தொழில்நுட்பப் பிரச்சனை மட்டுமல்ல. இது அடுத்த தலைமுறை ஊழியர்களை நாம் எவ்வாறு பயிற்றுவிக்கிறோம் என்பதை பாதிக்கும் ஒரு பொருளாதார மாற்றமாகும். நுழைவு-நிலை பணிகளுக்கு நாம் இந்த சிஸ்டம்களை அதிகமாகச் சார்ந்திருந்தால், எதிர்காலத்தில் சிஸ்டம்களைக் கண்காணிக்கத் தேவையான மனித நிபுணத்துவத்தை நாம் இழக்க நேரிடும். [Insert Your AI Magazine Domain Here]-ல் உள்ள சமீபத்திய AI செயல்திறன் பெஞ்ச்மார்க் (benchmarks) முடிவுகள், மாடல்கள் பெரிதாகிக்கொண்டே இருந்தாலும், பகுத்தறிவுத் திறனில் முன்னேற்ற விகிதம் குறைந்து வருவதைக் காட்டுகின்றன. இது மெஷின் லேர்னிங் (machine learning) அணுகுமுறையில் நாம் ஒரு எல்லையை எட்டியிருக்கலாம் என்பதைக் குறிக்கிறது.
மெஷினைச் சரிசெய்வதிலேயே கழியும் ஒரு செவ்வாய்க்கிழமை
நடுத்தர நிறுவனத்தில் புராஜெக்ட் மேனேஜராக இருக்கும் சாராவின் அனுபவத்தைக் கவனியுங்கள். அவர் தனது நாளை முந்தைய இரவு வந்த நீண்ட மின்னஞ்சல் சங்கிலியைச் சுருக்கித் தரும்படி ஒரு AI அசிஸ்டண்டிடம் கேட்டுத் தொடங்குகிறார். அந்த கருவி புல்லட் பாயிண்டுகளுடன் ஒரு பட்டியலைத் தருகிறது. மூன்றாவது மின்னஞ்சலில் குறிப்பிடப்பட்டிருந்த காலக்கெடு மாற்றத்தை அது முற்றிலும் தவறவிட்டதை அவர் உணரும் வரை அது சரியாகவே தெரிகிறது. இதுதான் AI-ன் மறைமுகச் செலவு. சாரா வாசிப்பதில் ஐந்து நிமிடங்களைச் சேமித்தார், ஆனால் அந்த கருவியை இனி நம்பாததால், அந்தச் சுருக்கத்தைச் சரிபார்க்க பத்து நிமிடங்களைச் செலவிட்டார். பின்னர், அவர் ஒரு பிரசன்டேஷனுக்காக எளிய சார்ட் ஒன்றை உருவாக்க AI இமேஜ் ஜெனரேட்டரைப் பயன்படுத்த முயற்சிக்கிறார். அந்த கருவி அழகான கிராபிக்ஸைத் தருகிறது, ஆனால் அச்சுகளில் உள்ள எண்கள் புரியாத குப்பையாக உள்ளன. பத்து வினாடி வேலையாக இருக்க வேண்டியதைச் சரிசெய்ய அவர் ஒரு மணிநேரம் பாரம்பரிய டிசைன் புரோகிராமில் செலவிடுகிறார். இதுதான் பல ஊழியர்களின் அன்றாட உண்மை. கருவிகள் தொடக்கத்தைத் தருகின்றன, ஆனால் பெரும்பாலும் உங்களை தவறான திசையில் அழைத்துச் செல்கின்றன.
பிரச்சனை என்னவென்றால், இந்தக் கருவிகள் சரியாக இருக்க வேண்டும் என்பதற்காக அல்ல, நம்பிக்கையுடன் இருக்க வேண்டும் என்பதற்காக வடிவமைக்கப்பட்டுள்ளன. சரியான பதிலுக்கு இருக்கும் அதே அதிகாரத் தொனியுடன் இவை தவறான பதிலையும் தரும். இது பயனருக்கு ஒரு மன அழுத்தத்தை உருவாக்குகிறது. அவற்றைப் பயன்படுத்தும்போது உங்களால் ஒருபோதும் நிம்மதியாக இருக்க முடியாது. ஒரு எழுத்தாளருக்கு, முதல் டிராஃப்ட்டை உருவாக்க AI-ஐப் பயன்படுத்துவது, வேறொருவரின் குழப்பத்தைச் சுத்தம் செய்வது போல உணர்த்துகிறது. இந்த மாடல்கள் விரும்பும் கிளிஷேக்கள் (cliches) மற்றும் மீண்டும் மீண்டும் வரும் சொற்றொடர்களை நீக்குவதை விட, புதிதாக எழுதுவதே வேகமானது.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
C-Suite-க்கு கடினமான கேள்விகள்
இந்த சிஸ்டம்களை நம் வாழ்க்கையில் ஆழமாக ஒருங்கிணைக்கும்போது, மறைந்திருக்கும் செலவுகள் குறித்து நாம் கேட்க வேண்டும். நாம் தட்டச்சு செய்யும் ஒவ்வொரு ப்ராம்ப்ட்டும் அடுத்த மாடல் பதிப்பைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும்போது, நமது தனியுரிமைக்கு (privacy) என்னவாகும்? பெரும்பாலான நிறுவனங்களுக்குத் தரவு சேமிப்பு (data retention) குறித்த தெளிவான கொள்கை இல்லை. ஒரு ரகசிய வியூக ஆவணத்தை பொதுவான LLM-ல் பதிவேற்றினால், அந்தத் தகவல் போட்டியாளரின் குவெரியில் (query) வெளிப்பட வாய்ப்புள்ளது. சுற்றுச்சூழல் செலவும் உள்ளது. இந்த மாடல்களைப் பயிற்றுவிப்பதற்கும் இயக்குவதற்கும் டேட்டா சென்டர்களைக் குளிர்விக்க அதிகப்படியான மின்சாரமும் தண்ணீரும் தேவைப்படுகிறது. Nature இதழில் வெளியான ஒரு ஆய்வு, ஒரு பெரிய மாடல் குவெரியின் கார்பன் தடம் (carbon footprint) சாதாரண சர்ச் எஞ்சின் குவெரியை விட கணிசமாக அதிகம் என்று சுட்டிக்காட்டுகிறது. மின்னஞ்சல் உருவாக்கும் சிறிய வசதிக்காக சுற்றுச்சூழல் பாதிப்பை ஏற்பது அவசியமா? பதிப்புரிமை (copyright) தாக்கங்களையும் நாம் கருத்தில் கொள்ள வேண்டும். இந்த மாடல்கள் மில்லியன் கணக்கான கலைஞர்கள் மற்றும் எழுத்தாளர்களின் படைப்புகளை அவர்களின் அனுமதியின்றி பயிற்றுவிக்கப்பட்டன. நாம் அடிப்படையில் திருடப்பட்ட உழைப்பின் மீது கட்டப்பட்ட ஒரு மெஷினைப் பயன்படுத்துகிறோம்.
மனித உள்ளுணர்வு (intuition) குறித்த கேள்வியும் உள்ளது. நாம் சிந்திக்கும் திறனை மெஷின்களிடம் ஒப்படைத்தால், பிழைகளைக் கண்டறியும் திறனை இழந்துவிடுவோமா? AI உருவாக்கிய கட்டுரைகள் இணையத்தை நிரப்புவதால், இணைய உள்ளடக்கத்தின் தரம் குறைந்து வருவதை நாம் ஏற்கனவே காண்கிறோம். இது மாடல்கள் மற்ற மாடல்களின் வெளியீட்டில் பயிற்சி பெறும் ஒரு ஃபீட்பேக் லூப்பை (feedback loop) உருவாக்குகிறது, இது மாடல் கொலாப்ஸ் (model collapse) எனப்படும் தகவல் சிதைவுக்கு வழிவகுக்கிறது. இணையம் மறுசுழற்சி செய்யப்பட்ட AI உரைகளின் கடலாக மாறினால், புதிய யோசனைகள் எங்கிருந்து வரும்? இவை வெறும் தொழில்நுட்பத் தடைகள் மட்டுமல்ல. நாம் உருவாக்க விரும்பும் உலகம் குறித்த அடிப்படை கேள்விகள். நாம் தற்போது துல்லியம் மற்றும் அசல் தன்மையை விட வேகத்திற்கும் அளவுக்கும் முன்னுரிமை அளிக்கிறோம். இது சில ஆண்டுகளுக்கு வேலை செய்யலாம், ஆனால் நமது கூட்டு அறிவுக்கான நீண்டகால செலவுகள் கடுமையாக இருக்கலாம். நமக்குச் சிந்திக்க உதவும் கருவிகள் வேண்டுமா அல்லது நமக்காகச் சிந்திக்கும் கருவிகள் வேண்டுமா என்பதை நாம் தீர்மானிக்க வேண்டும்.
பவர் யூசர்களுக்கான தொழில்நுட்ப வரம்புகள்
அடிப்படை சாட் இடைமுகத்தைத் தாண்டிச் செல்ல விரும்புவோருக்கு, வரம்புகள் இன்னும் தெளிவாகத் தெரியும். பவர் யூசர்கள் (power users) பெரும்பாலும் தனிப்பயன் தீர்வுகளை உருவாக்க வொர்க்ஃப்ளோ இன்டகிரேஷன் (workflow integrations) மற்றும் API அணுகலை நாடுகின்றனர். இருப்பினும், அவர்கள் விரைவில் கான்டெக்ஸ்ட் விண்டோ (context window) மற்றும் டோக்கன் லிமிட் (token limit) சுவரை எதிர்கொள்கின்றனர். கான்டெக்ஸ்ட் விண்டோ என்பது ஒரு உரையாடலின் போது மாடல்