AI விவாதத்தை மாற்றியமைத்த நேர்காணல்கள் 2026
Product Demo சகாப்தத்தின் முடிவு
செயற்கை நுண்ணறிவு (AI) குறித்த உரையாடல் தொழில்நுட்ப சாத்தியக்கூறுகளில் இருந்து அரசியல் அவசியமாக மாறியுள்ளது. பல ஆண்டுகளாக, மக்கள் மெருகூட்டப்பட்ட டெமோக்கள் மற்றும் கவனமாகத் திட்டமிடப்பட்ட கீநோட்டுகளை மட்டுமே பார்த்தனர். உலகின் சக்திவாய்ந்த லேப்களின் தலைவர்கள் நீண்ட நேர்காணல்களைத் தொடங்கியபோது இது மாறியது. பத்திரிகையாளர்கள் மற்றும் பாட்காஸ்டர்களுடனான இந்த உரையாடல்கள் வெறும் மார்க்கெட்டிங் பயிற்சிகள் மட்டுமல்ல. கம்ப்யூட்டிங்கின் எதிர்காலத்தை யார் கட்டுப்படுத்துவார்கள் என்பதை முதலீட்டாளர்களுக்கும் ஒழுங்குமுறை அமைப்புகளுக்கும் தெரிவிக்கும் சமிக்ஞைகளாக இவை இருந்தன. தொழில்நுட்பம் வேலை செய்கிறதா இல்லையா என்பதை நாம் இனி விவாதிக்கவில்லை. நம் உலகத்தை இயக்கும் நுண்ணறிவைச் சொந்தமாக்க யாருக்கு அனுமதி உண்டு என்பதைத்தான் விவாதிக்கிறோம். நிர்வாகிகள் இப்போது அம்சங்களை விட நிர்வாகத்தில் கவனம் செலுத்துவதை இந்த மாற்றம் காட்டுகிறது. அவர்கள் பொறியாளர்களாக இருப்பதிலிருந்து அரசுத் தலைவர்களைப் போல செயல்படத் தொடங்கியுள்ளனர். முதன்மை தயாரிப்பு என்பது மாடல் மட்டுமல்ல, பொதுமக்களின் நம்பிக்கை மற்றும் அரசாங்கத்தின் அனுமதி என்பதை இந்த மாற்றம் குறிக்கிறது.
நிர்வாகிகளின் ஸ்கிரிப்டை புரிந்துகொள்ளுதல்
AI-ன் தற்போதைய நிலையைப் புரிந்துகொள்ள, சொல்லப்படாத விஷயங்களைக் கவனிக்க வேண்டும். சமீபத்திய உயர்-நிலை நேர்காணல்களில், OpenAI மற்றும் Anthropic நிறுவனங்களின் CEO-க்கள் கடினமான கேள்விகளுக்குப் பதிலளிக்க ஒரு குறிப்பிட்ட முறையை உருவாக்கியுள்ளனர். பயிற்சித் தரவு (training data) பற்றி கேட்கப்படும்போது, குறிப்பிட்ட ஆதாரங்களை விளக்காமல் ‘fair use’ என்று கூறுகிறார்கள். மின் நுகர்வு பற்றி கேட்கப்படும்போது, தற்போதைய கிரிட் அழுத்தத்தை விட எதிர்கால ‘fusion power’ பற்றி பேசுகிறார்கள். இது ஒரு மூலோபாயத் தவிர்ப்பு; இன்றைய தொழில்நுட்பத்தால் தீர்க்கப்படும் எதிர்காலத்தைப் பற்றிப் பேசுவதன் மூலம் கவனத்தைத் திசைதிருப்பும் முயற்சி. இது ஒரு வட்டமான தர்க்கத்தை உருவாக்குகிறது, அங்கு AI-ன் அபாயங்கள் இன்னும் சக்திவாய்ந்த AI-ஐ உருவாக்குவதற்கான நியாயமாகப் பயன்படுத்தப்படுகின்றன.
இந்த நேர்காணல்கள் முக்கிய நிறுவனங்களுக்கு இடையே வளர்ந்து வரும் பிளவையும் வெளிப்படுத்துகின்றன. ஒரு தரப்பினர், தவறான நபர்கள் மாடல்களைப் பயன்படுத்துவதைத் தடுக்க மூடிய அணுகுமுறையை ஆதரிக்கின்றனர். மற்றொரு தரப்பினர், ஜனநாயக அணுகலை உறுதிப்படுத்த ‘open weights’ மட்டுமே வழி என்கின்றனர். இருப்பினும், ஒரு மாடல் எப்போது மிகவும் ஆபத்தானதாக மாறுகிறது என்பதில் இரு தரப்பினரும் வேண்டுமென்றே மழுப்புகின்றனர். இந்த தெளிவின்மை தற்செயலானது அல்ல. இது நிறுவனங்கள் தங்கள் திறன்கள் வளரும்போது இலக்குகளை மாற்றிக்கொள்ள அனுமதிக்கிறது. இந்த டிரான்ஸ்கிரிப்டுகளை வெறும் உரையாடல்களாகப் பார்க்காமல் மூலோபாய ஆவணங்களாகப் பார்த்தால், ஒருங்கிணைப்பின் தெளிவான வடிவத்தைக் காணலாம். பொதுமக்களுக்கு அதன் தாக்கம் முழுமையாகப் புரியும் முன்பே விவாதத்தின் விதிமுறைகளை வரையறுப்பதே இதன் நோக்கம். இதனால்தான், மாடல்கள் என்ன செய்ய முடியும் என்பதிலிருந்து அவை எவ்வாறு ஒழுங்குபடுத்தப்பட வேண்டும் என்பதற்கு கவனம் மாறியுள்ளது. இது ஒழுங்குமுறை செயல்முறையை முன்கூட்டியே கைப்பற்றும் முயற்சியாகும்.
வெளிநாட்டுத் தலைநகரங்கள் ஏன் கவனிக்கின்றன
இந்த நேர்காணல்களின் தாக்கம் சிலிக்கான் வேலிக்கு அப்பால் உள்ளது. ஐரோப்பா மற்றும் ஆசியாவில் உள்ள அரசாங்கங்கள், AI பாதுகாப்புக்கான தங்கள் சொந்த கட்டமைப்புகளை உருவாக்க இந்த பொது அறிக்கைகளைப் பயன்படுத்துகின்றன. ஒரு CEO பாட்காஸ்டில் ஒரு குறிப்பிட்ட அபாயத்தைக் குறிப்பிட்டால், அது ஒரு வாரத்திற்குள் பிரஸ்ஸல்ஸில் உள்ள கொள்கை விளக்கத்தில் இடம்பெறுகிறது. இது ஒரு பின்னூட்ட வளையத்தை உருவாக்குகிறது, அங்கு தொழில் துறை தனது சொந்த விதிகளைத் தானே எழுதுகிறது. உலகளாவிய பார்வையாளர்கள் வெறும் தொழில்நுட்ப விவரங்களைத் தேடவில்லை. அடுத்த டேட்டா சென்டர்கள் எங்கே கட்டப்படும் மற்றும் எந்த மொழிகளுக்கு முன்னுரிமை அளிக்கப்படும் என்பதற்கான குறிப்புகளைத் தேடுகிறார்கள். இந்த மாடல்களில் ஆங்கிலத்தின் ஆதிக்கம் ஒரு பெரிய பதற்றமான புள்ளியாகும், இது அமெரிக்காவைச் சார்ந்த நேர்காணல்களில் அடிக்கடி குறைத்து மதிப்பிடப்படுகிறது. இந்தத் தவிர்ப்பு, உலகின் பிற பகுதிகளின் கலாச்சார நுணுக்கங்களைப் புறக்கணித்து, மேற்கத்திய சந்தைகளில் தொடர்ந்து கவனம் செலுத்துவதைக் காட்டுகிறது.
இறையாண்மை கொண்ட AI (sovereign AI) பற்றியும் ஒரு விஷயம் உள்ளது. சில தனியார் நிறுவனங்களை மட்டும் நம்பியிருப்பது தங்கள் அறிவுசார் உள்கட்டமைப்புக்கு ஆபத்து என்பதை நாடுகள் உணர்ந்து வருகின்றன. சமீபத்திய நேர்காணல்கள், சாதாரண கிளவுட் ஒப்பந்தங்களுக்கு அப்பால் தேசிய அரசாங்கங்களுடன் கூட்டு சேருவதைக் குறிக்கின்றன. AI லேப்கள் பயன்பாட்டு நிறுவனங்களாகவோ அல்லது பாதுகாப்பு ஒப்பந்ததாரர்களாகவோ செயல்படும் எதிர்காலத்தை இந்த சமிக்ஞைகள் காட்டுகின்றன. இந்த உரையாடல்களில் கைவிடப்பட்ட மூலோபாய குறிப்புகள், சுதந்திரமான டெக் ஸ்டார்ட்அப் சகாப்தம் முடிந்துவிட்டதைக் காட்டுகின்றன. பெரிய டெக் நிறுவனங்களுக்கும் தேசிய நலன்களுக்கும் இடையே ஆழமான ஒருங்கிணைப்பு ஏற்படும் காலத்திற்குள் நாம் நுழைகிறோம். இது உலக வர்த்தகம் மற்றும் இந்த மாடல்களை வாங்கக்கூடிய நாடுகளுக்கும் முடியாத நாடுகளுக்கும் இடையிலான டிஜிட்டல் பிளவில் பெரும் தாக்கங்களை ஏற்படுத்துகிறது. அணுகலை ஜனநாயகப்படுத்துதல் என்ற சொல்லாடல், அதே நேர்காணல்களில் குறிப்பிடப்படும் அதிக செலவுகள் மற்றும் கட்டுப்பாட்டு உரிமங்களால் முரண்படுகிறது.
CEO பாட்காஸ்டின் தாக்கத்தில் வாழ்வது
ஒரு நடுத்தர மென்பொருள் நிறுவனத்தில் பணிபுரியும் தயாரிப்பு மேலாளரை கற்பனை செய்து பாருங்கள். ஒரு முக்கிய AI தலைவர் மூன்று மணிநேர நேர்காணல் கொடுக்கும்போதெல்லாம், அந்த நிறுவனத்தின் முழு வரைபடமும் மாறக்கூடும். ஒரு குறிப்பிட்ட அம்சம் அடுத்த ஆண்டு கோர் மாடலில் ஒருங்கிணைக்கப்படும் என்று ஒரு CEO குறிப்பால் உணர்த்தினால், அந்த அம்சத்தை உருவாக்கும் ஸ்டார்ட்அப் ஒரே இரவில் அதன் மதிப்பை இழக்கிறது. இது தற்போதைய சந்தையின் உண்மை. டெவலப்பர்கள் வெறும் API-களின் மேல் மட்டும் உருவாக்கவில்லை. அடிப்படை உள்கட்டமைப்பைக் கட்டுப்படுத்தும் சில நபர்களின் விருப்பங்களை அவர்கள் கணிக்க முயல்கின்றனர். ஒரு நவீன தொழில்நுட்ப ஊழியரின் வாழ்க்கை, வரவிருக்கும் மாற்றங்கள் அல்லது ‘context windows’ பற்றிய குறிப்புகளைத் தேடுவதிலேயே கழிகிறது. உரை என்பதிலிருந்து வீடியோவிற்கு கவனம் மாறுவது பற்றி ஒரு வாக்கியம் சொன்னால் கூட, அது மில்லியன் கணக்கான டாலர் வளர்ச்சி நேரத்தை செலவழிக்கும் மாற்றத்தைத் தூண்டக்கூடும்.
சாதாரண பயனருக்கு, தாக்கம் நுட்பமானது ஆனால் ஆழமானது. ஒரு பெரிய பாதுகாப்பு அறிவிப்புக்குப் பிறகு உங்கள் AI உதவியாளர் மிகவும் எச்சரிக்கையாக அல்லது அதிக வார்த்தைகளைப் பேசுவதை நீங்கள் கவனிக்கலாம். இந்த மாற்றங்கள் பெரும்பாலும் இந்த நேர்காணல்களால் உருவாக்கப்பட்ட பொது அழுத்தத்தின் நேரடி விளைவாகும். ஒரு தலைவர் பாதுகாப்பு அம்சங்களின் (guardrails) அவசியத்தைப் பற்றி பேசும்போது, பொறியியல் குழுக்கள் அவற்றைச் செயல்படுத்த விரைவாகச் செயல்படுகின்றன. இது பெரும்பாலும் மோசமான பயனர் அனுபவத்தை விளைவிக்கிறது, அங்கு கருவி பாதிப்பில்லாத கேள்விகளுக்குப் பதிலளிக்க மறுக்கிறது. பயனுள்ள உதவியாளராக இருப்பதற்கும் பாதுகாப்பானதாக இருப்பதற்கும் இடையிலான பதற்றம் சமீபத்திய விவாதங்களில் ஒரு நிலையான கருப்பொருளாக உள்ளது.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
மாறிவரும் எதிர்பார்ப்புகளுக்கு ஏற்ப நிறுவனங்களும் போராடுகின்றன. ஒரு குறிப்பிட்ட AI கட்டமைப்பில் அதிக முதலீடு செய்த ஒரு வணிகம், தொழில் துறை வேறு ஒரு தரநிலையை நோக்கி நகர்ந்தால் காலாவதியாகிவிடலாம். இந்த நேர்காணல்கள் பெரும்பாலும் இந்த மாற்றங்களுக்கான முதல் குறிப்புகளை வழங்குகின்றன. உதாரணமாக, சாட்போட்களை விட ‘agents’ மீதான சமீபத்திய கவனம், ஒவ்வொரு நிறுவன மென்பொருள் நிறுவனத்தையும் தங்கள் சலுகைகளைப் புதுப்பிக்கத் தூண்டியுள்ளது. இது நிர்வாகிகளின் பேச்சைப் புரிந்துகொள்ளும் திறன், கோட் எழுதும் திறனைப் போலவே மதிப்புமிக்கதாக இருக்கும் உயர் அழுத்த சூழலை உருவாக்குகிறது. படைப்பாளிகளுக்கும் விளைவுகள் உண்மையானவை. எழுத்தாளர்கள் மற்றும் கலைஞர்கள் தங்கள் வேலை பாதுகாக்கப்படுமா அல்லது அடுத்த தலைமுறை மாடல்களுக்கு எரிபொருளாகப் பயன்படுத்தப்படுமா என்பதை அறிய இந்த நேர்காணல்களைப் பார்க்கிறார்கள். இந்த உரையாடல்களில் பதிப்புரிமை (copyright) தொடர்பான மழுப்பல்கள் படைப்பாளி வர்க்கத்திற்கு நிலையான கவலையைத் தருகின்றன.
AI வளர்ச்சியின் பதிலளிக்கப்படாத கேள்விகள்
இந்த பொது மன்றங்களில் கூறப்படும் கூற்றுகளை நாம் ஒருவித சந்தேகத்துடன் அணுக வேண்டும். தரவுகளின் மறைக்கப்பட்ட செலவு பற்றியது மிகவும் கடினமான கேள்விகளில் ஒன்று. இணையத்தில் உயர்தர உரை தீர்ந்துவிட்டால், அடுத்த டிரில்லியன் டோக்கன்கள் எங்கிருந்து வரும்? தனிப்பட்ட தரவைப் பயன்படுத்துவதற்கான நெறிமுறைகள் அல்லது பயிற்சிக்காகத் தேவைப்படும் பிரம்மாண்டமான டேட்டா சென்டர்களைக் குளிர்விப்பதன் சுற்றுச்சூழல் தாக்கம் பற்றி நேர்காணல்கள் அரிதாகவே பேசுகின்றன. AI என்பது ஒரு கனமான தொழில்துறை செயல்முறையாக இருக்கும்போது, அதை ஒரு தூய்மையான மற்றும் நுணுக்கமான சக்தியாகப் பேசும் போக்கு உள்ளது. சர்வர்களைக் குளிர்விக்கப் பயன்படுத்தப்படும் பில்லியன் கணக்கான கேலன் தண்ணீருக்கு யார் பணம் செலுத்துகிறார்கள்? மனிதகுலத்தின் கூட்டு அறிவின் அடிப்படையில் பயிற்சியளிக்கப்பட்ட ஒரு மாடல் உருவாக்கும் அறிவுசார் சொத்து யாருக்குச் சொந்தம்? இவை வெறும் தொழில்நுட்ப சிக்கல்கள் அல்ல. இவை வள ஒதுக்கீடு மற்றும் உரிமை பற்றிய அடிப்படை கேள்விகள்.
மற்றொரு கவலை, உள் சோதனைகள் குறித்த வெளிப்படைத்தன்மை இல்லாமை. ஒரு மாடல் பல மாதங்களாக ‘red teamed’ செய்யப்பட்டுள்ளதாகக் கூறப்படுகிறது, ஆனால் அந்த சோதனைகளின் முடிவுகள் நமக்கு அரிதாகவே காட்டப்படுகின்றன. பயனரின் தனியுரிமையும் ஒரு பெரிய குருட்டுப் புள்ளியாகும். நிறுவனங்கள் தரவை அநாமதேயமாக்குவதாகக் கூறினாலும், பெரிய அளவிலான தரவு செயலாக்கத்தின் உண்மைத்தன்மை உண்மையான அநாமதேயத்தை அடைவதை கடினமாக்குகிறது. இந்த கருவிகளின் வசதி நமது டிஜிட்டல் தனியுரிமையின் அரிப்புக்கு மதிப்புள்ளதா என்று நாம் கேட்க வேண்டும். உலகளாவிய அளவில் மனித சிந்தனையை பாதிக்கும் அதிகாரம் என்பது தேர்ந்தெடுக்கப்படாத சில நிர்வாகிகளிடம் விடப்படக்கூடாத ஒரு பொறுப்பாகும். தற்போதைய விவாதம் தொழில்நுட்பத்தின் நன்மைகளை நோக்கி அதிகமாகச் சாய்ந்துள்ளது, அதே நேரத்தில் சமூகத்திற்கான நீண்டகால செலவுகள் இரண்டாம் நிலை கவலைகளாகக் கருதப்படுகின்றன. இந்த நிறுவனங்கள் தங்கள் அமைப்புகளின் தவிர்க்க முடியாத தோல்விகளை எவ்வாறு கையாளத் திட்டமிட்டுள்ளன என்பது குறித்து உறுதியான பதில்களை நாம் வலியுறுத்த வேண்டும்.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.
ஹைப்பிற்குப் பின்னால் உள்ள கட்டமைப்பு மற்றும் லேட்டன்சி
தொழில்நுட்ப விவரங்களுக்குச் செல்லும்போது, தொழில் துறை சில உடல் வரம்புகளைத் தாக்குவது தெளிவாகிறது. நேர்காணல்கள் எல்லையற்ற வளர்ச்சிக்கான சாத்தியக்கூறுகளில் கவனம் செலுத்தினாலும், உண்மை GPU இருப்பு மற்றும் மின் கட்டுப்பாடுகளால் நிர்வகிக்கப்படுகிறது. பவர் பயனர்களுக்கு, மிக முக்கியமான அளவீடுகள் மாடலின் அளவு மட்டுமல்ல, API-ன் லேட்டன்சி மற்றும் வெளியீட்டின் நம்பகத்தன்மை ஆகும். உள்ளூரில் இயங்கக்கூடிய சிறிய மற்றும் திறமையான மாடல்களை நோக்கி நாம் நகர்வதைக் காண்கிறோம். இது கிளவுட் இன்ஃபெரன்ஸின் அதிக செலவு மற்றும் சிறந்த தரவு தனியுரிமையின் தேவைக்கான நேரடி பதிலாகும். மூன்றாம் தரப்பு சர்வர்களுக்கு முக்கியமான தரவை அனுப்பும் அபாயத்தை எடுக்க முடியாத நிறுவன பயனர்களுக்கு, எடைகளை (weights) உள்ளூரில் சேமிப்பது முன்னுரிமையாகி வருகிறது. இந்த போக்கு பிரதான ஊடகங்களில் பெரும்பாலும் புறக்கணிக்கப்படுகிறது, ஆனால் டெவலப்பர் வட்டாரங்களில் இது ஒரு முக்கிய விவாதப் பொருளாக உள்ளது.
பணிப்பாய்வு ஒருங்கிணைப்பு (workflow integration) அடுத்த பெரிய தடையாகும். ஒரு சாட் இடைமுகம் இருப்பது ஒரு விஷயம், ஆனால் சிக்கலான மென்பொருள் தொகுப்புகளுடன் தொடர்பு கொள்ளக்கூடிய AI இருப்பது மற்றொரு விஷயம். தற்போதைய API வரம்புகள் அதிநவீன ஏஜெண்டுகளை உருவாக்குவதற்கு ஒரு பெரிய தடையாகும். ரேட் லிமிட்கள் மற்றும் டோக்கன் செலவுகள் மாடலுக்கு பல அழைப்புகள் தேவைப்படும் தொடர்ச்சியான பணிகளைச் செய்வது செலவு குறைந்ததாக மாற்றுகின்றன. மாடல்கள் தொடர்ந்து மறுபயிற்சி செய்யப்படாமல் புதுப்பித்த நிலையில் இருக்க உதவும் ‘retrieval augmented generation’ போன்ற புதிய நுட்பங்களின் வருகையையும் நாம் காண்கிறோம். இந்த அணுகுமுறை ஒரு மாடல் உள்ளூர் தரவுத்தளத்தில் தகவல்களைத் தேட அனுமதிக்கிறது, இது ஹாலுசினேஷன் (hallucination) வாய்ப்பைக் குறைக்கிறது. கீக் பிரிவினருக்கு, உண்மையான கதை ஒற்றை மாடல்களிலிருந்து (monolithic) மிகவும் மட்டுப்படுத்தப்பட்ட (modular) கட்டமைப்பிற்கு மாறுவதுதான். இது வேகமான மறு செய்கை மற்றும் குறிப்பிட்ட பணிகளில் பொது நோக்க மாடல்களை விட சிறப்பாக செயல்படக்கூடிய சிறப்பு கருவிகளை அனுமதிக்கிறது.