AI நிபுணர்கள் எச்சரிக்கும் முக்கியமான விஷயங்கள் என்ன? 2026
செயற்கை நுண்ணறிவு (AI) குறித்த உரையாடல் இப்போது வியப்பிலிருந்து ஒருவித அமைதியான, தொடர்ச்சியான கவலையாக மாறியுள்ளது. முன்னணி ஆராய்ச்சியாளர்களும், துறை சார்ந்த நிபுணர்களும் இந்த சிஸ்டம்கள் என்ன செய்ய முடியும் என்பதைத் தாண்டி, அவற்றின் முடிவுகளை நம்மால் சரிபார்க்க முடியாமல் போனால் என்னவாகும் என்பதைப் பற்றிப் பேசத் தொடங்கியுள்ளனர். சுருக்கமாகச் சொன்னால், AI உருவாக்கும் வேகத்திற்கு ஈடுகொடுக்க முடியாத அளவுக்கு மனிதர்களின் கண்காணிப்புத் திறன் பின்தங்கியுள்ளது. இதனால் பிழைகள், பாரபட்சங்கள் மற்றும் தவறான தகவல்கள் (hallucinations) கவனிக்கப்படாமல் ஊடுருவுகின்றன. இது தொழில்நுட்பத்தின் தோல்வி அல்ல; மாறாக, அது மிகச்சரியாகப் போலியாகச் செயல்படுவதால், நாம் அதைக் கேள்வி கேட்க மறந்துவிடுகிறோம். வசதிக்கு முன்னுரிமை அளித்து, சரியான தகவலைப் புறக்கணிப்பது ஆபத்தானது. AI-ஐ ஒரு இறுதி அதிகாரமாகப் பார்க்காமல், ஒரு தொடக்கப் புள்ளியாக மட்டுமே பயன்படுத்த வேண்டும். இல்லையெனில், தவறான தகவல்களின் அடித்தளத்தில் எதிர்காலத்தை உருவாக்க நேரிடும். இதுவே இன்றைய ஹைப்பில் மறைந்திருக்கும் உண்மையான எச்சரிக்கை.
புள்ளிவிவரப் போலியின் நுட்பம்
நவீன AI என்பது அடிப்படையில் ஒரு பிரம்மாண்டமான புள்ளிவிவரக் கணிப்பு (statistical prediction) கருவி. நீங்கள் ஒரு Large Language Model-க்கு கட்டளை கொடுக்கும்போது, அது மனிதர்களைப் போலச் சிந்திப்பதில்லை. பயிற்சியின் போது அது கற்றுக் கொண்ட டிரில்லியன் கணக்கான வார்த்தைகளின் அடிப்படையில், அடுத்த வார்த்தை எதுவாக இருக்கும் என்பதையே அது கணிக்கிறது. பல பயனர்கள் இதை உணர்வதில்லை. நாம் இந்த சிஸ்டம்களுக்கு மனித உணர்வுகளைக் கொடுத்து, அவற்றுக்குப் பின்னால் ஒரு அறிவு இருப்பதாக நினைக்கிறோம். ஆனால் உண்மையில், அது தரவுகளைப் பிரதிபலிக்கும் ஒரு கண்ணாடி மட்டுமே. இணையம், புத்தகங்கள் மற்றும் கோட் களஞ்சியங்களில் இருந்து பெறப்படும் தரவுகளில் மனிதத் தவறுகளும் முரண்பாடுகளும் இருப்பதால், AI அதையும் அப்படியே பிரதிபலிக்கிறது. ஆபத்து அதன் சரளமான பேச்சில் உள்ளது. ஒரு AI, கணித உண்மையைச் சொல்வது போலவே ஒரு முழுப் பொய்யையும் நம்பிக்கையுடன் கூற முடியும். ஏனெனில், அதற்கு உண்மை எது என்ற புரிதல் இல்லை; நிகழ்தகவு (likelihood) மட்டுமே தெரியும்.
இந்த உண்மைத்தன்மை இல்லாததே ‘hallucinations’ எனப்படும் தவறான தகவல்களுக்குக் காரணமாகிறது. இவை சாதாரண பிழைகள் அல்ல; சிஸ்டம் தான் வடிவமைக்கப்பட்டபடியே செயல்படுகிறது. உதாரணமாக, ஒரு சிறிய வரலாற்றுப் பிரபலம் பற்றி கேட்டால், அவருக்கு இல்லாத ஒரு பட்டத்தையோ அல்லது விருதையோ அது உருவாக்கித் தரும். ஏனெனில் புள்ளிவிவரப்படி, அந்தத் துறையில் இருப்பவர்களுக்கு அத்தகைய தகுதிகள் இருக்க வாய்ப்புள்ளது. AI பொய் சொல்லவில்லை, அது ஒரு பேட்டர்னை நிறைவு செய்கிறது. இது படைப்பாற்றல் பணிகளுக்குச் சிறந்தது, ஆனால் உண்மைகளைச் சரிபார்க்க ஆபத்தானது. நாம் பெரும்பாலும் இந்த மாடல்களின் பகுத்தறியும் திறனை மிகைப்படுத்திக் கொள்கிறோம், ஆனால் அதன் அளவை குறைவாக மதிப்பிடுகிறோம். இவை கலைக்களஞ்சியங்கள் அல்ல; இவை மனித நிபுணர்களின் தொடர்ச்சியான கண்காணிப்பு தேவைப்படும் நிகழ்தகவு இயந்திரங்கள். இதை உணர்வதே தொழில்முறை சூழலில் இந்த டூல்களைப் பொறுப்புடன் பயன்படுத்துவதற்கான முதல் படி.
இந்த தொழில்நுட்பத்தின் தாக்கம் உலகம் முழுவதும் சீரற்ற வேகத்தில் உள்ளது. தகவல்கள் உருவாக்கப்படும் மற்றும் நுகரப்படும் விதத்தில் பெரிய மாற்றம் ஏற்பட்டுள்ளது. வளரும் நாடுகளில், தொழில்நுட்ப நிபுணத்துவ இடைவெளியைக் குறைக்க AI உதவுகிறது. நைரோபியில் உள்ள ஒரு சிறு வணிகம், சான் பிரான்சிஸ்கோவில் உள்ள ஒரு ஸ்டார்ட்அப் பயன்படுத்தும் அதே கோடிங் அசிஸ்டண்டுகளைப் பயன்படுத்த முடியும். இது அதிகாரத்தைப் பரவலாக்குவது போலத் தெரிந்தாலும், அடிப்படை மாடல்கள் பெரும்பாலும் மேற்கத்திய தரவுகள் மற்றும் மதிப்புகளின் அடிப்படையில் பயிற்சியளிக்கப்படுகின்றன. இது ஒருவித கலாச்சார ஒருமைப்பாட்டை (cultural homogenization) உருவாக்குகிறது. தென்கிழக்கு ஆசியாவில் உள்ள ஒருவர் AI-யிடம் வணிக ஆலோசனை கேட்டால், பதில் பெரும்பாலும் வட அமெரிக்க அல்லது ஐரோப்பிய கண்ணோட்டத்தில் இருக்கும். இது உள்ளூர் சந்தை யதார்த்தங்களுக்குப் பொருந்தாமல் போகலாம். சில பெரிய நிறுவனங்களின் கட்டுப்பாட்டில் உள்ள மாடல்கள் உலகை ஆளும் சூழலில், உள்ளூர் அடையாளத்தை எப்படிக் காப்பது என்பதுதான் உலகளாவிய சவால்.
பொருளாதார இடைவெளியும் ஒரு முக்கியப் பிரச்சினை. இந்த மாடல்களைப் பயிற்றுவிக்க மிகப்பெரிய அளவிலான கம்ப்யூட்டிங் சக்தி மற்றும் மின்சாரம் தேவைப்படுகிறது. இதனால் அதிகாரம் சில செல்வந்த நிறுவனங்கள் மற்றும் நாடுகளின் கைகளில் குவிந்துள்ளது. முடிவுகள் உலகளவில் கிடைத்தாலும், கட்டுப்பாடு சில குறிப்பிட்ட இடங்களிலேயே உள்ளது. இது ஒரு புதிய வளப் போட்டி. எண்ணெய் அல்லது கனிமங்களுக்குப் பதிலாக, இப்போது உயர்தர சிப்கள் மற்றும் டேட்டா சென்டர்கள் முக்கியமாகிவிட்டன. அரசாங்கங்கள் இப்போது AI திறனை தேசிய பாதுகாப்பு விவகாரமாகக் கருதுகின்றன. இது ஏற்றுமதி தடைகள் மற்றும் வர்த்தகப் பதற்றங்களுக்கு வழிவகுக்கிறது. உலகளாவிய தாக்கம் என்பது மென்பொருள் மட்டுமல்ல, நவீன உலகின் இயற்பியல் உள்கட்டமைப்பு சார்ந்தது. இந்த டூல்களின் நன்மைகள் அனைவருக்கும் சமமாகப் பகிரப்படுகிறதா அல்லது ஏற்கனவே உள்ள அதிகாரக் கட்டமைப்புகளை வலுப்படுத்துகிறதா என்பதை நாம் சிந்திக்க வேண்டும்.
நிஜ உலகில், ஆபத்துகள் மிகவும் நடைமுறை சார்ந்தவை. மார்க் என்ற ஜூனியர் டேட்டா அனலிஸ்ட்டின் ஒரு நாளைக் கவனியுங்கள். மார்க் ஒரு பெரிய டேட்டா செட்டைச் சுத்தம் செய்து அறிக்கை தயாரிக்க வேண்டும். நேரத்தைச் சேமிக்க, அவர் ஒரு AI டூலைப் பயன்படுத்தி ஸ்கிரிப்ட்களை எழுதி முடிவுகளைச் சுருக்கினார். AI அழகான சார்ட்களையும் சுருக்கமான அறிக்கையையும் கொடுத்தது. மார்க் ஈர்க்கப்பட்டு அதைச் சமர்ப்பித்தார். ஆனால், சோர்ஸ் ஃபைல்களில் இருந்த ஒரு சிறிய டேட்டா பிழையை AI கவனிக்கவில்லை. அறிக்கை மிகவும் நம்பகமாக இருந்ததால், மார்க் அதைச் சரிபார்க்கவில்லை. ஒரு வாரம் கழித்து, அந்தத் தவறான அறிக்கையின் அடிப்படையில் நிறுவனம் ஒரு மில்லியன் டாலர் முடிவை எடுத்தது. இது வெறும் தத்துவார்த்த ஆபத்து அல்ல; இது அலுவலகங்களில் தினமும் நடக்கிறது. AI தான் கேட்டதைச் சரியாகச் செய்தது, ஆனால் மார்க் தேவையான கண்காணிப்பை வழங்கத் தவறிவிட்டார். அவர் தகவலைச் சரிபார்க்காமல் அப்படியே ஏற்றுக்கொண்டார்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
இந்தச் சூழல் தொழில்முறை வேலைகளில் வளர்ந்து வரும் ஒரு சிக்கலை வெளிச்சம் போட்டுக் காட்டுகிறது. நாம் சுருக்கங்களை (summary) அதிகமாகச் சார்ந்திருக்கிறோம். மருத்துவத் துறையில், மருத்துவர்கள் நோயாளிகளின் குறிப்புகள் மற்றும் நோயறிதல் பரிந்துரைகளுக்கு AI-ஐப் பயன்படுத்துகின்றனர். இது பணிச்சுமையைக் குறைத்தாலும், ஆபத்தையும் ஏற்படுத்துகிறது. ஒரு அரிதான அறிகுறியை AI தவறவிட்டால், விளைவுகள் உயிருக்கு ஆபத்தாக முடியலாம். சட்டத் துறையிலும் இதே நிலைதான். வழக்கறிஞர்கள் இல்லாத நீதிமன்ற வழக்குகளை மேற்கோள் காட்டி AI உருவாக்கிய பிரீஃப்களைச் சமர்ப்பித்து சிக்கலில் சிக்கியுள்ளனர். இவை வெறும் தர்மசங்கடமான தவறுகள் அல்ல; இவை தொழில்முறை கடமையின் தோல்விகள். AI வெளியீட்டைச் சரிபார்க்கத் தேவைப்படும் உழைப்பை நாம் குறைவாக மதிப்பிடுகிறோம். ஒரு AI சுருக்கத்தைச் சரிபார்ப்பதை விட, நீங்களே அதை எழுதுவது எளிதாக இருக்கலாம். புதிய டூல்களைப் பயன்படுத்தும் அவசரத்தில் பல நிறுவனங்கள் இந்த முரண்பாட்டைப் புறக்கணிக்கின்றன.
நடைமுறை ஆபத்துகள் நமது யதார்த்தத்தைப் பார்க்கும் விதத்தையே பாதிக்கின்றன. AI உருவாக்கிய உள்ளடக்கங்கள் இணையத்தில் வெள்ளமெனப் பாய்வதால், தவறான தகவல்களை உருவாக்குவதற்கான செலவு பூஜ்ஜியமாகிவிட்டது. அரசியல் பிரச்சாரங்கள் மற்றும் சமூக பொறியியல் தாக்குதல்களில் டீப்ஃபேக்குகள் (deepfakes) பயன்படுத்தப்படுவதை நாம் ஏற்கனவே பார்க்கிறோம். இது டிஜிட்டல் தகவல்தொடர்பு மீதான நம்பிக்கையைச் சிதைக்கிறது. எதையும் போலியாக உருவாக்க முடியும் என்றால், சிக்கலான சரிபார்ப்பு இல்லாமல் எதையும் முழுமையாக நம்ப முடியாது. இது தனிநபர்கள் மீது பெரும் சுமையைச் சுமத்துகிறது. முன்பு நாம் நம்பகமான ஆதாரங்களை நம்பினோம், இப்போது அந்த ஆதாரங்களே AI-ஐப் பயன்படுத்தி உள்ளடக்கத்தை உருவாக்குகின்றன. இது ஒரு ஃபீட்பேக் லூப்பை உருவாக்குகிறது, அங்கு AI மாடல்கள் பிற AI-களால் உருவாக்கப்பட்ட தரவுகளில் பயிற்சியளிக்கப்படுகின்றன. ஆராய்ச்சியாளர்கள் இதை ‘model collapse’ என்கிறார்கள். இது காலப்போக்கில் தரத்தைக் குறைத்து பிழைகளை அதிகரிக்கிறது. செயல்திறனுக்கு முன்னால் உண்மை இரண்டாம் பட்சம் என்பதை நாம் ஏற்றுக்கொள்ள வேண்டுமா என்பதை முடிவு செய்ய வேண்டும்.
தற்போதைய வளர்ச்சிப் பாதையில் நாம் ஒருவித சந்தேகத்துடன் இருக்க வேண்டும். இந்த சிஸ்டம்களை உருவாக்கும் நிறுவனங்கள் இன்னும் பல கடினமான கேள்விகளுக்குப் பதிலளிக்கவில்லை. உதாரணமாக, ஒரு AI கேள்விக்கான உண்மையான சுற்றுச்சூழல் செலவு என்ன? மாடல்களைப் பயிற்றுவிக்க அதிக ஆற்றல் தேவை என்பது நமக்குத் தெரியும், ஆனால் அதன் தொடர்ச்சியான பயன்பாட்டுச் செலவு பொதுமக்களிடமிருந்து மறைக்கப்படுகிறது. மற்றொரு கேள்வி, இந்த மாடல்களைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் உழைப்பு பற்றியது. பல டேட்டா லேபிளிங் மற்றும் பாதுகாப்பு வடிகட்டுதல் பணிகள் குறைந்த ஊதியத்தில் கடினமான சூழலில் உள்ள தொழிலாளர்களால் செய்யப்படுகின்றன. நமது AI அசிஸ்டண்டுகளின் வசதி சுரண்டப்பட்ட உழைப்பின் அடித்தளத்தில் கட்டப்பட்டுள்ளதா? மனித அறிவாற்றல் மீதான நீண்டகால விளைவுகள் குறித்தும் நாம் கேட்க வேண்டும். நமது எழுத்து, கோடிங் மற்றும் சிந்தனையை இயந்திரங்களிடம் ஒப்படைத்தால், காலப்போக்கில் நமது திறன்கள் என்னவாகும்? நாம் அதிக உற்பத்தித் திறன் கொண்டவர்களாக மாறுகிறோமா அல்லது வெறும் அடிமைகளாக மாறுகிறோமா?
தனியுரிமை (privacy) என்பது செலவுகள் மறைக்கப்பட்ட மற்றொரு பகுதி. பெரும்பாலான AI மாடல்கள் செயல்பட மிகப்பெரிய அளவிலான தரவு தேவைப்படுகிறது. இந்தத் தரவு பெரும்பாலும் உரிமையாளர்களின் அனுமதியின்றி இணையத்திலிருந்து எடுக்கப்படுகிறது. இறுதியில் நம்மையே மாற்றக்கூடிய டூல்களை உருவாக்க, நாம் நமது கூட்டு அறிவுசார் சொத்துக்களைத் தாரைவார்க்கிறோம். தரவு தீர்ந்துவிட்டால் என்னவாகும்? நிறுவனங்கள் ஏற்கனவே தனிப்பட்ட உரையாடல்கள் மற்றும் உள் நிறுவனத் தரவுகளை அணுக வழிகளைத் தேடுகின்றன. இது தனிப்பட்ட மற்றும் தொழில்முறை தனியுரிமை எல்லைகள் குறித்து கவலைகளை எழுப்புகிறது. ஒரு AI உங்கள் வேலை முறையைப் பற்றி அனைத்தையும் அறிந்தால், உங்கள் பலவீனங்களையும் அது அறியும். இந்த ஒருங்கிணைப்பால் உண்மையில் யார் பயனடைகிறார்கள்? பயனரா அல்லது மாடலையும் தரவையும் வைத்திருக்கும் நிறுவனமா? இந்தக் கேள்விகள் தத்துவவாதிகளுக்கு மட்டுமல்ல, ஸ்மார்ட்போன் அல்லது கம்ப்யூட்டர் பயன்படுத்தும் அனைவருக்கும் உரியவை.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.பவர் யூசர்கள் மற்றும் டெவலப்பர்களுக்கு, கவனம் இப்போது உள்ளூர் கட்டுப்பாடு மற்றும் குறிப்பிட்ட ஒருங்கிணைப்புகள் (integrations) நோக்கித் திரும்புகிறது. OpenAI போன்ற நிறுவனங்களின் கிளவுட் அடிப்படையிலான API-கள் அதிக சக்தியை வழங்கினாலும், அவை குறிப்பிடத்தக்க வரம்புகளைக் கொண்டுள்ளன. ரேட் லிமிட்கள் மற்றும் லேட்டன்சி ஒரு சிக்கலான வேலையைத் தடுக்கலாம். இதனால்தான் உள்ளூர் LLM ஹோஸ்டிங்கில் ஆர்வம் அதிகரித்துள்ளது. Llama.cpp மற்றும் Ollama போன்ற டூல்கள் பயனர்கள் தங்கள் சொந்த ஹார்டுவேரில் சக்திவாய்ந்த மாடல்களை இயக்க அனுமதிக்கின்றன. இது தனியுரிமை சிக்கலைத் தீர்க்கிறது மற்றும் மூன்றாம் தரப்பு வழங்குநரைச் சார்ந்திருப்பதை நீக்குகிறது. இருப்பினும், இந்த மாடல்களை உள்ளூரில் இயக்க குறிப்பிடத்தக்க VRAM தேவைப்படுகிறது. டெவலப்பர்கள் Retrieval-Augmented Generation அல்லது RAG-ல் கவனம் செலுத்துகின்றனர். இந்த நுட்பம், ஒரு கேள்விக்குப் பதிலளிப்பதற்கு முன்பு ஒரு குறிப்பிட்ட உள்ளூர் ஆவணங்களைப் பார்க்க மாடலை அனுமதிக்கிறது. இது AI-ஐ ஒரு குறிப்பிட்ட, சரிபார்க்கப்பட்ட சூழலில் நிலைநிறுத்துவதன் மூலம் தவறான தகவல்களைக் குறைக்கிறது.
ஒர்க்ஃப்ளோ ஒருங்கிணைப்பு அடுத்த பெரிய தடையாகும். பிரவுசரில் ஒரு பாட்டிடம் பேசுவது வேறு, உங்கள் IDE அல்லது ப்ராஜெக்ட் மேனேஜ்மென்ட் மென்பொருளில் அந்த பாட்டை ஒருங்கிணைப்பது வேறு. தற்போதைய போக்கு ஏஜென்டிக் ஒர்க்ஃப்ளோக்களை (agentic workflows) நோக்கியே உள்ளது. இவை AI வெறும் உரையை வழங்குவதற்குப் பதிலாக, கோட் இயக்குவது அல்லது இணையத்தில் தேடுவது போன்ற செயல்களைச் செய்யக்கூடிய சிஸ்டம்கள். இதற்கு வலுவான பிழை கையாளுதல் மற்றும் கடுமையான பாதுகாப்பு நெறிமுறைகள் தேவை. ஒரு AI ஏஜென்ட்டுக்கு கோப்புகளை நீக்க அல்லது மின்னஞ்சல் அனுப்ப அதிகாரம் இருந்தால், ஆபத்து அதிகம். டெவலப்பர்கள் கான்டெக்ஸ்ட் விண்டோக்களின் வரம்புகளையும் சந்திக்கின்றனர். மில்லியன் டோக்கன்கள் இருந்தாலும், நீண்ட ஆவணத்தின் நடுவில் மாடல்கள் தகவலை மறந்துவிடலாம். இது ‘lost in the middle’ நிகழ்வு என்று அழைக்கப்படுகிறது. தகவலை மாடலுக்குள் எப்படிச் செலுத்துவது என்பது ஒரு சிறப்புத் திறனாக மாறி வருகிறது. AI உலகின் கீக் பகுதி இப்போது மாடலைப் பற்றியது மட்டுமல்ல, அது மாடலை நிஜ உலகத்துடன் இணைக்கும் பிளம்பிங் பற்றியது.
உள்ளூர் சேமிப்பு மற்றும் தரவு இறையாண்மை (data sovereignty) ஆகியவை நிறுவனப் பயனர்களுக்கு முன்னுரிமைகளாக மாறி வருகின்றன. பல நிறுவனங்கள் இப்போது முக்கியமான தரவுகளுக்குப் பொது AI டூல்களைப் பயன்படுத்துவதைத் தடை செய்கின்றன. அதற்குப் பதிலாக, அவர்கள் தங்கள் சொந்த கிளவுட் உள்கட்டமைப்பிற்குள் தனிப்பட்ட இன்ஸ்டன்ஸ்களைப் பயன்படுத்துகின்றனர். இது அவர்களின் தனியுரிமத் தரவு பொது மாடலின் எதிர்காலப் பதிப்புகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படாது என்பதை உறுதி செய்கிறது. சிறிய மொழி மாடல்கள் அல்லது SLM-கள் (Small Language Models) நோக்கியும் ஒரு இயக்கம் உள்ளது. இவை குறிப்பிட்ட பணிக்காக ஃபைன்-டியூன் செய்யப்பட்ட குறைவான அளவுருக்களைக் கொண்ட மாடல்கள். இவை வேகமானவை, இயக்க மலிவானவை மற்றும் ஒரு பிரம்மாண்டமான மாடலை விடத் துல்லியமானவை. பவர் யூசர்களுக்கான எதிர்காலம் என்பது எல்லாவற்றையும் செய்யும் ஒரு ராட்சத AI பற்றியது அல்ல. இது உள்ளூரில் கட்டுப்படுத்தப்பட்டு, ஏற்கனவே உள்ள சிஸ்டம்களுடன் ஆழமாக ஒருங்கிணைக்கப்பட்ட சிறப்பு டூல்களின் நூலகத்தைப் பற்றியது. இந்த அணுகுமுறை நம்பகத்தன்மை மற்றும் பாதுகாப்பிற்கு முன்னுரிமை அளிக்கிறது.
ஆசிரியரின் குறிப்பு: கணினித் துறையில் நிபுணர்கள் அல்லாதவர்கள், ஆனால் செயற்கை நுண்ணறிவைப் புரிந்துகொள்ளவும், அதை அதிக நம்பிக்கையுடன் பயன்படுத்தவும், ஏற்கனவே வந்துகொண்டிருக்கும் எதிர்காலத்தைப் பின்தொடரவும் விரும்பும் மக்களுக்காக, பலமொழி AI செய்திகள் மற்றும் வழிகாட்டல் மையமாக இந்த தளத்தை நாங்கள் உருவாக்கினோம்.
சுருக்கமாகச் சொன்னால், AI என்பது அபரிமிதமான ஆற்றல் மற்றும் குறிப்பிடத்தக்க ஆபத்துகளைக் கொண்ட ஒரு கருவி. இது முயற்சி இல்லாமல் நம் எல்லாப் பிரச்சினைகளையும் தீர்க்கும் ஒரு மந்திர தீர்வு அல்ல. துறையில் உள்ள புத்திசாலித்தனமான குரல்கள் ஒரு கற்பனையான உலகத்தை (utopia) வாக்குறுதி அளிக்கவில்லை. அவர்கள் கவனமாக இருக்கச் சொல்கிறார்கள். இந்த சிஸ்டம்களின் வெளியீடுகளிலிருந்து நாம் ஒரு விமர்சன ரீதியான தூரத்தைப் பராமரிக்க வேண்டும். AI-ஐ மனிதத் திறனை மேம்படுத்தப் பயன்படுத்த வேண்டுமே தவிர, அதை மாற்றீடு செய்யக்கூடாது. இதற்கு வாழ்நாள் முழுவதும் கற்கும் உறுதிப்பாடும், ஆரோக்கியமான சந்தேகமும் தேவை. நாம் இன்னும் இந்தத் தொழில்நுட்பத்தின் ஆரம்ப கட்டத்திலேயே இருக்கிறோம். AI-ஐ நமது வாழ்க்கையில் எவ்வாறு ஒருங்கிணைக்கிறோம் என்பது குறித்த முடிவுகள் பல தசாப்தங்களுக்கு விளைவுகளை ஏற்படுத்தும். சமீபத்திய AI ஆராய்ச்சிப் போக்குகளைப் பின்பற்றித் தகவலறிந்திருங்கள், எப்போதும் நீங்கள் பெறும் தகவல்களைச் சரிபாருங்கள். எந்தவொரு AI சிஸ்டமிலும் மிக முக்கியமான பகுதி கீபோர்டுக்குப் பின்னால் இருக்கும் மனிதர்தான்.
ஒரு முக்கியமான கேள்வி எஞ்சியுள்ளது. AI மாடல்கள் இணையத்தில் உள்ள பெரும்பாலான உள்ளடக்கத்தை உருவாக்கத் தொடங்கும் போது, அடுத்த தலைமுறை மாடல்களை அவற்றின் சொந்த எதிரொலிகளால் சிதைக்கப்படாமல் எப்படிப் பயிற்றுவிப்பது? இதற்கு இன்னும் யாரும் தீர்வு காணவில்லை. நாம் டிஜிட்டல் இன்ப்ரீடிங் (digital inbreeding) காலத்திற்குள் நுழைகிறோம், அங்கு நமது கூட்டுத் தகவலின் தரம் குறையத் தொடங்கலாம். இது மனிதர்களால் உருவாக்கப்பட்ட தரவு மற்றும் மனிதக் கண்காணிப்பை முன்னெப்போதையும் விட மதிப்புமிக்கதாக மாற்றுகிறது. AI பரிணாமம் குறித்த தலைப்பு உங்களுக்கு ஆர்வமாக இருந்தால், MIT Technology Review-ன் பணிகளைப் பார்க்கலாம் அல்லது OpenAI-ன் பாதுகாப்பு நெறிமுறைகள் குறித்த அப்டேட்களைப் பின்தொடரலாம். இந்தத் துறையின் பரிணாமம் இன்னும் முடிவடையவில்லை.
ஒரு பிழையைக் கண்டறிந்தீர்களா அல்லது திருத்தப்பட வேண்டிய ஒன்று இருக்கிறதா? எங்களுக்குத் தெரியப்படுத்துங்கள்.