ஒவ்வொரு AI பயனரும் கேட்க வேண்டிய தனியுரிமை கேள்விகள்
டிஜிட்டல் தனிமை காலம் முடிந்துவிட்டது. பல தசாப்தங்களாக, உங்கள் கோப்புகளை யார் பார்க்கலாம் அல்லது உங்கள் செய்திகளை யார் படிக்கலாம் என்பதைக் கட்டுப்படுத்துவதே தனியுரிமையாக இருந்தது. இன்று, சவால் முற்றிலும் மாறுபட்டது. Large language models உங்கள் தரவைச் சேமிப்பதில்லை, அவை அதை உட்கொள்கின்றன. ஒவ்வொரு prompt, பதிவேற்றப்பட்ட ஒவ்வொரு ஆவணம் மற்றும் ஒவ்வொரு சாதாரண உரையாடலும் pattern recognition-க்கான ஒரு எரிபொருளாக மாறுகிறது. நவீன பயனருக்கான முக்கிய செய்தி என்னவென்றால், உங்கள் தரவு இனி ஒரு நிலையான பதிவு அல்ல. அது இப்போது ஒரு training set. தரவு சேமிப்பிலிருந்து தரவு உள்ளீட்டிற்கு மாறிய இந்த மாற்றம், பாரம்பரிய தனியுரிமை அமைப்புகளால் கையாள முடியாத புதிய அபாயங்களை உருவாக்கியுள்ளது. நீங்கள் ஒரு generative system-உடன் தொடர்பு கொள்ளும்போது, தனிநபர் உரிமையின் எல்லைகள் மங்கலாகி வரும் கூட்டு நுண்ணறிவின் ஒரு பெரிய, தொடர்ச்சியான சோதனையில் நீங்கள் பங்கேற்கிறீர்கள்.
மனிதர்கள் ஒரு உரையாடலை எவ்வாறு உணர்கிறார்கள் என்பதற்கும், ஒரு இயந்திரம் தகவலை எவ்வாறு செயலாக்குகிறது என்பதற்கும் இடையே உள்ள வித்தியாசமே அடிப்படை மோதலாகும். ஒரு முக்கியமான கூட்டத்தை சுருக்கமாகக் கூற ஒரு private assistant-ஐ நீங்கள் கேட்பதாக நினைக்கலாம். உண்மையில், மற்ற அனைவருக்கும் மாதிரியைச் செம்மைப்படுத்தப் பயன்படும் உயர்தர, மனிதனால் நிர்வகிக்கப்படும் மாதிரியை நீங்கள் வழங்குகிறீர்கள். இது கணினியில் உள்ள பிழை அல்ல, இந்த கருவிகளை உருவாக்கும் நிறுவனங்களுக்கான முதன்மை ஊக்கத்தொகை இதுதான். தரவு தற்போது உலகில் மிகவும் மதிப்புமிக்க நாணயமாக உள்ளது, மேலும் மனித பகுத்தறிவு மற்றும் நோக்கத்தைப் படம்பிடிக்கும் தரவுகளே மிகவும் மதிப்புமிக்கவை. நாம் மேலும் முன்னேறும்போது, பயனர் பயன்பாட்டிற்கும் கார்ப்பரேட் தரவு கையகப்படுத்தலுக்கும் இடையிலான பதற்றம் அதிகரிக்கும்.
உட்கொள்ளும் இயக்கவியல்
தனியுரிமை அபாயங்களைப் புரிந்துகொள்ள, training data மற்றும் inference data ஆகியவற்றுக்கு இடையே உள்ள வித்தியாசத்தை ஒருவர் அறிய வேண்டும். Training data என்பது மாதிரியை ஆரம்பத்தில் உருவாக்கப் பயன்படுத்தப்படும் உரை, படங்கள் மற்றும் குறியீடுகளின் பிரம்மாண்டமான தொகுப்பாகும். இதில் பெரும்பாலும் திறந்த இணையம், புத்தகங்கள் மற்றும் கல்வித் தாள்களிலிருந்து எடுக்கப்பட்ட பில்லியன் கணக்கான பக்கங்கள் அடங்கும். Inference data என்பது நீங்கள் கருவியைப் பயன்படுத்தும்போது நீங்கள் வழங்கும் தரவாகும். பெரும்பாலான முக்கிய வழங்குநர்கள் வரலாற்று ரீதியாக inference data-வைப் பயன்படுத்தி தங்கள் மாதிரிகளை மேம்படுத்தியுள்ளனர், பயனர் வேண்டுமென்றே மறைக்கப்பட்ட மெனுக்கள் மூலம் அதைத் தவிர்க்காவிட்டால். இதன் பொருள் உங்கள் குறிப்பிட்ட எழுத்து நடை, உங்கள் நிறுவனத்தின் உள் jargon மற்றும் உங்கள் தனித்துவமான problem solving முறைகள் neural network-ன் எடைகளில் உறிஞ்சப்படுகின்றன.
இந்தச் சூழலில் ஒப்புதல் என்பது பெரும்பாலும் ஒரு சட்டப்பூர்வ கற்பனையாகும். ஐம்பது பக்க சேவை விதிமுறைகள் ஆவணத்தில் நீங்கள் “I agree” என்பதைக் கிளிக் செய்யும்போது, நீங்கள் அரிதாகவே தகவலறிந்த ஒப்புதலை வழங்குகிறீர்கள். உங்கள் எண்ணங்களை புள்ளிவிவர நிகழ்தகவுகளாக சிதைக்க ஒரு இயந்திரத்திற்கு நீங்கள் அனுமதி அளிக்கிறீர்கள். இந்த ஒப்பந்தங்களின் மொழி வேண்டுமென்றே பரந்த அளவில் உள்ளது. இது நிறுவனங்கள் தரவைச் சேமிக்கவும், கண்காணிக்க கடினமான வழிகளில் மீண்டும் பயன்படுத்தவும் அனுமதிக்கிறது. ஒரு நுகர்வோருக்கு, செலவு தனிப்பட்டதாகும். ஒரு வெளியீட்டாளருக்கு, செலவு இருத்தலியல் சார்ந்தது. ஒரு AI ஒரு பத்திரிகையாளர் அல்லது கலைஞரின் பாணியையும் பொருளையும் அவர்களின் வாழ்நாள் உழைப்பிற்கு இழப்பீடு இன்றி பயிற்சி செய்வதன் மூலம் பிரதிபலிக்கும் போது, அறிவுசார் சொத்துரிமை என்ற கருத்தே சரியத் தொடங்குகிறது. இதனால்தான், பெரிய ஊடக நிறுவனங்கள் மற்றும் படைப்பாளிகளிடமிருந்து வளர்ந்து வரும் வழக்குகளை நாம் காண்கிறோம், அவர்கள் தங்கள் வேலை இறுதியில் அவர்களை மாற்றும் தயாரிப்புகளை உருவாக்க அறுவடை செய்யப்படுகிறது என்று வாதிடுகின்றனர்.
நிறுவனங்கள் வெவ்வேறு அழுத்தங்களை எதிர்கொள்கின்றன. ஒரு பணியாளர் ஒரு proprietary codebase-ஐ பொது AI கருவியில் ஒட்டுவது நிறுவனத்தின் முழு போட்டித்தன்மையையும் சமரசம் செய்யலாம். அந்தத் தரவு உட்கொள்ளப்பட்டவுடன், அதை எளிதாகப் பிரித்தெடுக்க முடியாது. இது சர்வரிலிருந்து ஒரு கோப்பை நீக்குவது போன்றது அல்ல. தகவல் மாதிரியின் முன்கணிப்பு திறன்களின் ஒரு பகுதியாக மாறுகிறது. மாதிரி பின்னர் ஒரு போட்டியாளரால் குறிப்பிட்ட முறையில் தூண்டப்பட்டால், அது கவனக்குறைவாக அசல் proprietary குறியீட்டின் தர்க்கம் அல்லது கட்டமைப்பை கசியவிடக்கூடும். இது AI தனியுரிமையின் “black box” சிக்கலாகும். உள்ளே என்ன செல்கிறது என்பது எங்களுக்குத் தெரியும், வெளியே என்ன வருகிறது என்பதைப் பார்க்கிறோம், ஆனால் தரவு மாதிரியின் neural connections-க்குள் சேமிக்கப்படும் விதம் தணிக்கை செய்யவோ அல்லது அழிக்கவோ கிட்டத்தட்ட சாத்தியமற்றது.
தரவு இறையாண்மைக்கான உலகளாவிய போர்
இந்தக் கவலைகளுக்கான பதில் உலகம் முழுவதும் பெருமளவில் மாறுபடுகிறது. ஐரோப்பிய ஒன்றியத்தில், AI Act என்பது தரவு எவ்வாறு பயன்படுத்தப்படுகிறது என்பதற்குச் சுற்றியுள்ள தடைகளை வைப்பதற்கான மிக முக்கியமான முயற்சியாகும். இது வெளிப்படைத்தன்மை மற்றும் தனிநபர்கள் எப்போது AI-உடன் தொடர்பு கொள்கிறார்கள் என்பதை அறியும் உரிமையை வலியுறுத்துகிறது. மிக முக்கியமாக, இது தற்போதைய ஏற்றத்தின் ஆரம்ப ஆண்டுகளை வரையறுத்த “எல்லாவற்றையும் ஸ்கிராப் செய்” என்ற மனநிலையை சவால் செய்கிறது. பயிற்சி நோக்கங்களுக்காக தரவை பெருமளவில் சேகரிப்பது General Data Protection Regulation (GDPR)-ன் அடிப்படை கொள்கைகளை மீறுகிறதா என்று கட்டுப்பாட்டாளர்கள் பெருகிய முறையில் பார்க்கிறார்கள். ஒரு மாதிரியால் மறக்கப்படுவதற்கான உரிமையை உத்தரவாதம் செய்ய முடியாவிட்டால், அது உண்மையிலேயே GDPR இணக்கமாக இருக்க முடியுமா? இது நாம் நடுப்பகுதிக்குச் செல்லும்போது தீர்க்கப்படாத கேள்வியாகும்.
அமெரிக்காவில், அணுகுமுறை மிகவும் துண்டிக்கப்பட்டுள்ளது. கூட்டாட்சி தனியுரிமை சட்டம் இல்லாமல், சுமை தனிப்பட்ட மாநிலங்கள் மற்றும் நீதிமன்றங்கள் மீது விழுகிறது. New York Times-ன் OpenAI மீதான வழக்கு டிஜிட்டல் யுகத்திற்கான “fair use” கோட்பாட்டை மறுவரையறை செய்யக்கூடிய ஒரு முக்கிய வழக்காக இருக்கலாம். பதிப்புரிமை பெற்ற தரவுகளில் பயிற்சி பெறுவதற்கு உரிமம் தேவை என்று நீதிமன்றங்கள் தீர்ப்பளித்தால், தொழில்துறையின் முழு பொருளாதார மாதிரியும் ஒரே இரவில் மாறும். இதற்கிடையில், சீனா போன்ற நாடுகள் AI மாதிரிகள் “சமூகவாத விழுமியங்களை” பிரதிபலிக்க வேண்டும் மற்றும் பொதுமக்களுக்கு வெளியிடப்படுவதற்கு முன்பு கடுமையான பாதுகாப்பு மதிப்பீடுகளுக்கு உட்படுத்தப்பட வேண்டும் என்று கடுமையான விதிகளைச் செயல்படுத்துகின்றன. இது ஒரு துண்டிக்கப்பட்ட உலகளாவிய சூழலுக்கு வழிவகுத்துள்ளது, அங்கு ஒரே AI கருவி நீங்கள் எல்லையின் எந்தப் பக்கத்தில் நிற்கிறீர்கள் என்பதைப் பொறுத்து வித்தியாசமாக செயல்படக்கூடும்.
சராசரி பயனருக்கு, இதன் பொருள் **data sovereignty** ஒரு ஆடம்பரமாக மாறி வருகிறது. நீங்கள் வலுவான பாதுகாப்புகளைக் கொண்ட பகுதியில் வசிக்கிறீர்கள் என்றால், உங்கள் டிஜிட்டல் தடயத்தின் மீது உங்களுக்கு அதிக கட்டுப்பாடு இருக்கலாம். இல்லையென்றால், உங்கள் தரவு அடிப்படையில் நியாயமான விளையாட்டாகும். இது தனியுரிமை என்பது உலகளாவிய உரிமையைக் காட்டிலும் புவியியலின் செயல்பாடாக இருக்கும் இரு அடுக்கு இணையத்தை உருவாக்குகிறது. விளிம்புநிலை சமூகங்கள் மற்றும் அரசியல் எதிர்ப்பாளர்களுக்கு இது மிகவும் முக்கியமானது, அவர்களுக்கு தனியுரிமை இல்லாமை வாழ்க்கை மாற்றும் விளைவுகளை ஏற்படுத்தக்கூடும். உட்கொள்ளப்பட்ட தரவுகளின் அடிப்படையில் நடத்தை முறைகளை அடையாளம் காண அல்லது எதிர்கால செயல்களைக் கணிக்க AI பயன்படுத்தப்படும்போது, கண்காணிப்பு மற்றும் கட்டுப்பாட்டிற்கான சாத்தியம் முன்னோடியில்லாதது.
Feedback Loop-ல் வாழ்தல்
நடுத்தர அளவிலான தொழில்நுட்ப நிறுவனத்தில் மூத்த சந்தைப்படுத்தல் மேலாளராக இருக்கும் சாரா என்பவரின் வாழ்க்கையில் ஒரு நாளைக் கவனியுங்கள். முந்தைய நாள் நடந்த ஒரு மூலோபாயக் கூட்டத்தின் டிரான்ஸ்கிரிப்ட் அடிப்படையில் மின்னஞ்சல்களைத் தயாரிக்க AI உதவியாளரைப் பயன்படுத்துவதன் மூலம் அவளது காலை தொடங்குகிறது. டிரான்ஸ்கிரிப்ட்டில் புதிய தயாரிப்பு வெளியீடு, திட்டமிடப்பட்ட விலை மற்றும் உள் பலவீனங்கள் பற்றிய முக்கியமான விவரங்கள் உள்ளன. இதை கருவியில் ஒட்டுவதன் மூலம், சாரா அந்தத் தகவலை சேவை வழங்குநருக்கு வழங்கியுள்ளார். பின்னர் அந்த மதியம், சமூக ஊடக பிரச்சாரத்திற்கான சொத்துக்களை உருவாக்க அவள் ஒரு image generator-ஐப் பயன்படுத்துகிறாள். அந்த generator, அனுமதி அளிக்காத கலைஞர்களின் மில்லியன் கணக்கான படங்களைக் கொண்டு பயிற்சி பெற்றது. சாரா முன்பை விட அதிக உற்பத்தித்திறனுடன் இருக்கிறாள், ஆனால் அவள் தனது நிறுவனத்தின் தனியுரிமை மற்றும் படைப்பாளிகளின் வாழ்வாதாரத்தை சிதைக்கும் ஒரு feedback loop-ன் ஒரு முனையாகவும் இருக்கிறாள்.
ஒப்புதலின் முறிவு சிறிய தருணங்களில் நிகழ்கிறது. இது இயல்பாகவே சரிபார்க்கப்பட்ட “எங்கள் தயாரிப்புகளை மேம்படுத்த எங்களுக்கு உதவுங்கள்” என்ற செக்பாக்ஸ் ஆகும். இது உங்கள் தரவை உண்மையில் செலவழிக்கும் “இலவச” கருவியின் வசதியாகும். சாராவின் அலுவலகத்தில், இந்த கருவிகளைப் பயன்படுத்துவதற்கான அழுத்தம் மிகப்பெரியது. நிர்வாகம் அதிக வெளியீட்டை விரும்புகிறது, அதை அடைய AI மட்டுமே வழி. இருப்பினும், இந்த அமைப்புகளுடன் எதைப் பகிரலாம் மற்றும் எதைப் பகிரக்கூடாது என்பதில் நிறுவனத்திற்கு தெளிவான கொள்கை இல்லை. இது இன்று தொழில்முறை உலகில் ஒரு பொதுவான காட்சியாகும். தொழில்நுட்பம் மிக வேகமாக நகர்ந்துள்ளது, கொள்கை மற்றும் நெறிமுறைகள் பின் தங்கியுள்ளன. இதன் விளைவாக, கார்ப்பரேட் மற்றும் தனிப்பட்ட நுண்ணறிவு ஒரு சில ஆதிக்கம் செலுத்தும் தொழில்நுட்ப நிறுவனங்களின் கைகளில் அமைதியாக, சீராக கசிகிறது.
நிஜ உலக தாக்கம் அலுவலகத்திற்கு அப்பால் நீண்டுள்ளது. உங்கள் அறிகுறிகளைக் கண்காணிக்க உடல்நலம் சார்ந்த AI-ஐ அல்லது உயில் எழுத சட்ட AI-ஐப் பயன்படுத்தும்போது, பங்குகள் இன்னும் அதிகமாக இருக்கும். இந்த அமைப்புகள் உரையை மட்டும் செயலாக்குவதில்லை, அவை உங்கள் மிக நெருக்கமான பாதிப்புகளைச் செயலாக்குகின்றன. ஒரு வழங்குநரின் தரவுத்தளம் மீறப்பட்டால், அல்லது அவர்களின் உள் கொள்கைகள் மாறினால், அந்தத் தரவு நீங்கள் எதிர்பார்க்காத வழிகளில் உங்களுக்கு எதிராகப் பயன்படுத்தப்படலாம். காப்பீட்டு நிறுவனங்கள் உங்கள் “தனியார்” வினவல்களை உங்கள் பிரீமியங்களைச் சரிசெய்யப் பயன்படுத்தலாம். எதிர்கால முதலாளிகள் உங்கள் ஆளுமை அல்லது நம்பகத்தன்மையை மதிப்பிட உங்கள் தொடர்பு வரலாற்றைப் பயன்படுத்தலாம். இதைப் புரிந்துகொள்வதற்கான “பயனுள்ள கட்டம்” என்னவென்றால், ஒவ்வொரு தொடர்பும் நீங்கள் கட்டுப்படுத்தாத ஒரு லெட்ஜரில் நிரந்தரமான நுழைவு என்பதை உணர்வதாகும்.
உடைமை குறித்த சங்கடமான கேள்விகள்
இந்த புதிய யதார்த்தத்தை நாம் வழிநடத்தும்போது, தொழில்துறை அடிக்கடி தவிர்க்கும் கடினமான கேள்விகளை நாம் கேட்க வேண்டும். மனிதகுலத்தின் கூட்டு உழைப்பில் பயிற்சி அளிக்கப்பட்ட AI-ன் வெளியீட்டை உண்மையில் யார் வைத்திருப்பது? ஒரு மாதிரி உங்கள் தனிப்பட்ட தகவலை “கற்றுக்கொண்டால்”, அந்தத் தகவல் இன்னும் உங்களுடையதா? Large language models-ல் *memorization* என்ற கருத்து ஆராய்ச்சியாளர்களுக்கு வளர்ந்து வரும் கவலையாக உள்ளது. சமூக பாதுகாப்பு எண்கள், தனிப்பட்ட முகவரிகள் மற்றும் proprietary குறியீடு உள்ளிட்ட குறிப்பிட்ட பயிற்சித் தரவுகளை வெளிப்படுத்த மாதிரிகள் சில நேரங்களில் தூண்டப்படலாம் என்று அவர்கள் கண்டறிந்துள்ளனர். தரவு ஒரு சுருக்கமான அர்த்தத்தில் “கற்றுக்கொள்ளப்படவில்லை” என்பதை இது நிரூபிக்கிறது, இது பெரும்பாலும் புத்திசாலித்தனமான தாக்குதல் நடத்துபவரால் மீட்டெடுக்கக்கூடிய வகையில் சேமிக்கப்படுகிறது.
“இலவச” AI புரட்சியின் மறைமுக செலவு என்ன? இந்த மாதிரிகளைப் பயிற்றுவிக்கவும் இயக்கவும் தேவைப்படும் ஆற்றல் திகைப்பூட்டும் வகையில் உள்ளது, மேலும் சுற்றுச்சூழல் தாக்கம் பெரும்பாலும் புறக்கணிக்கப்படுகிறது. ஆனால் மனித செலவு இன்னும் முக்கியமானது. செயல்திறனில் ஒரு சிறிய அதிகரிப்புக்காக நமது தனியுரிமை மற்றும் அறிவுசார் சுயாட்சியை நாம் வர்த்தகம் செய்கிறோம். இந்த வர்த்தகம் மதிப்புள்ளதா? நாம் தனிப்பட்ட முறையில் சிந்திக்கவும் உருவாக்கவும் திறனை இழந்தால், நமது யோசனைகளின் தரத்திற்கு என்னவாகும்? புதுமைக்கு ஒருவர் கவனிக்கப்படாமல் அல்லது பதிவு செய்யப்படாமல் தோல்வியடைய, பரிசோதனை செய்ய மற்றும் ஆராயக்கூடிய ஒரு இடம் தேவை. ஒவ்வொரு எண்ணமும் உட்கொள்ளப்பட்டு பகுப்பாய்வு செய்யப்படும்போது, அந்த இடம் சுருங்கத் தொடங்குகிறது. “தனியார்” என்பது இனி இல்லாத ஒரு உலகத்தை நாம் உருவாக்குகிறோம், ஒவ்வொரு prompt-ஆக இதைச் செய்கிறோம்.
நுகர்வோர், வெளியீட்டாளர்கள் மற்றும் நிறுவனங்களுக்கான தனியுரிமைக் கவலைகள் வேறுபடுகின்றன, ஏனெனில் அவர்களின் ஊக்கத்தொகைகள் வேறுபட்டவை. நுகர்வோர் வசதியை விரும்புகிறார்கள். வெளியீட்டாளர்கள் தங்கள் வணிக மாதிரிகளைப் பாதுகாக்க விரும்புகிறார்கள். நிறுவனங்கள் தங்கள் போட்டித்தன்மையை பராமரிக்க விரும்புகிறார்கள். இருப்பினும், மூவரும் தற்போது AI யுகத்தின் உள்கட்டமைப்பைக் கட்டுப்படுத்தும் ஒரு சில நிறுவனங்களின் தயவில் உள்ளனர். இந்த அதிகாரக் குவிப்பு தனியுரிமை அபாயமாகும். இந்த நிறுவனங்களில் ஒன்று அதன் தரவுத் தக்கவைப்பு கொள்கைகளை அல்லது அதன் சேவை விதிமுறைகளை மாற்ற முடிவு செய்தால், முழு சுற்றுச்சூழல் அமைப்பும் அதைப் பின்பற்ற வேண்டும். அடிப்படை தரவுத் தொகுப்புகளுக்கு வரும்போது உண்மையான போட்டி இல்லை. ஆரம்பத்தில் நுழைந்து அதிக தரவைச் சேகரித்த நிறுவனங்கள் கடக்க முடியாத ஒரு அகழியைப் பெற்றுள்ளன.
நாங்கள் கவர் செய்ய வேண்டும் என்று நீங்கள் நினைக்கும் AI கதை, கருவி, போக்கு அல்லது கேள்வி உங்களிடம் உள்ளதா? உங்கள் கட்டுரை யோசனையை எங்களுக்கு அனுப்பவும் — அதைக் கேட்க நாங்கள் விரும்புகிறோம்.தனியுரிமையின் தொழில்நுட்ப கட்டமைப்பு
பவர் பயனருக்கு, கவனம் கொள்கையிலிருந்து அமலாக்கத்திற்கு மாறுகிறது. அபாயத்தைக் குறைக்கும்போது இந்த கருவிகளை நாம் எவ்வாறு பயன்படுத்தலாம்? மிகவும் பயனுள்ள உத்திகளில் ஒன்று local storage மற்றும் local execution ஆகியவற்றின் பயன்பாடு ஆகும். Llama.cpp மற்றும் பல்வேறு local LLM wrappers போன்ற கருவிகள் பயனர்கள் தங்கள் சொந்த வன்பொருளில் மாதிரிகளை முழுமையாக இயக்க அனுமதிக்கின்றன. இது எந்த தரவும் சாதனத்தை விட்டு வெளியேறாது என்பதை உறுதி செய்கிறது. இந்த மாதிரிகள் இன்னும் மிகப்பெரிய cloud based அமைப்புகளின் செயல்திறனுடன் பொருந்தாமல் இருக்கலாம், ஆனால் அவை வேகமாக மேம்பட்டு வருகின்றன. முக்கியமான விஷயங்களில் பணிபுரியும் ஒரு டெவலப்பர் அல்லது எழுத்தாளருக்கு, செயல்திறனில் ஏற்படும் வர்த்தகம் பெரும்பாலும் தனியுரிமையின் முழுமையான உத்தரவாதத்திற்கு மதிப்புள்ளது. இது இறுதி “Geek Section” தீர்வாகும்: அவர்களின் சர்வர்களுக்கு உங்கள் தரவை அனுப்ப வேண்டாம்.
Workflow integrations மற்றும் API வரம்புகளும் முக்கிய பங்கு வகிக்கின்றன. பல enterprise grade API-கள் “zero retention” கொள்கைகளை வழங்குகின்றன, அங்கு inference-க்காக அனுப்பப்படும் தரவு ஒருபோதும் சேமிக்கப்படாது அல்லது பயிற்சிக்காகப் பயன்படுத்தப்படாது. இது நுகர்வோர் தர கருவிகளை விட ஒரு குறிப்பிடத்தக்க முன்னேற்றமாகும், ஆனால் இது அதிக செலவில் வருகிறது. பவர் பயனர்கள் fine tuning மற்றும் Retrieval-Augmented Generation (RAG) ஆகியவற்றுக்கு இடையேயான வித்தியாசத்தையும் அறிந்திருக்க வேண்டும். RAG ஒரு மாதிரிக்குத் தனிப்பட்ட தரவை அணுக அனுமதிக்கிறது, அந்தத் தரவு மாதிரியின் எடைகளால் “கற்றுக்கொள்ளப்படாமல்”. தரவு ஒரு தனி vector database-ல் சேமிக்கப்படுகிறது மற்றும் ஒரு குறிப்பிட்ட வினவலுக்கான சூழலாக மட்டுமே மாதிரிக்கு வழங்கப்படுகிறது. தொழில்முறை அமைப்பில் முக்கியமான தகவல்களைக் கையாளுவதற்கு இது மிகவும் பாதுகாப்பான வழியாகும்.
BotNews.today ஆனது உள்ளடக்கத்தை ஆராய்ச்சி செய்யவும், எழுதவும், திருத்தவும் மற்றும் மொழிபெயர்க்கவும் AI கருவிகளைப் பயன்படுத்துகிறது. தகவலை பயனுள்ளதாகவும், தெளிவானதாகவும், நம்பகமானதாகவும் வைத்திருக்க எங்கள் குழு செயல்முறையை மதிப்பாய்வு செய்து மேற்பார்வையிடுகிறது.
இறுதியாக, குறியாக்கம் மற்றும் பரவலாக்கப்பட்ட AI-ன் பங்கை நாம் கருத்தில் கொள்ள வேண்டும். “Federated learning” குறித்த ஆராய்ச்சி நடந்து வருகிறது, அங்கு ஒரு மாதிரி பல சாதனங்களில் பயிற்சி அளிக்கப்படுகிறது, மூல தரவு ஒருபோதும் மையப்படுத்தப்படாது. இது இறுதியில் தரவு சிலோக்களின் மிகப்பெரிய தனியுரிமை அபாயங்கள் இல்லாமல் பெரிய அளவிலான AI-ன் நன்மைகளைப் பெற அனுமதிக்கும். இருப்பினும், இந்த தொழில்நுட்பங்கள் இன்னும் ஆரம்ப நிலையில் உள்ளன. இப்போதைக்கு