AI കമ്പനികൾക്കും ഉപയോക്താക്കൾക്കും വരാനിരിക്കുന്ന നിയന്ത്രണങ്ങൾ
AI നിയന്ത്രണത്തിലെ ആദ്യത്തെ വലിയ മാറ്റം സാങ്കേതികവിദ്യയെ തടയുന്നതിനെക്കുറിച്ചല്ല, മറിച്ച് അതിനെ കൂടുതൽ സുതാര്യമാക്കുന്നതിനെക്കുറിച്ചാണ്. വർഷങ്ങളായി, വമ്പൻ മോഡലുകൾക്ക് പരിശീലനം നൽകാൻ ഉപയോഗിക്കുന്ന ഡാറ്റ എന്താണെന്ന് ഡെവലപ്പർമാർ രഹസ്യമായി സൂക്ഷിച്ചിരുന്നു. എന്നാൽ ഇപ്പോൾ അത് മാറുകയാണ്. കമ്പനികൾക്കും ഉപയോക്താക്കൾക്കും ഏറ്റവും പെട്ടെന്ന് അനുഭവപ്പെടാൻ പോകുന്ന മാറ്റം കർശനമായ സുതാര്യത നിയമങ്ങളാണ്. തങ്ങളുടെ സിസ്റ്റങ്ങൾ ഏതൊക്കെ പുസ്തകങ്ങൾ, ലേഖനങ്ങൾ, ചിത്രങ്ങൾ എന്നിവ ഉപയോഗിച്ചാണ് പരിശീലനം നേടിയതെന്ന് വെളിപ്പെടുത്താൻ നിർമ്മാതാക്കൾ നിർബന്ധിതരാകും. ഇതൊരു പേപ്പർവർക്ക് മാത്രമല്ല, സോഫ്റ്റ്വെയർ നിർമ്മാണത്തിലും വിൽപ്പനയിലും വരുന്ന വലിയൊരു മാറ്റമാണ്. പരിശീലന സ്രോതസ്സുകൾ മറച്ചുവെക്കാൻ കഴിയാതെ വരുമ്പോൾ, നിയമപരമായ ഉത്തരവാദിത്തം ഡെവലപ്പറിൽ നിന്ന് മുഴുവൻ സപ്ലൈ ചെയിനിലേക്കും മാറുന്നു. ഭക്ഷണപ്പൊതികളിലെ പോഷക വിവരങ്ങൾ പോലെ, AI നിർമ്മിത ഉള്ളടക്കങ്ങളിലും ലേബലുകൾ വരാൻ പോകുന്നു. ഈ ലേബലുകളിൽ മോഡൽ പതിപ്പ്, ഡാറ്റയുടെ ഉറവിടം, സുരക്ഷാ പരിശോധനകൾ എന്നിവ ഉൾപ്പെടും. ‘വേഗത്തിൽ പ്രവർത്തിക്കുക, കാര്യങ്ങൾ തകർക്കുക’ എന്ന കാലഘട്ടത്തിൽ നിന്ന് ഡോക്യുമെന്റേഷന് മുൻഗണന നൽകുന്ന കാലത്തേക്ക് വ്യവസായം മാറുകയാണ്. ഓരോ ഔട്ട്പുട്ടും കൃത്യമായ സ്രോതസ്സിൽ നിന്ന് വന്നതാണെന്ന് ഉറപ്പാക്കുകയാണ് ഇതിന്റെ ലക്ഷ്യം.
ഉയർന്ന റിസ്ക് ഉള്ള സിസ്റ്റങ്ങൾക്കുള്ള പുതിയ നിയമങ്ങൾ
നിയന്ത്രണ ഏജൻസികൾ ഇപ്പോൾ പൊതുവായ നിരോധനങ്ങളിൽ നിന്ന് മാറി റിസ്ക് അടിസ്ഥാനമാക്കിയുള്ള സംവിധാനങ്ങളിലേക്ക് നീങ്ങുകയാണ്. EU AI Act പോലുള്ള പ്രധാന ചട്ടക്കൂടുകൾ, AI-യുടെ ദോഷകരമായ സാധ്യതകൾ അനുസരിച്ച് അതിനെ തരംതിരിക്കുന്നു. നിയമനം, ക്രെഡിറ്റ് സ്കോറിംഗ്, നിയമപാലനം എന്നിവയിൽ ഉപയോഗിക്കുന്ന സിസ്റ്റങ്ങളെ ‘ഹൈ റിസ്ക്’ ആയി കണക്കാക്കുന്നു. നിങ്ങൾ റെസ്യൂമെകൾ പരിശോധിക്കുന്ന ഒരു ടൂൾ നിർമ്മിക്കുകയാണെങ്കിൽ, നിങ്ങൾ വെറുമൊരു സോഫ്റ്റ്വെയർ ദാതാവല്ല, മറിച്ച് ഒരു മെഡിക്കൽ ഉപകരണ നിർമ്മാതാവിനെപ്പോലെ കർശനമായ പരിശോധനകൾക്ക് വിധേയനാകേണ്ട ഒരു സ്ഥാപനമാണ്. ഇതിനർത്ഥം ഉൽപ്പന്നം ഉപഭോക്താവിലേക്ക് എത്തുന്നതിന് മുൻപ് നിങ്ങൾ കൃത്യമായ ബയാസ് ടെസ്റ്റിംഗ് നടത്തണം എന്നാണ്. AI എങ്ങനെയാണ് തീരുമാനങ്ങൾ എടുക്കുന്നതെന്ന് വ്യക്തമാക്കുന്ന ലോഗുകളും സൂക്ഷിക്കണം. സാധാരണ ഉപയോക്താക്കളെ സംബന്ധിച്ചിടത്തോളം, അവരുടെ ജീവിതത്തിലെ നിർണ്ണായക തീരുമാനങ്ങൾ എടുക്കുന്ന ടൂളുകൾ കൂടുതൽ വ്യക്തവും സുതാര്യവുമായി മാറും. മനുഷ്യ പെരുമാറ്റത്തെ സ്വാധീനിക്കാനോ ദൗർബല്യങ്ങളെ മുതലെടുക്കാനോ AI ഉപയോഗിക്കുന്ന ‘ഡാർക്ക് പാറ്റേണുകളെ’യും ഈ നിയമം ലക്ഷ്യമിടുന്നു. AI-യെ ഒരു കളിപ്പാട്ടമായല്ല, മറിച്ച് ഒരു സേവനമായി കാണുന്ന ഉപഭോക്തൃ സംരക്ഷണത്തിലേക്കുള്ള ചുവടുവെപ്പാണിത്. ഈ മാനദണ്ഡങ്ങൾ പാലിക്കാത്ത കമ്പനികൾക്ക് ദശലക്ഷക്കണക്കിന് ഡോളർ പിഴ ലഭിക്കാം.
ഞങ്ങൾ ഉൾപ്പെടുത്തണമെന്ന് നിങ്ങൾ കരുതുന്ന ഒരു AI സ്റ്റോറിയോ, ടൂളോ, ട്രെൻഡോ, ചോദ്യമോ നിങ്ങളുടെ പക്കലുണ്ടോ? നിങ്ങളുടെ ലേഖന ആശയം ഞങ്ങൾക്ക് അയയ്ക്കുക — അത് കേൾക്കാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു.അമേരിക്കയിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നത് അല്പം വ്യത്യസ്തമാണെങ്കിലും അതിന്റെ ഫലം വലുതാണ്. നാഷണൽ ഇൻസ്റ്റിറ്റ്യൂട്ട് ഓഫ് സ്റ്റാൻഡേർഡ്സ് ആൻഡ് ടെക്നോളജിയുടെ പുതിയ ചട്ടക്കൂടുകൾ സുരക്ഷാ പരിശോധനയ്ക്കും ‘റെഡ് ടീമിംഗിനും’ ഊന്നൽ നൽകുന്നു. ഇതിൽ ഹാക്കർമാരെ ഉപയോഗിച്ച് AI-യെ പരാജയപ്പെടുത്താനോ അപകടകരമായ വിവരങ്ങൾ പുറത്തുവിടാനോ ശ്രമിക്കുന്നു. ഇവ യൂറോപ്യൻ നിയമങ്ങൾ പോലെ കർശനമല്ലെങ്കിലും, സർക്കാർ കരാറുകൾക്ക് ഇവ ഇപ്പോൾ മാനദണ്ഡമായി മാറിക്കഴിഞ്ഞു. ഒരു ടെക് കമ്പനിക്ക് ഫെഡറൽ സർക്കാരിന് സോഫ്റ്റ്വെയർ വിൽക്കണമെങ്കിൽ, അവർ ഈ സുരക്ഷാ മാർഗ്ഗനിർദ്ദേശങ്ങൾ പാലിച്ചിട്ടുണ്ടെന്ന് തെളിയിക്കണം. ഇത് വലിയ കമ്പനികൾക്ക് കീഴടങ്ങാൻ ആഗ്രഹിക്കുന്ന ചെറിയ സ്റ്റാർട്ടപ്പുകളെയും ഈ നിയമങ്ങൾ പാലിക്കാൻ നിർബന്ധിതരാക്കുന്നു. ഫലത്തിൽ, വ്യോമയാന സുരക്ഷാ മാനദണ്ഡങ്ങൾക്ക് സമാനമായ ആഗോള സുരക്ഷാ പ്രോട്ടോക്കോളുകൾ നിലവിൽ വരുന്നു.
പ്രാദേശിക നിയമങ്ങൾ എങ്ങനെ ആഗോളതലത്തിൽ മാറുന്നു
ബ്രസ്സൽസിലോ വാഷിംഗ്ടണിലോ പാസാക്കുന്ന നിയമങ്ങൾ ആ നഗരങ്ങളിലെ കമ്പനികളെ മാത്രമേ ബാധിക്കൂ എന്നത് ഒരു തെറ്റിദ്ധാരണയാണ്. വാസ്തവത്തിൽ, ടെക് വ്യവസായം പരസ്പരം ബന്ധപ്പെട്ടിരിക്കുന്നതിനാൽ, ഒരു പ്രധാന നിയന്ത്രണം ആഗോള നിലവാരമായി മാറുന്നു. ഇതിനെ ‘ബ്രസ്സൽസ് ഇഫക്റ്റ്’ എന്ന് വിളിക്കുന്നു. ഗൂഗിൾ അല്ലെങ്കിൽ മൈക്രോസോഫ്റ്റ് പോലുള്ള വലിയ കമ്പനികൾ യൂറോപ്യൻ നിയമങ്ങൾ പാലിക്കാൻ തങ്ങളുടെ ഡാറ്റാ കൈകാര്യം ചെയ്യൽ രീതികൾ മാറ്റുമ്പോൾ, ലോകത്തിന്റെ മറ്റ് ഭാഗങ്ങൾക്കായി വ്യത്യസ്തമായ ഒരു പതിപ്പ് നിർമ്മിക്കുന്നത് ലാഭകരമല്ല. രണ്ട് വ്യത്യസ്ത സംവിധാനങ്ങൾ പരിപാലിക്കുന്നതിനേക്കാൾ നല്ലത് മുഴുവൻ ഉൽപ്പന്നത്തെയും കർശനമായ നിയമങ്ങൾക്കനുസരിച്ച് മാറ്റുന്നതാണ്. അതിനാൽ, തെക്കേ അമേരിക്കയിലോ തെക്കുകിഴക്കൻ ഏഷ്യയിലോ ഉള്ള ഉപയോക്താക്കൾക്കും ആയിരക്കണക്കിന് മൈലുകൾ അകലെ പാസാക്കിയ സ്വകാര്യത നിയമങ്ങളുടെ ഗുണം ലഭിക്കും.
പകർപ്പവകാശ കാര്യങ്ങളിലും ഈ ആഗോള ഏകീകരണം കാണാം. AI കമ്പനികൾക്ക് അനുമതിയില്ലാതെ പകർപ്പവകാശമുള്ള വസ്തുക്കൾ ഉപയോഗിക്കാമോ എന്ന് കോടതികൾ പരിശോധിക്കുന്നുണ്ട്. ആദ്യഘട്ട നിയന്ത്രണങ്ങൾ ഒരു നഷ്ടപരിഹാര സംവിധാനമോ അല്ലെങ്കിൽ സ്രഷ്ടാക്കൾക്ക് തങ്ങളുടെ ഡാറ്റ പരിശീലനത്തിൽ നിന്ന് ഒഴിവാക്കാനുള്ള വഴിയോ നിർബന്ധമാക്കും. ഡാറ്റയെ ഒരു ഭൗതിക ആസ്തിയായി കാണുന്ന പുതിയൊരു സമ്പദ്വ്യവസ്ഥയുടെ തുടക്കമാണിത്. ഉപയോക്താക്കളെ സംബന്ധിച്ചിടത്തോളം, ഡാറ്റ ലൈസൻസിംഗ് ചെലവുകൾ സബ്സ്ക്രിപ്ഷൻ ഫീസിൽ ഉൾപ്പെടുത്തുന്നതിനാൽ നിങ്ങൾ ഉപയോഗിക്കുന്ന AI ടൂളുകൾ അല്പം വിലകൂടിയേക്കാം. എന്നാൽ, ഈ ടൂളുകൾ നിയമപരമായി കൂടുതൽ സുരക്ഷിതമായിരിക്കും. നിങ്ങൾ ഇന്ന് ജനറേറ്റ് ചെയ്യുന്ന ചിത്രമോ വാചകമോ നാളെ ഒരു കേസിന് കാരണമാകുമെന്ന് ഭയപ്പെടേണ്ടതില്ല.
പുതിയ ഓഫീസ് വർക്ക്ഫ്ലോ
ഭാവിയിൽ സാറ എന്ന മാർക്കറ്റിംഗ് മാനേജരുടെ ഒരു ദിവസം എങ്ങനെയായിരിക്കുമെന്ന് നോക്കാം. ഒരു പരസ്യ കാമ്പെയ്നിനായി AI ടൂൾ ഉപയോഗിക്കുന്നതിന് മുൻപ്, കമ്പനിയുടെ കംപ്ലയൻസ് ഡാഷ്ബോർഡ് ആ മോഡലിന് അനുമതി നൽകണം. സോഫ്റ്റ്വെയർ സ്വയമേവ മോഡൽ സുരക്ഷാ മാനദണ്ഡങ്ങൾ പാലിക്കുന്നുണ്ടോ എന്ന് പരിശോധിക്കുന്നു. സാറ ഒരു ചിത്രം നിർമ്മിക്കുമ്പോൾ, സോഫ്റ്റ്വെയർ അതിൽ കണ്ണുകൊണ്ട് കാണാൻ കഴിയാത്ത എന്നാൽ ബ്രൗസറുകൾക്ക് വായിക്കാൻ കഴിയുന്ന ഒരു ഡിജിറ്റൽ വാട്ടർമാർക്ക് ചേർക്കുന്നു. ഈ വാട്ടർമാർക്കിൽ ഉപയോഗിച്ച AI-യെക്കുറിച്ചും നിർമ്മിച്ച തീയതിയെക്കുറിച്ചുമുള്ള മെറ്റാഡാറ്റ ഉണ്ടാകും. ഇത് സാറ തിരഞ്ഞെടുക്കുന്ന ഫീച്ചറല്ല, മറിച്ച് നിയമങ്ങൾ പാലിക്കാൻ ഡെവലപ്പർ നിർബന്ധമായും ഉൾപ്പെടുത്തേണ്ട ഒന്നാണ്. സാറ ഈ ചിത്രം സോഷ്യൽ മീഡിയയിൽ അപ്ലോഡ് ചെയ്യാൻ ശ്രമിച്ചാൽ, പ്ലാറ്റ്ഫോം വാട്ടർമാർക്ക് വായിക്കുകയും ‘AI ജനറേറ്റഡ്’ എന്ന് ലേബൽ ചേർക്കുകയും ചെയ്യും.
ദിവസത്തിന്റെ അവസാനം, സാറയ്ക്ക് ഉപഭോക്തൃ ഡാറ്റ വിശകലനം ചെയ്യണം. മുൻപ് അവൾ ഇത് ഒരു പബ്ലിക് ചാറ്റ്ബോട്ടിന്റെ സഹായത്തോടെ ചെയ്യുമായിരുന്നു. പുതിയ നിയന്ത്രണങ്ങൾ പ്രകാരം, കമ്പനി ഒരു സ്വകാര്യ സെർവറിൽ പ്രവർത്തിക്കുന്ന AI ആണ് ഉപയോഗിക്കുന്നത്. സെൻസിറ്റീവ് വിവരങ്ങൾ പൊതു മോഡലുകളെ പരിശീലിപ്പിക്കാൻ ഉപയോഗിക്കരുതെന്ന് നിയമം അനുശാസിക്കുന്നു. ഈ അധിക നടപടികൾ കാരണം സാറയുടെ ജോലി അല്പം മന്ദഗതിയിലാകുമെങ്കിലും, ഡാറ്റാ ചോർച്ചയ്ക്കുള്ള സാധ്യത വളരെ കുറവാണ്. സോഫ്റ്റ്വെയർ ഒരു ഓഡിറ്റ് ട്രയലും നൽകുന്നു. ഒരു ഉപഭോക്താവ് തങ്ങളെ എന്തിനാണ് ഒരു പ്രത്യേക പരസ്യം കാണിച്ചതെന്ന് ചോദിച്ചാൽ, AI ഉപയോഗിച്ച ലോജിക് എന്താണെന്ന് സാറയ്ക്ക് റിപ്പോർട്ടിലൂടെ കാണിച്ചുകൊടുക്കാം.
ഈ ടൂളുകൾ നിർമ്മിക്കുന്നവർക്ക് ഇതിന്റെ ആഘാതം കൂടുതൽ നേരിട്ടാണ് അനുഭവപ്പെടുന്നത്. ഒരു സ്റ്റാർട്ടപ്പിലെ ഡെവലപ്പർക്ക് ഇനി ഇന്റർനെറ്റിൽ നിന്ന് ഡാറ്റ എടുത്ത് പരിശീലനം തുടങ്ങാൻ കഴിയില്ല. ഓരോ ജിഗാബൈറ്റ് ഡാറ്റയുടെയും ഉറവിടം അവർ രേഖപ്പെടുത്തണം. വിഷലിപ്തമായ ഔട്ട്പുട്ടുകളും ബയാസും പരിശോധിക്കാൻ ഓട്ടോമേറ്റഡ് ടെസ്റ്റുകൾ നടത്തണം. മോഡൽ ഉയർന്ന റിസ്ക് ഉള്ളതാണെങ്കിൽ, അവർ അത് മൂന്നാം കക്ഷി ഓഡിറ്റർക്ക് സമർപ്പിക്കണം. ഇത് ടെക് കമ്പനികളുടെ നിയമന രീതിയെ മാറ്റുന്നു. ഡാറ്റാ സയന്റിസ്റ്റുകളെപ്പോലെ തന്നെ എത്തിക്സ് ഓഫീസർമാരെയും കംപ്ലയൻസ് എഞ്ചിനീയർമാരെയും അവർക്ക് ആവശ്യമായി വരുന്നു. പുതിയ AI ഉൽപ്പന്നങ്ങൾ വിപണിയിലെത്തിക്കുന്നതിനുള്ള ചെലവ് വർദ്ധിക്കുന്നത് വലിയ കമ്പനികൾക്ക് ഗുണകരമാകാം. ഇത് നിയന്ത്രണങ്ങളുടെ ഒരു വൈരുദ്ധ്യമാണ്. ഇത് ഉപയോക്താവിനെ സംരക്ഷിക്കുമ്പോൾ തന്നെ, നവീകരണത്തെ പ്രോത്സാഹിപ്പിക്കുന്ന മത്സരത്തെ തടയുകയും ചെയ്തേക്കാം.
ഉള്ളടക്കം ഗവേഷണം ചെയ്യാനും എഴുതാനും എഡിറ്റ് ചെയ്യാനും വിവർത്തനം ചെയ്യാനും BotNews.today AI ടൂളുകൾ ഉപയോഗിക്കുന്നു. വിവരങ്ങൾ ഉപയോഗപ്രദവും വ്യക്തവും വിശ്വസനീയവുമാക്കാൻ ഞങ്ങളുടെ ടീം ഈ പ്രക്രിയ അവലോകനം ചെയ്യുകയും മേൽനോട്ടം വഹിക്കുകയും ചെയ്യുന്നു.
സമ്പൂർണ്ണ സുരക്ഷയുടെ വില
സമ്പൂർണ്ണ സുരക്ഷയ്ക്കായുള്ള ഈ ഓട്ടം പുതിയ പ്രശ്നങ്ങൾ സൃഷ്ടിക്കുന്നുണ്ടോ എന്ന് നമ്മൾ ചോദിക്കേണ്ടതുണ്ട്. ഓരോ AI ഔട്ട്പുട്ടും വാട്ടർമാർക്ക് ചെയ്യണമെന്നും ഓരോ പരിശീലന സെറ്റും വെളിപ്പെടുത്തണമെന്നും നിർബന്ധമാക്കിയാൽ, സ്വകാര്യമായി നവീകരിക്കാനുള്ള കഴിവ് നമുക്ക് നഷ്ടപ്പെടുമോ? സുതാര്യതയ്ക്ക് ഒരു മറഞ്ഞിരിക്കുന്ന വിലയുണ്ട്. ചെറിയ ഡെവലപ്പർമാർക്ക് ഡോക്യുമെന്റേഷന്റെ ഭാരം താങ്ങാൻ കഴിയാതെ നിർമ്മാണം നിർത്തേണ്ടി വന്നേക്കാം. ഇത് വമ്പൻ കോർപ്പറേഷനുകൾ മാത്രം നിലനിൽക്കുന്ന ഒരു ഭാവിയിലേക്ക് നയിച്ചേക്കാം. ഉയർന്ന റിസ്ക് ഉള്ള സിസ്റ്റം ഏതാണെന്ന് തീരുമാനിക്കുന്നത് ആരാണ്? രാഷ്ട്രീയ പ്രസംഗങ്ങൾക്കായി ഉപയോഗിക്കുന്ന AI ഉയർന്ന റിസ്ക് ആണെന്ന് സർക്കാർ തീരുമാനിച്ചാൽ, അതൊരു സെൻസർഷിപ്പ് ഉപകരണമായി മാറുമോ? ഈ ചോദ്യങ്ങൾക്ക് ആദ്യഘട്ട നിയന്ത്രണങ്ങൾ പൂർണ്ണമായ ഉത്തരം നൽകുന്നില്ല.
സ്വകാര്യതയിലും നിയമങ്ങൾ തിരിച്ചടിയായേക്കാം. ഒരു AI ഒരു പ്രത്യേക വിഭാഗത്തോട് പക്ഷപാതം കാണിക്കുന്നില്ലെന്ന് തെളിയിക്കാൻ, ഡെവലപ്പർമാർക്ക് ആ വിഭാഗത്തെക്കുറിച്ചുള്ള കൂടുതൽ ഡാറ്റ ശേഖരിക്കേണ്ടി വരുന്നു. എല്ലാ വംശജരോടും നീതി പുലർത്തുന്നുണ്ടെന്ന് ഉറപ്പാക്കാൻ, പരിശീലന ഡാറ്റയിലുള്ളവരുടെ വംശം എന്താണെന്ന് ഡെവലപ്പർ അറിഞ്ഞിരിക്കണം. വിവേചനം കുറയ്ക്കാൻ കൂടുതൽ നിരീക്ഷണം ആവശ്യമായി വരുന്ന ഒരു വിരോധാഭാസമാണിത്. കൂടാതെ, ഡാറ്റാ സുരക്ഷയ്ക്കായി പ്രാദേശിക സ്റ്റോറേജ് നിർബന്ധമാക്കുമ്പോൾ, ഇന്റർനെറ്റ് വിഭജിക്കപ്പെടാൻ സാധ്യതയുണ്ട്. ഒരു രാജ്യം അതിന്റെ പൗരന്മാരുടെ AI ഡാറ്റ അതിർത്തിക്കുള്ളിൽ തന്നെ സൂക്ഷിക്കണമെന്ന് നിർബന്ധിച്ചാൽ, അതൊരു ഡിജിറ്റൽ മതിൽ സൃഷ്ടിക്കും. ഇത് മുപ്പത് വർഷമായി ടെക് വ്യവസായത്തിന്റെ മുഖമുദ്രയായ ആഗോള സഹകരണത്തെ തടസ്സപ്പെടുത്താം.
കംപ്ലയൻസിന്റെ എഞ്ചിനീയറിംഗ്
സാങ്കേതികമായി പറഞ്ഞാൽ, കംപ്ലയൻസ് ഇപ്പോൾ API ലെയറിലാണ് ഉൾപ്പെടുത്തിയിരിക്കുന്നത്. പ്രധാന ദാതാക്കൾ ഇതിനകം തന്നെ റേറ്റ് ലിമിറ്റുകളും കണ്ടന്റ് ഫിൽട്ടറുകളും നടപ്പിലാക്കുന്നുണ്ട്. പവർ യൂസർമാരെ സംബന്ധിച്ചിടത്തോളം, സെൻസർഷിപ്പില്ലാത്ത മോഡൽ ആക്സസ് ലഭിക്കുന്ന ദിവസങ്ങൾ എണ്ണപ്പെട്ടു കഴിഞ്ഞു. മിക്ക വാണിജ്യ API-കളിലും ഇപ്പോൾ ഓരോ പ്രോംപ്റ്റും റെസ്പോൺസും പരിശോധിക്കുന്ന ഒരു മോഡറേഷൻ എൻഡ്പോയിന്റ് ഉണ്ട്. ഈ മോഡലുകൾക്ക് മുകളിൽ ഒരു ആപ്ലിക്കേഷൻ നിർമ്മിക്കുകയാണെങ്കിൽ, ഈ പരിശോധനകൾ മൂലമുണ്ടാകുന്ന ലേറ്റൻസി നിങ്ങൾ കണക്കിലെടുക്കണം. മോഡൽ വേർഷനിംഗിന്റെ പ്രശ്നവുമുണ്ട്. ഓഡിറ്റ് ആവശ്യങ്ങൾക്കായി, പഴയ തീരുമാനങ്ങൾ പരിശോധിക്കാൻ കമ്പനികൾ പഴയ മോഡലുകൾ സജീവമായി നിലനിർത്തണം. ഇത് സ്റ്റോറേജ്, കമ്പ്യൂട്ട് ചെലവുകൾ വർദ്ധിപ്പിക്കുന്നു, ഇത് ഉപയോക്താവിലേക്ക് എത്തുന്നു.
സ്വകാര്യതയിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്ന സ്ഥാപനങ്ങൾക്ക് ലോക്കൽ സ്റ്റോറേജും എഡ്ജ് കമ്പ്യൂട്ടിംഗും പ്രിയങ്കരമായി മാറുന്നു. ഡാറ്റ സെൻട്രൽ ക്ലൗഡിലേക്ക് അയക്കുന്നതിന് പകരം, കമ്പനികൾ ചെറിയ, ഒപ്റ്റിമൈസ് ചെയ്ത മോഡലുകൾ സ്വന്തം ഹാർഡ്വെയറിൽ പ്രവർത്തിപ്പിക്കുന്നു. ഇത് അതിർത്തി കടന്നുള്ള ഡാറ്റാ കൈമാറ്റത്തിന്റെ നിയമപരമായ തലവേദന ഒഴിവാക്കുന്നു. എന്നിരുന്നാലും, ഈ ലോക്കൽ മോഡലുകൾക്ക് ക്ലൗഡ് അധിഷ്ഠിത മോഡലുകളുടെ ശക്തി പലപ്പോഴും ഉണ്ടാകാറില്ല. ഡെവലപ്പർമാർ ഇപ്പോൾ പുതിയൊരു ഒപ്റ്റിമൈസേഷൻ വെല്ലുവിളി നേരിടുകയാണ്. നിയമപരമായ എല്ലാ സുതാര്യത ആവശ്യകതകളും പാലിച്ചുകൊണ്ട് തന്നെ ഒരു സെർവറിൽ ഒതുങ്ങുന്ന മോഡലിൽ നിന്ന് പരമാവധി പ്രകടനം എങ്ങനെ നേടാം എന്നതാണ് ചോദ്യം. C2PA പോലുള്ള പ്രൊവെനൻസ് പ്രോട്ടോക്കോളുകളുടെ ഉയർച്ചയും നമ്മൾ കാണുന്നുണ്ട്. ഇത് ഡിജിറ്റൽ ഉള്ളടക്കത്തിന്റെ സുരക്ഷിതമായ ലേബലിംഗിന് സഹായിക്കുന്നു. ഇത് വെറുമൊരു ടാഗ് ചേർക്കലല്ല, മറിച്ച് ക്യാമറയിലോ AI-യിലോ ഉള്ള ചിത്രത്തിന്റെ ചരിത്രം സ്ക്രീൻ വരെ രേഖപ്പെടുത്തുന്നതാണ്.
ഉത്തരവാദിത്തത്തിലേക്കുള്ള മാറ്റം
AI നിയന്ത്രണത്തിന്റെ ആദ്യ തരംഗം വ്യവസായത്തിന്റെ പരീക്ഷണ ഘട്ടം അവസാനിച്ചുവെന്ന വ്യക്തമായ സൂചനയാണ്. AI നിർമ്മിക്കുന്നതിന്റെയും ഉപയോഗിക്കുന്നതിന്റെയും പ്രവർത്തനപരമായ യാഥാർത്ഥ്യം നിയമങ്ങളാൽ നിർവചിക്കപ്പെടുന്ന കാലഘട്ടത്തിലേക്കാണ് നമ്മൾ നീങ്ങുന്നത്. കമ്പനികൾ തങ്ങൾ ഉപയോഗിക്കുന്ന ഡാറ്റയെക്കുറിച്ചും പുറത്തിറക്കുന്ന ഉൽപ്പന്നങ്ങളെക്കുറിച്ചും കൂടുതൽ ശ്രദ്ധാലുക്കളാകണം. AI ലേബൽ ചെയ്യപ്പെടുകയും ട്രാക്ക് ചെയ്യപ്പെടുകയും ഓഡിറ്റ് ചെയ്യപ്പെടുകയും ചെയ്യുന്ന ഒരു ലോകത്തോട് ഉപയോക്താക്കൾ ശീലിക്കേണ്ടി വരും. ഇത് പ്രക്രിയയിൽ അല്പം തടസ്സങ്ങൾ സൃഷ്ടിക്കുമെങ്കിലും, നഷ്ടപ്പെട്ട വിശ്വാസം തിരികെ കൊണ്ടുവരാൻ ഇത് സഹായിക്കും. പക്ഷപാതം, മോഷണം, തെറ്റായ വിവരങ്ങൾ എന്നിവയെക്കുറിച്ചുള്ള ഭയമില്ലാതെ AI-യുടെ ഗുണങ്ങൾ ആസ്വദിക്കാൻ കഴിയുന്ന ഒരു സംവിധാനം സൃഷ്ടിക്കുകയാണ് ലക്ഷ്യം. ഇതൊരു ദുഷ്കരമായ പാതയാണെങ്കിലും, ഈ ടൂളുകൾ നമ്മുടെ ആഗോള സമൂഹത്തിന്റെ ശാശ്വതവും ക്രിയാത്മകവുമായ ഭാഗമായി മാറുമെന്ന് ഉറപ്പാക്കാനുള്ള ഒരേയൊരു വഴിയാണിത്.
Editor’s note: We created this site as a multilingual AI news and guides hub for people who are not computer geeks, but still want to understand artificial intelligence, use it with more confidence, and follow the future that is already arriving.
ഒരു പിശകോ തിരുത്തേണ്ട എന്തെങ്കിലും കണ്ടെത്തിയോ? ഞങ്ങളെ അറിയിക്കുക.