ഗവൺമെന്റുകൾ എങ്ങനെയാണ് AI-യെ നിയന്ത്രിക്കാൻ ശ്രമിക്കുന്നത്?
മെഷീനുകളുടെ പുതിയ നിയമങ്ങൾ
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ ‘വൈൽഡ് വെസ്റ്റ്’ കാലഘട്ടം അവസാനിക്കുകയാണ്. ഗവൺമെന്റുകൾ ഇപ്പോൾ വെറുതെ നോക്കിനിൽക്കുകയല്ല. കോഡ് എങ്ങനെ എഴുതണം, എവിടെ ഉപയോഗിക്കണം എന്ന് തീരുമാനിക്കുന്ന നിയമപുസ്തകങ്ങൾ അവർ തയ്യാറാക്കുന്നു. ഇത് കേവലം എത്തിക്സിനെക്കുറിച്ചോ തത്വങ്ങളെക്കുറിച്ചോ മാത്രമല്ല, കർശനമായ നിയമങ്ങളെക്കുറിച്ചും വൻതുക പിഴകളെക്കുറിച്ചും കൂടിയാണ്. യൂറോപ്യൻ യൂണിയൻ തങ്ങളുടെ AI Act-ലൂടെ ഇതിന് തുടക്കമിട്ടു. അമേരിക്കയാകട്ടെ, വിപുലമായ ഒരു എക്സിക്യൂട്ടീവ് ഓർഡറും പുറത്തിറക്കി. ഈ നടപടികൾ ലോകത്തെ എല്ലാ ടെക് കമ്പനികളുടെയും കണക്കുകൂട്ടലുകളെ മാറ്റിമറിക്കുന്നു. ഒരു നിശ്ചിത പരിധിയിൽ കൂടുതൽ ശേഷിയുള്ള മോഡൽ നിങ്ങൾ നിർമ്മിക്കുകയാണെങ്കിൽ, നിങ്ങൾ ഇപ്പോൾ ഗവൺമെന്റിന്റെ നിരീക്ഷണത്തിലാണ്. അത് പൊതുജനങ്ങൾക്ക് ലഭ്യമാക്കുന്നതിന് മുൻപ് സുരക്ഷിതമാണെന്ന് നിങ്ങൾ തെളിയിക്കേണ്ടതുണ്ട്. സ്വമേധയാ ഉള്ള സുരക്ഷാ ഉറപ്പുകളിൽ നിന്ന് നിർബന്ധിത മേൽനോട്ടത്തിലേക്കുള്ള മാറ്റമാണിത്. സാധാരണ ഉപയോക്താക്കളെ സംബന്ധിച്ചിടത്തോളം, നിങ്ങൾ ഇന്ന് ഉപയോഗിക്കുന്ന ടൂളുകളിൽ നിന്ന് വ്യത്യസ്തമായിരിക്കും നാളെ നിങ്ങൾ ഉപയോഗിക്കുന്നവ. ചില ഫീച്ചറുകൾ നിങ്ങളുടെ രാജ്യത്ത് ബ്ലോക്ക് ചെയ്യപ്പെട്ടേക്കാം. മറ്റ് ടൂളുകൾ നിങ്ങളുടെ ഡാറ്റ എങ്ങനെ ഉപയോഗിക്കുന്നു എന്നതിൽ കൂടുതൽ സുതാര്യത പുലർത്തിയേക്കാം. പുരോഗതിയും സുരക്ഷയും തമ്മിലുള്ള സന്തുലിതാവസ്ഥയാണ് ലക്ഷ്യമെങ്കിലും, ആ വഴി അത്ര എളുപ്പമല്ല.
എത്തിക്സിൽ നിന്ന് എൻഫോഴ്സ്മെന്റിലേക്ക്
പുതിയ നിയമങ്ങൾ മനസ്സിലാക്കാൻ, റിസ്ക് വിഭാഗങ്ങളെക്കുറിച്ച് അറിയണം. മിക്ക ഗവൺമെന്റുകളും ‘ഒരേ നിയമം എല്ലാവർക്കും’ എന്ന രീതിയിൽ നിന്ന് മാറുകയാണ്. പകരം, അവ ഉണ്ടാക്കാൻ സാധ്യതയുള്ള ദോഷഫലങ്ങളുടെ അടിസ്ഥാനത്തിൽ സിസ്റ്റങ്ങളെ തരംതിരിക്കുന്നു. കമ്പനികൾക്ക് ഇനി ഒരു പ്രോഡക്റ്റ് ഇറക്കി ഭാഗ്യം പരീക്ഷിക്കാൻ കഴിയില്ല. ഉപയോക്താക്കളിലേക്ക് എത്തുന്നതിന് മുൻപ് തന്നെ തങ്ങളുടെ ടെക്നോളജി ഏത് വിഭാഗത്തിൽ പെടുന്നു എന്ന് അവർ വ്യക്തമാക്കണം. ഈ തരംതിരിവാണ് ഗവൺമെന്റിന്റെ കർശനമായ പരിശോധനയുടെ അളവ് തീരുമാനിക്കുന്നത്. എന്തെങ്കിലും തെറ്റ് സംഭവിച്ചാൽ കമ്പനി നേരിടേണ്ടി വരുന്ന നിയമപരമായ ബാധ്യതയും ഇത് നിർണ്ണയിക്കുന്നു. AI എന്താണ് എന്നതിനേക്കാൾ, AI എന്ത് ചെയ്യുന്നു എന്നതിലാണ് ഇപ്പോൾ ശ്രദ്ധ. ആളുകളെക്കുറിച്ച് തീരുമാനങ്ങൾ എടുക്കുന്ന ഒരു സിസ്റ്റം, പൂച്ചകളുടെ ചിത്രം നിർമ്മിക്കുന്ന സിസ്റ്റത്തേക്കാൾ കൂടുതൽ സംശയത്തോടെയാണ് വീക്ഷിക്കപ്പെടുന്നത്.
ഏറ്റവും കർശനമായ നിയമങ്ങൾ ‘അംഗീകരിക്കാനാവാത്ത റിസ്ക്’ ഉള്ള സിസ്റ്റങ്ങൾക്കാണ് ബാധകം. അവ നിരുത്സാഹപ്പെടുത്തുകയല്ല, മറിച്ച് നിരോധിക്കുകയാണ് ചെയ്യുന്നത്. ഇത് ഡെവലപ്പർമാർക്ക് വ്യക്തമായ അതിർവരമ്പുകൾ നൽകുന്നു. മറ്റെല്ലാത്തിനും, പുതിയ നിയമങ്ങൾ കൂടുതൽ ഡോക്യുമെന്റേഷൻ ആവശ്യപ്പെടുന്നു. തങ്ങളുടെ മോഡലുകൾ എങ്ങനെ ട്രെയിൻ ചെയ്തു എന്നതിന്റെ വിശദമായ രേഖകൾ കമ്പനികൾ സൂക്ഷിക്കണം. മോഡൽ എങ്ങനെയാണ് ഒരു നിഗമനത്തിൽ എത്തുന്നതെന്ന് വിശദീകരിക്കാനും അവർക്ക് കഴിയണം. മിക്ക ആധുനിക മോഡലുകളും ഒരു ‘ബ്ലാക്ക് ബോക്സ്’ ആയതുകൊണ്ട് ഇതൊരു വലിയ സാങ്കേതിക വെല്ലുവിളിയാണ്. അവയെ വിശദീകരിക്കാൻ കഴിയുന്നവയാക്കി മാറ്റുന്നത് ഡിസൈനിൽ വലിയ മാറ്റങ്ങൾ ആവശ്യപ്പെടുന്നു. ട്രെയിനിംഗിനായി ഉപയോഗിക്കുന്ന ഡാറ്റ വൃത്തിയുള്ളതും പക്ഷപാതമില്ലാത്തതുമായിരിക്കണമെന്നും നിയമം ആവശ്യപ്പെടുന്നു. ഇതിനർത്ഥം ഡാറ്റ ശേഖരണ പ്രക്രിയ തന്നെ ഇപ്പോൾ നിയമപരമായ ഓഡിറ്റിന് വിധേയമാണ്. നിലവിലെ നിയന്ത്രണ സമീപനത്തെ നിർവചിക്കുന്ന വിഭാഗങ്ങൾ ഇവയാണ്:
- സോഷ്യൽ സ്കോറിംഗോ ഉപയോക്താക്കളെ കബളിപ്പിക്കുന്ന രീതികളോ ഉപയോഗിക്കുന്ന നിരോധിത സിസ്റ്റങ്ങൾ.
- ക്രിട്ടിക്കൽ ഇൻഫ്രാസ്ട്രക്ചർ, നിയമനം, നിയമപാലനം എന്നിവയിൽ ഉപയോഗിക്കുന്ന കർശനമായ ഓഡിറ്റ് ആവശ്യമുള്ള ഉയർന്ന റിസ്ക് സിസ്റ്റങ്ങൾ.
- ചാറ്റ്ബോട്ടുകൾ പോലുള്ള പരിമിതമായ റിസ്ക് സിസ്റ്റങ്ങൾ, അവ മനുഷ്യരല്ലെന്ന് വെളിപ്പെടുത്തണം.
- AI ഉപയോഗിക്കുന്ന വീഡിയോ ഗെയിമുകൾ പോലുള്ള കുറഞ്ഞ റിസ്ക് സിസ്റ്റങ്ങൾ.
ഈ ഘടന വഴക്കമുള്ളതായാണ് രൂപകൽപ്പന ചെയ്തിരിക്കുന്നത്. സാങ്കേതികവിദ്യ മാറുന്നതിനനുസരിച്ച് ഉയർന്ന റിസ്ക് ഉള്ള ആപ്ലിക്കേഷനുകളുടെ പട്ടിക വർദ്ധിക്കാം. സോഫ്റ്റ്വെയർ വികസിക്കുമ്പോഴും നിയമം പ്രസക്തമായി തുടരാൻ ഇത് സഹായിക്കുന്നു. എന്നാൽ, ഇത് ബിസിനസുകൾക്ക് സ്ഥിരമായ അനിശ്ചിതത്വവും ഉണ്ടാക്കുന്നു. തങ്ങളുടെ പുതിയ ഫീച്ചർ കൂടുതൽ നിയന്ത്രണമുള്ള വിഭാഗത്തിലേക്ക് മാറിയോ എന്ന് അവർ നിരന്തരം പരിശോധിക്കേണ്ടതുണ്ട്. മെഷീനുകളുടെ ശക്തിയെ ഭയക്കുന്ന ലോകത്ത് സോഫ്റ്റ്വെയർ നിർമ്മിക്കുന്നതിന്റെ പുതിയ യാഥാർത്ഥ്യമാണിത്.
വിഘടിച്ച ആഗോള ചട്ടക്കൂട്
ഈ നിയമങ്ങളുടെ സ്വാധീനം ഒരു രാജ്യത്തിന്റെ അതിർത്തികളിൽ മാത്രം ഒതുങ്ങുന്നില്ല. ‘ബ്രസൽസ് ഇഫക്റ്റ്’ (Brussels Effect) വർദ്ധിച്ചുവരുന്നത് നാം കാണുന്നു. യൂറോപ്യൻ യൂണിയൻ ടെക് നിയന്ത്രണങ്ങളിൽ ഉയർന്ന നിലവാരം നിശ്ചയിക്കുമ്പോൾ, ആഗോള കമ്പനികൾ തങ്ങളുടെ പ്രവർത്തനം ലളിതമാക്കാൻ എല്ലായിടത്തും ആ മാനദണ്ഡങ്ങൾ സ്വീകരിക്കുന്നു. പത്ത് വ്യത്യസ്ത വിപണികൾക്കായി പത്ത് പതിപ്പുകൾ നിർമ്മിക്കുന്നതിനേക്കാൾ ലാഭകരം ഒരൊറ്റ കംപ്ലയന്റ് പ്രോഡക്റ്റ് നിർമ്മിക്കുന്നതാണ്. സിലിക്കൺ വാലിയിൽ AI എങ്ങനെ നിർമ്മിക്കപ്പെടുന്നു എന്നതിൽ ഇത് യൂറോപ്പിന് വലിയ സ്വാധീനം നൽകുന്നു. ഈ മാനദണ്ഡങ്ങൾ എങ്ങനെയാണ് ഘടനാപരമായതെന്ന് മനസ്സിലാക്കാൻ നിങ്ങൾക്ക് EU AI Act-നെക്കുറിച്ച് കൂടുതൽ വായിക്കാം. അമേരിക്കയിൽ സമീപനം വ്യത്യസ്തമാണെങ്കിലും തുല്യ പ്രാധാന്യമുള്ളതാണ്. ടെക് ഭീമന്മാരെ തങ്ങളുടെ സുരക്ഷാ പരിശോധനാ ഫലങ്ങൾ പങ്കുവെക്കാൻ നിർബന്ധിതരാക്കാൻ ഗവൺമെന്റ് **Defense Production Act** ഉപയോഗിക്കുന്നു. വലിയ തോതിലുള്ള AI-യെ ദേശീയ സുരക്ഷയുടെ വിഷയമായാണ് അമേരിക്ക കാണുന്നത് എന്ന് ഇത് സൂചിപ്പിക്കുന്നു.
അതേസമയം, ചൈന കൂടുതൽ നേരിട്ടുള്ള പാതയാണ് സ്വീകരിച്ചത്. ജനറേറ്റീവ് AI നിർമ്മിക്കുന്ന ഉള്ളടക്കത്തിലാണ് അവരുടെ നിയന്ത്രണങ്ങൾ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നത്. ഔട്ട്പുട്ടുകൾ സാമൂഹിക മൂല്യങ്ങളുമായി ഒത്തുപോകണമെന്നും ഭരണകൂടത്തിന്റെ അധികാരത്തെ ദുർബലപ്പെടുത്തരുതെന്നും അവർ ആവശ്യപ്പെടുന്നു. ഇത് ഒരു വിഘടിച്ച ലോകം സൃഷ്ടിക്കുന്നു, അവിടെ നിങ്ങൾ ലോഗിൻ ചെയ്യുന്ന സ്ഥലത്തിനനുസരിച്ച് ഒരേ മോഡൽ വ്യത്യസ്തമായി പെരുമാറിയേക്കാം. ബീജിംഗിലെ ഒരു മോഡലിന് പാരീസിലോ ന്യൂയോർക്കിലോ ഉള്ളതിനേക്കാൾ വ്യത്യസ്തമായ നിയന്ത്രണങ്ങളായിരിക്കും ഉണ്ടാവുക. വൈരുദ്ധ്യമുള്ള നിയമങ്ങൾക്കിടയിൽ പ്രവർത്തിക്കേണ്ടി വരുന്ന ഡെവലപ്പർമാർക്ക് ഈ വിഭജനം തലവേദന സൃഷ്ടിക്കുന്നു. ചില രാജ്യങ്ങൾ കൂടുതൽ തുറന്ന സമീപനം ആഗ്രഹിക്കുമ്പോൾ മറ്റുള്ളവർ നിയന്ത്രണമാണ് ആഗ്രഹിക്കുന്നത്. ആഗോള പ്രേക്ഷകരെ സംബന്ധിച്ചിടത്തോളം, AI അനുഭവം പ്രാദേശികവൽക്കരിക്കപ്പെടുന്നു എന്നാണ് ഇതിനർത്ഥം. അതിരുകളില്ലാത്ത ഇന്റർനെറ്റ് എന്ന സ്വപ്നം മങ്ങുകയാണ്. പകരം, മെഷീന് എന്ത് പറയാൻ അനുവാദമുണ്ട് എന്ന് നിങ്ങളുടെ സ്ഥാനം തീരുമാനിക്കുന്ന ഒരു നിയന്ത്രിത അന്തരീക്ഷമാണ് നിലനിൽക്കുന്നത്. 2024-ന്റെ പുതിയ യാഥാർത്ഥ്യമാണിത്. അടുത്ത ദശകത്തിലെ സാങ്കേതിക വളർച്ചയെ നിർവചിക്കുന്ന മാറ്റമാണിത്.
നിയന്ത്രണങ്ങളുടെ നിഴലിൽ ദൈനംദിന ജീവിതം
സാറ എന്ന പ്രോജക്റ്റ് മാനേജരുടെ ഒരു സാധാരണ പ്രഭാതം സങ്കൽപ്പിക്കുക. നീണ്ട ഇമെയിലുകൾ സംഗ്രഹിക്കാൻ ഒരു AI ടൂൾ തുറന്നാണ് അവൾ ദിവസം തുടങ്ങുന്നത്. പുതിയ നിയന്ത്രണങ്ങൾ പ്രകാരം, ആ സംഗ്രഹം ഒരു അൽഗോരിതം നിർമ്മിച്ചതാണെന്ന് സോഫ്റ്റ്വെയർ അവളെ അറിയിക്കണം. അവളുടെ സമ്മതമില്ലാതെ കമ്പനി ഡാറ്റ പബ്ലിക് മോഡലിനെ ട്രെയിൻ ചെയ്യാൻ ഉപയോഗിക്കുന്നില്ലെന്നും ഉറപ്പാക്കണം. സമീപകാല നിയമങ്ങളിൽ ഉൾപ്പെടുത്തിയിട്ടുള്ള പുതിയ സ്വകാര്യത സംരക്ഷണത്തിന്റെ നേരിട്ടുള്ള ഫലമാണിത്. പിന്നീട്, സാറ ഒരു ടെക് ഫേമിൽ പുതിയൊരു റോളിലേക്ക് അപേക്ഷിക്കുന്നു. ആ ഫേം ഒരു AI സ്ക്രീനിംഗ് ടൂൾ ഉപയോഗിക്കുന്നു. ഇതൊരു ഉയർന്ന റിസ്ക് ആപ്ലിക്കേഷൻ ആയതിനാൽ, പക്ഷപാതമുണ്ടോ എന്ന് പരിശോധിക്കാൻ കമ്പനി ടൂളിനെ ഓഡിറ്റ് ചെയ്യേണ്ടി വന്നു. AI അവളെ എങ്ങനെ റാങ്ക് ചെയ്തു എന്നതിനെക്കുറിച്ച് വിശദീകരണം ചോദിക്കാൻ സാറയ്ക്ക് നിയമപരമായ അവകാശമുണ്ട്. മുൻപ്, അവൾക്ക് ഒരു സാധാരണ റിജക്ഷൻ മെയിൽ മാത്രമേ ലഭിക്കുമായിരുന്നുള്ളൂ. ഇപ്പോൾ, സുതാര്യതയ്ക്കുള്ള ഒരു വഴി അവൾക്കുണ്ട്. കോർപ്പറേഷനുകളും വ്യക്തികളും തമ്മിലുള്ള അധികാര സന്തുലിതാവസ്ഥയെ ഗവേണൻസ് എങ്ങനെ മാറ്റുന്നു എന്നതിന്റെ വ്യക്തമായ ഉദാഹരണമാണിത്.
ഉച്ചകഴിഞ്ഞ്, സാറ ഒരു ഷോപ്പിംഗ് മാളിലൂടെ നടക്കുന്നു. ചില നഗരങ്ങളിൽ, ടാർഗെറ്റഡ് പരസ്യങ്ങൾ കാണിക്കാൻ ഫേഷ്യൽ റെക്കഗ്നിഷൻ അവളുടെ നീക്കങ്ങളെ ട്രാക്ക് ചെയ്യുമായിരുന്നു. കർശനമായ EU നിയമങ്ങൾ പ്രകാരം, ഇത്തരത്തിലുള്ള തത്സമയ നിരീക്ഷണം നിയന്ത്രിക്കപ്പെടുന്നു. ഇത് ഉപയോഗിക്കാൻ മാളിന് വ്യക്തമായ നിയമപരമായ കാരണം ഉണ്ടായിരിക്കണം, സാറയെ വിവരം അറിയിക്കുകയും വേണം. അവൾ ഉപയോഗിക്കുന്ന ഉൽപ്പന്നങ്ങളും മാറിക്കൊണ്ടിരിക്കുകയാണ്. OpenAI, Google തുടങ്ങിയ കമ്പനികൾ പ്രാദേശിക നിയമങ്ങൾ പാലിക്കാൻ തങ്ങളുടെ ഫീച്ചറുകളിൽ മാറ്റങ്ങൾ വരുത്തുന്നുണ്ട്. ചില ഇമേജ് ജനറേഷൻ ടൂളുകൾ നിങ്ങളുടെ മേഖലയിൽ ലഭ്യമല്ലെന്നോ, അല്ലെങ്കിൽ പൊതുപ്രവർത്തകരുടെ യഥാർത്ഥ മുഖങ്ങൾ സൃഷ്ടിക്കുന്നത് തടയുന്ന കർശനമായ ഫിൽട്ടറുകൾ ഉണ്ടെന്നോ നിങ്ങൾ ശ്രദ്ധിച്ചിട്ടുണ്ടാകാം. ഇതൊരു സാങ്കേതിക പരിമിതിയല്ല, നിയമപരമായ ഒന്നാണ്. ഡീപ്ഫേക്കുകൾ തിരഞ്ഞെടുപ്പുകളെ തകിടം മറിക്കാനുള്ള സാധ്യതയോ, പക്ഷപാതപരമായ അൽഗോരിതങ്ങൾ ആളുകൾക്ക് വീട് നിഷേധിക്കാനുള്ള സാധ്യതയോ പരിഗണിക്കുമ്പോൾ ഈ നിയമങ്ങൾക്കുള്ള വാദം ശരിയാണെന്ന് തോന്നും. സുരക്ഷാ സംവിധാനങ്ങൾ ഏർപ്പെടുത്തുന്നതിലൂടെ, ഈ ദോഷങ്ങൾ സംഭവിക്കുന്നതിന് മുൻപ് തന്നെ തടയാൻ ഗവൺമെന്റുകൾ ശ്രമിക്കുന്നു. ഇതാണ് US approach to AI safety.
ഉള്ളടക്കം ഗവേഷണം ചെയ്യാനും എഴുതാനും എഡിറ്റ് ചെയ്യാനും വിവർത്തനം ചെയ്യാനും BotNews.today AI ടൂളുകൾ ഉപയോഗിക്കുന്നു. വിവരങ്ങൾ ഉപയോഗപ്രദവും വ്യക്തവും വിശ്വസനീയവുമാക്കാൻ ഞങ്ങളുടെ ടീം ഈ പ്രക്രിയ അവലോകനം ചെയ്യുകയും മേൽനോട്ടം വഹിക്കുകയും ചെയ്യുന്നു.
കംപ്ലയൻസിന്റെ മറഞ്ഞിരിക്കുന്ന ചെലവുകൾ
നിയന്ത്രിത ലോകത്ത് യഥാർത്ഥത്തിൽ വിജയിക്കുന്നത് ആരാണ് എന്ന ബുദ്ധിമുട്ടുള്ള ചോദ്യങ്ങൾ നാം ചോദിക്കേണ്ടതുണ്ട്. കനത്ത നിയന്ത്രണങ്ങൾ പൊതുജനങ്ങളെ സംരക്ഷിക്കുന്നുണ്ടോ, അതോ നിലവിലുള്ള വമ്പൻ കമ്പനികളെ സംരക്ഷിക്കുകയാണോ ചെയ്യുന്നത്? കംപ്ലയൻസ് കൈകാര്യം ചെയ്യാൻ നൂറുകണക്കിന് അഭിഭാഷകരെയും എഞ്ചിനീയർമാരെയും നിയമിക്കാൻ വലിയ ടെക് കമ്പനികൾക്ക് വിഭവങ്ങളുണ്ട്. ഒരു ഗാരേജിലെ ചെറിയ സ്റ്റാർട്ടപ്പിന് അതിന് കഴിയില്ല. വമ്പൻ കമ്പനികൾക്ക് മാത്രം നവീകരിക്കാൻ കഴിയുന്ന ഒരു ലോകം സൃഷ്ടിക്കാൻ നാം അപകടസാധ്യത നേരിടുന്നു. ഇത് കുറഞ്ഞ മത്സരത്തിനും ഉപയോക്താക്കൾക്ക് ഉയർന്ന വിലയ്ക്കും കാരണമായേക്കാം. സ്വകാര്യതയും സുരക്ഷയും തമ്മിലുള്ള ചോദ്യവുമുണ്ട്. ഗവൺമെന്റുകൾ ഒരു AI മോഡലിന്റെ പ്രവർത്തനങ്ങളിലേക്ക് പ്രവേശനം ആവശ്യപ്പെടുമ്പോൾ, ആ ഡാറ്റ ആരാണ് സംരക്ഷിക്കുന്നത്? ഒരു മോഡൽ സുരക്ഷിതമാണെന്ന് ഉറപ്പാക്കാൻ ഗവൺമെന്റിന് അത് ഓഡിറ്റ് ചെയ്യാമെങ്കിൽ, ഉപയോക്താക്കളിൽ നിന്ന് മോഡൽ എന്താണ് പഠിക്കുന്നതെന്ന് നിരീക്ഷിക്കാനും അവർക്ക് അതേ പ്രവേശനം ഉപയോഗിക്കാം. പൊതുവേദികളിൽ അപൂർവ്വമായി മാത്രം ചർച്ച ചെയ്യപ്പെടുന്ന ഒരു ട്രേഡ്-ഓഫ് ആണിത്.
നവീകരണത്തിന്റെ മറഞ്ഞിരിക്കുന്ന ചെലവും നാം പരിഗണിക്കണം. ഓരോ പുതിയ ഫീച്ചറും നീണ്ട അംഗീകാര പ്രക്രിയയിലൂടെ കടന്നുപോകണമെങ്കിൽ, വൈദ്യശാസ്ത്രത്തിൽ ജീവൻ രക്ഷിക്കാനോ സങ്കീർണ്ണമായ കാലാവസ്ഥാ പ്രശ്നങ്ങൾ പരിഹരിക്കാനോ കഴിയുന്ന മുന്നേറ്റങ്ങൾ നമുക്ക് നഷ്ടപ്പെടുമോ? നിയന്ത്രണത്തിന്റെ ഘർഷണം ഒരു യഥാർത്ഥ ചെലവാണ്. നാം നേടുന്ന സുരക്ഷ, നാം നഷ്ടപ്പെടുത്തുന്ന പുരോഗതിക്ക് തുല്യമാണോ എന്ന് അറിയേണ്ടതുണ്ട്. എൻഫോഴ്സ്മെന്റിന്റെ പ്രശ്നവുമുണ്ട്. വികേന്ദ്രീകൃത നെറ്റ്വർക്കിലോ അന്താരാഷ്ട്ര മാനദണ്ഡങ്ങളെ അവഗണിക്കുന്ന രാജ്യത്തോ ഹോസ്റ്റ് ചെയ്യുന്ന ഒരു മോഡലിനെ നിങ്ങൾ എങ്ങനെ നിയന്ത്രിക്കും? നിയമങ്ങൾ പാലിക്കാൻ തിരഞ്ഞെടുക്കുന്ന കമ്പനികൾക്ക് മാത്രമേ നിയമങ്ങൾ ബാധകമാകൂ, ഇത് ഏറ്റവും അപകടകരമായവരെ യാതൊരു മേൽനോട്ടവുമില്ലാതെ പ്രവർത്തിക്കാൻ അനുവദിക്കുന്നു. ഇത് തെറ്റായ സുരക്ഷാബോധം സൃഷ്ടിക്കുന്നു. നിയമം പാലിക്കുന്ന പൗരന്മാർക്ക് ചുറ്റും നാം വേലി കെട്ടുമ്പോൾ മറ്റുള്ളവർക്കായി ഗേറ്റ് തുറന്നിടുന്നു. റെഗുലേറ്റർമാർ പലപ്പോഴും ഒഴിവാക്കുന്ന ചോദ്യങ്ങളാണിവ. ദൃശ്യമായ റിസ്കുകളിൽ അവർ ശ്രദ്ധ കേന്ദ്രീകരിക്കുമ്പോൾ വ്യവസ്ഥാപരമായവയെ അവഗണിക്കുന്നു. മുന്നോട്ട് പോകുമ്പോൾ, സുരക്ഷയ്ക്കായുള്ള നമ്മുടെ ആഗ്രഹം തുറന്നതും മത്സരാധിഷ്ഠിതവുമായ വിപണിയുടെ മൂല്യത്തെ മറയ്ക്കുന്നില്ലെന്ന് നാം ഉറപ്പാക്കണം.
ഞങ്ങൾ ഉൾപ്പെടുത്തണമെന്ന് നിങ്ങൾ കരുതുന്ന ഒരു AI സ്റ്റോറിയോ, ടൂളോ, ട്രെൻഡോ, ചോദ്യമോ നിങ്ങളുടെ പക്കലുണ്ടോ? നിങ്ങളുടെ ലേഖന ആശയം ഞങ്ങൾക്ക് അയയ്ക്കുക — അത് കേൾക്കാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു.സുതാര്യതയുടെ സാങ്കേതിക വില
പവർ യൂസർമാർക്കും ഡെവലപ്പർമാർക്കും, പുതിയ നിയന്ത്രണങ്ങൾ പ്രത്യേക സാങ്കേതിക പരിമിതികളായി മാറുന്നു. ഏറ്റവും പ്രധാനപ്പെട്ട മെട്രിക്കുകളിൽ ഒന്ന് ‘കമ്പ്യൂട്ട് ത്രെഷോൾഡ്’ (compute threshold) ആണ്. യുഎസ് എക്സിക്യൂട്ടീവ് ഓർഡർ 10-ന്റെ 26-ാം പവർ ഫ്ലോട്ടിംഗ് പോയിന്റ് ഓപ്പറേഷനുകളിൽ ഒരു ബാർ നിശ്ചയിക്കുന്നു. ഇതിൽ കൂടുതൽ കരുത്തോടെ ട്രെയിൻ ചെയ്യുന്ന ഏതൊരു മോഡലും ഗവൺമെന്റിനെ അറിയിക്കണം. ഹാർഡ്വെയർ ഉപയോഗത്തിന്റെയും ട്രെയിനിംഗ് റണ്ണുകളുടെയും വിശദമായ ലോഗുകൾ സൂക്ഷിക്കാൻ ഇത് ഡെവലപ്പർമാരെ നിർബന്ധിതരാക്കുന്നു. API പരിധികളും നിയന്ത്രണത്തിനുള്ള ഒരു ടൂളായി മാറുകയാണ്. തെറ്റായ വിവരങ്ങളുടെ വ്യാപകമായ ഉൽപ്പാദനം തടയാൻ, ഒരു ഉപയോക്താവിന് ഒരു ജനറേറ്റീവ് മോഡലിലേക്ക് എത്ര അഭ്യർത്ഥനകൾ നടത്താം എന്നതിൽ ചില മേഖലകൾ പരിധികൾ പരിഗണിക്കുന്നു. ഈ മോഡലുകളെ ആശ്രയിക്കുന്ന ആപ്ലിക്കേഷനുകൾ ഡെവലപ്പർമാർ എങ്ങനെ നിർമ്മിക്കുന്നു എന്നതിനെ ഇത് ബാധിക്കുന്നു. അവർ ഇപ്പോൾ ഈ പരിധികൾ തങ്ങളുടെ കോഡിലും ബിസിനസ് മോഡലുകളിലും കണക്കിലെടുക്കണം. ലോക്കൽ സ്റ്റോറേജ് മറ്റൊരു പ്രധാന ഘടകമാണ്. പൗരന്മാരെക്കുറിച്ചുള്ള ഡാറ്റ ചില ഭൂമിശാസ്ത്രപരമായ അതിരുകൾക്കുള്ളിൽ തന്നെ തുടരണമെന്ന് നിയമങ്ങൾ പലപ്പോഴും ആവശ്യപ്പെടുന്നു. ഇതിനർത്ഥം കമ്പനികൾക്ക് എല്ലായിടത്തുനിന്നുമുള്ള ഡാറ്റ പ്രോസസ്സ് ചെയ്യാൻ ഒരു സെൻട്രൽ ക്ലൗഡ് ഉപയോഗിക്കാൻ കഴിയില്ല എന്നാണ്. അവർ പ്രാദേശിക ഡാറ്റാ സെന്ററുകൾ നിർമ്മിക്കുകയും പരിപാലിക്കുകയും വേണം. സാങ്കേതിക ആവശ്യകതകളിൽ ഉൾപ്പെടുന്നവ:
- AI നിർമ്മിച്ച ഉള്ളടക്കം തിരിച്ചറിയാൻ API തലത്തിൽ നിർബന്ധിത വാട്ടർമാർക്കിംഗ്.
- പ്രാദേശിക പ്രോസസ്സിംഗും സ്റ്റോറേജും നിർബന്ധമാക്കുന്ന ഡാറ്റ റെസിഡൻസി ആവശ്യകതകൾ.
- 10-ന്റെ 26-ാം പവർ ഫ്ലോപ്സ് പരിധി കവിയുന്ന ഏതൊരു മോഡൽ ട്രെയിനിംഗിനും കമ്പ്യൂട്ട് ലോഗിംഗ്.
- മോഡൽ വെയിറ്റുകളും തീരുമാന പാതകളും മനുഷ്യർക്ക് ഓഡിറ്റ് ചെയ്യാൻ അനുവദിക്കുന്ന എക്സ്പ്ലൈനബിലിറ്റി ലെയറുകൾ.
ഇന്റഗ്രേഷൻ വർക്ക്ഫ്ലോകളും മാറുകയാണ്. പൈപ്പ്ലൈനിന്റെ ഓരോ ഘട്ടത്തിലും സുരക്ഷാ പരിശോധനകൾ ഉൾപ്പെടുത്താൻ ഡെവലപ്പർമാർ ഇപ്പോൾ നിർബന്ധിതരാണ്. നിങ്ങൾ ഒരു തേർഡ് പാർട്ടി API ഉപയോഗിക്കുന്ന ടൂൾ നിർമ്മിക്കുകയാണെങ്കിൽ, ആ API ഡാറ്റ എങ്ങനെ കൈകാര്യം ചെയ്യുന്നു എന്നതിന് നിങ്ങൾ ഉത്തരവാദിയാണ്. പ്രൊവൈഡർ നിശ്ചയിച്ച സുരക്ഷാ ഫിൽട്ടറുകളെ നിങ്ങളുടെ ഇന്റഗ്രേഷൻ മറികടക്കുന്നില്ലെന്ന് നിങ്ങൾ ഉറപ്പാക്കണം. നിയമത്തിന്റെ ഗീക്ക് വിഭാഗമാണ് യഥാർത്ഥ യുദ്ധങ്ങൾ നടക്കുന്നയിടം. ലേറ്റൻസി, ഡാറ്റ റെസിഡൻസി, മോഡൽ വെയിറ്റുകളുടെ കണക്ക് എന്നിവയെക്കുറിച്ചാണത്. ഒരു പ്രോഡക്റ്റ് നിലനിൽക്കുമോ അതോ സ്വന്തം കംപ്ലയൻസ് ആവശ്യകതകളുടെ ഭാരത്താൽ അത് തകരുമോ എന്ന് തീരുമാനിക്കുന്നത് ഈ വിശദാംശങ്ങളാണ്. ടെക് പോളിസിയെക്കുറിച്ചുള്ള latest news reports-ൽ ഈ സാങ്കേതിക മാറ്റങ്ങളെക്കുറിച്ചുള്ള കൂടുതൽ വിവരങ്ങൾ നിങ്ങൾക്ക് കണ്ടെത്താം. ഈ മാറ്റങ്ങൾക്കൊപ്പം മുന്നേറാൻ ആഗ്രഹിക്കുന്നവർക്ക്, latest developments in AI regulation പിന്തുടരുന്നത് അത്യാവശ്യമാണ്. ഈ നിയമങ്ങളുടെ സങ്കീർണ്ണത അർത്ഥമാക്കുന്നത് ഡെവലപ്പറുടെ റോൾ കോഡിനെപ്പോലെ തന്നെ നിയമത്തെക്കുറിച്ചും കൂടിയായി മാറുന്നു എന്നാണ്.
പൂർത്തിയാകാത്ത കോഡ്
AI-യെ നിയന്ത്രിക്കാനുള്ള ശ്രമം നടന്നുകൊണ്ടിരിക്കുന്ന ഒന്നാണ്. പൂർണ്ണ സ്വാതന്ത്ര്യത്തിന്റെ കാലഘട്ടത്തിൽ നിന്ന് നിയന്ത്രിത വളർച്ചയുടെ കാലഘട്ടത്തിലേക്കാണ് നാം നീങ്ങുന്നത്. ഇന്ന് എഴുതുന്ന നിയമങ്ങൾ അടുത്ത ദശകത്തിലെ സാങ്കേതികവിദ്യയെ രൂപപ്പെടുത്തും. എന്നാൽ, സോഫ്റ്റ്വെയറിന്റെ വേഗത എപ്പോഴും നിയമനിർമ്മാണത്തിന്റെ വേഗതയെ മറികടക്കുന്നു. ഒരു നിയമം പാസാകുമ്പോഴേക്കും സാങ്കേതികവിദ്യ പലപ്പോഴും പുതിയ ഒന്നിലേക്ക് മാറിയിട്ടുണ്ടാകും. ഇത് നമ്മെ ഒരു ചോദ്യത്തിലേക്ക് നയിക്കുന്നു: സ്വയം തിരുത്തിയെഴുതുന്ന ഒരു ബുദ്ധിയെ നിയന്ത്രിക്കാൻ ഒരു ജനാധിപത്യ പ്രക്രിയയ്ക്ക് എപ്പോഴെങ്കിലും വേഗതയുണ്ടോ? ഇപ്പോൾ, സുതാര്യതയിലും ഉത്തരവാദിത്തത്തിലുമാണ് ശ്രദ്ധ. തങ്ങൾ നിർമ്മിച്ച മെഷീനുകളുടെ നിയന്ത്രണം മനുഷ്യരുടെ കൈകളിൽ തന്നെയാണെന്ന് ഉറപ്പാക്കാൻ നാം ശ്രമിക്കുന്നു. ഈ നിയമങ്ങൾ AI-യെ കൂടുതൽ സുരക്ഷിതമാക്കുമോ അതോ കൂടുതൽ സങ്കീർണ്ണമാക്കുമോ എന്നത് കണ്ടറിയണം. നിയന്ത്രണമില്ലാത്ത അൽഗോരിതങ്ങളുടെ കാലഘട്ടം അവസാനിച്ചു എന്നത് മാത്രമാണ് ഉറപ്പ്. 2024-ന്റെയും അതിനപ്പുറത്തിന്റെയും യാഥാർത്ഥ്യമാണിത്.
Editor’s note: We created this site as a multilingual AI news and guides hub for people who are not computer geeks, but still want to understand artificial intelligence, use it with more confidence, and follow the future that is already arriving.
ഒരു പിശകോ തിരുത്തേണ്ട എന്തെങ്കിലും കണ്ടെത്തിയോ? ഞങ്ങളെ അറിയിക്കുക.