AI നിയമങ്ങളും നിയന്ത്രണങ്ങളും: ടെക് ലോകം എന്തിനാണ് ഇത്ര ആശങ്കപ്പെടുന്നത്?
AI-യുടെ കാര്യത്തിൽ സ്വയം നിയന്ത്രണങ്ങൾ ഏർപ്പെടുത്തിയിരുന്ന കാലം കഴിഞ്ഞു. വർഷങ്ങളായി, ടെക് ഭീമന്മാരും സ്റ്റാർട്ടപ്പുകളും വെറും ‘തത്വങ്ങളുടെയും’ ‘മാർഗ്ഗനിർദ്ദേശങ്ങളുടെയും’ അടിസ്ഥാനത്തിലാണ് പ്രവർത്തിച്ചിരുന്നത്. എന്നാൽ യൂറോപ്യൻ യൂണിയന്റെ AI ആക്റ്റും അമേരിക്കയിലെ ഒട്ടനവധി നിയമനടപടികളും വന്നതോടെ കാര്യങ്ങൾ മാറി. ഇന്ന്, AI-ക്ക് എന്ത് ചെയ്യാൻ കഴിയും എന്നതിനേക്കാൾ, നിയമപരമായി എന്ത് ചെയ്യാൻ അനുവാദമുണ്ട് എന്നതാണ് പ്രധാന ചർച്ച. സോഫ്റ്റ്വെയർ എഞ്ചിനീയർമാർക്കൊപ്പം ഇപ്പോൾ ലീഗൽ ടീമുകളും ഇരിക്കുന്നു. ഇത് കേവലം തത്വശാസ്ത്രമല്ല, മറിച്ച് കമ്പനിയുടെ ആഗോള വാർഷിക വിറ്റുവരവിന്റെ ഏഴ് ശതമാനം വരെ പിഴ ലഭിക്കാവുന്ന ഒരു വലിയ ഭീഷണിയാണ്. കംപ്യൂട്ട് പവറിന് തുല്യമായി ‘കംപ്ലയൻസ്’ അഥവാ നിയമപാലനവും പ്രധാനമായി മാറുന്ന ഒരു കാലഘട്ടത്തിലേക്കാണ് വ്യവസായം നീങ്ങുന്നത്. കമ്പനികൾ ഇപ്പോൾ തങ്ങളുടെ ട്രെയിനിംഗ് ഡാറ്റ രേഖപ്പെടുത്താനും, മോഡലുകളിൽ പക്ഷപാതമില്ലെന്ന് തെളിയിക്കാനും, ചില കാര്യങ്ങൾ നിയമവിരുദ്ധമാണെന്ന് അംഗീകരിക്കാനും നിർബന്ധിതരാണ്. നിയമങ്ങളില്ലാത്ത ഒരു ലോകത്ത് നിന്ന് കർശനമായ നിയന്ത്രണങ്ങളുള്ള ലോകത്തേക്കുള്ള ഈ മാറ്റം കഴിഞ്ഞ ദശകങ്ങളിലെ ഏറ്റവും വലിയ ടെക് മാറ്റമാണ്.
നിർബന്ധിത നിയമപാലനത്തിലേക്കുള്ള മാറ്റം
നിലവിലെ നിയന്ത്രണങ്ങളുടെ കാതൽ റിസ്ക് അധിഷ്ഠിത സമീപനമാണ്. റെഗുലേറ്റർമാർ AI-യെ നിരോധിക്കാൻ ശ്രമിക്കുകയല്ല, മറിച്ച് തരംതിരിക്കാൻ ശ്രമിക്കുകയാണ്. പുതിയ നിയമങ്ങൾ പ്രകാരം, AI സിസ്റ്റങ്ങളെ നാലായി തിരിച്ചിരിക്കുന്നു: അസ്വീകാര്യമായ റിസ്ക്, ഉയർന്ന റിസ്ക്, പരിമിതമായ റിസ്ക്, കുറഞ്ഞ റിസ്ക്. പൊതുസ്ഥലങ്ങളിൽ ബയോമെട്രിക് തിരിച്ചറിയൽ നടത്തുന്നതോ സർക്കാർ തലത്തിൽ സോഷ്യൽ സ്കോറിംഗ് നടത്തുന്നതോ ആയ സിസ്റ്റങ്ങൾ നിരോധിക്കപ്പെട്ടിരിക്കുന്നു. ഇവയാണ് അസ്വീകാര്യമായ റിസ്ക് വിഭാഗത്തിൽ പെടുന്നത്. നിങ്ങളുടെ ജീവിതത്തെ നേരിട്ട് ബാധിക്കുന്നവയാണ് ഉയർന്ന റിസ്ക് സിസ്റ്റങ്ങൾ. ജോലി നിയമനം, ക്രെഡിറ്റ് സ്കോറിംഗ്, വിദ്യാഭ്യാസം, നിയമപാലനം എന്നിവ ഇതിൽ ഉൾപ്പെടുന്നു. റെസ്യൂമെകൾ പരിശോധിക്കാൻ ഒരു ടൂൾ നിർമ്മിക്കുകയാണെങ്കിൽ, അവർക്ക് കർശനമായ സുതാര്യതയും കൃത്യതയും പാലിക്കേണ്ടതുണ്ട്. അൽഗോരിതം പ്രവർത്തിക്കുന്നുണ്ടെന്ന് വെറുതെ പറഞ്ഞാൽ പോരാ, കൃത്യമായ രേഖകളും തേർഡ് പാർട്ടി ഓഡിറ്റുകളും വഴി അത് തെളിയിക്കണം. രഹസ്യമായി പ്രവർത്തിച്ചിരുന്ന കമ്പനികൾക്ക് ഇതൊരു വലിയ ബാധ്യതയാണ്.
ചാറ്റ്ബോട്ടുകൾക്ക് പിന്നിലുള്ള ലാർജ് ലാംഗ്വേജ് മോഡലുകൾക്ക് പ്രത്യേക നിയമങ്ങളുണ്ട്. ഉള്ളടക്കം AI നിർമ്മിതമാണെങ്കിൽ അത് വെളിപ്പെടുത്തണം. കൂടാതെ, ട്രെയിനിംഗിനായി ഉപയോഗിച്ച കോപ്പിറൈറ്റ് ഉള്ള ഡാറ്റയുടെ സംഗ്രഹം നൽകുകയും വേണം. ഇവിടെയാണ് പ്രശ്നം ഉടലെടുക്കുന്നത്. മിക്ക AI കമ്പനികളും തങ്ങളുടെ ട്രെയിനിംഗ് ഡാറ്റ ഒരു ട്രേഡ് സീക്രട്ടായി കാണുന്നു. എന്നാൽ വിപണിയിൽ പ്രവേശിക്കാൻ സുതാര്യത അനിവാര്യമാണെന്നാണ് റെഗുലേറ്റർമാർ പറയുന്നത്. ഡാറ്റാ ഉറവിടങ്ങൾ വെളിപ്പെടുത്താൻ സാധിച്ചില്ലെങ്കിൽ, യൂറോപ്യൻ വിപണിയിൽ നിന്ന് കമ്പനികൾക്ക് പുറത്താകേണ്ടി വരും. ആധുനിക മെഷീൻ ലേണിംഗിന്റെ ‘ബ്ലാക്ക് ബോക്സ്’ സ്വഭാവത്തിന് ഇത് വലിയൊരു വെല്ലുവിളിയാണ്. വ്യവസായം വർഷങ്ങളായി എതിർത്തുപോന്ന ഒരു തുറന്ന സമീപനം സ്വീകരിക്കാൻ ഇത് നിർബന്ധിക്കുന്നു.
ഈ നിയമങ്ങളുടെ പ്രഭാവം യൂറോപ്പിന് അപ്പുറത്തേക്ക് വ്യാപിക്കുന്നു. ഇതിനെ ‘ബ്രസ്സൽസ് ഇഫക്റ്റ്’ എന്ന് വിളിക്കുന്നു. ഓരോ രാജ്യത്തിനും വ്യത്യസ്തമായ സോഫ്റ്റ്വെയർ പതിപ്പുകൾ നിർമ്മിക്കുന്നത് ബുദ്ധിമുട്ടായതിനാൽ, പല കമ്പനികളും ഏറ്റവും കർശനമായ നിയമങ്ങൾ ആഗോളതലത്തിൽ തന്നെ നടപ്പിലാക്കും. ഡാറ്റാ പ്രൈവസി നിയമങ്ങളുടെ കാര്യത്തിൽ നമ്മൾ ഇത് കണ്ടതാണ്. ഇപ്പോൾ AI-യുടെ കാര്യത്തിലും അത് സംഭവിക്കുന്നു. അമേരിക്കയിൽ സമീപനം വ്യത്യസ്തമാണെങ്കിലും ഫലം ഒന്നുതന്നെയാണ്. ഒരു വലിയ നിയമത്തിന് പകരം, എക്സിക്യൂട്ടീവ് ഓർഡറുകളും ഹൈ-പ്രൊഫൈൽ കേസുകളുമാണ് അവർ ഉപയോഗിക്കുന്നത്. 2026-ലെ യുഎസ് എക്സിക്യൂട്ടീവ് ഓർഡർ ഏറ്റവും ശക്തമായ മോഡലുകളുടെ സുരക്ഷാ പരിശോധനയിൽ ശ്രദ്ധ കേന്ദ്രീകരിച്ചു. അതേസമയം, കോപ്പിറൈറ്റ് ഉള്ള പുസ്തകങ്ങളും വാർത്തകളും ഉപയോഗിച്ച് AI-യെ പരിശീലിപ്പിക്കുന്നത് ‘ഫെയർ യൂസ്’ ആണോ അതോ ‘മോഷണം’ ആണോ എന്ന് കോടതികൾ തീരുമാനിക്കുന്നു. ഈ നിയമപോരാട്ടങ്ങൾ വ്യവസായത്തിന്റെ സാമ്പത്തിക ഭാവി നിർണ്ണയിക്കും. ഓരോ ഡാറ്റയ്ക്കും ലൈസൻസ് ഫീ നൽകേണ്ടി വന്നാൽ, AI നിർമ്മാണച്ചെലവ് കുതിച്ചുയരും.
ചൈനയും ജനറേറ്റീവ് AI-യെ നിയന്ത്രിക്കാൻ വേഗത്തിൽ നീങ്ങിയിട്ടുണ്ട്. AI നൽകുന്ന വിവരങ്ങൾ കൃത്യമാണെന്നും സാമൂഹിക മൂല്യങ്ങളുമായി ഒത്തുപോകുന്നുണ്ടെന്നും ഉറപ്പാക്കുന്നതിലാണ് അവരുടെ ശ്രദ്ധ. കമ്പനികൾ തങ്ങളുടെ അൽഗോരിതങ്ങൾ സർക്കാരിൽ രജിസ്റ്റർ ചെയ്യണം. ഇത് ആഗോളതലത്തിൽ ഒരു വിഭജനം ഉണ്ടാക്കുന്നു. സാൻഫ്രാൻസിസ്കോയിലെ ഒരു ഡെവലപ്പർക്ക് ഇപ്പോൾ EU AI ആക്റ്റ്, യുഎസ് കോപ്പിറൈറ്റ് നിയമം, ചൈനീസ് അൽഗോരിതം രജിസ്ട്രേഷൻ എന്നിവയെക്കുറിച്ച് ആശങ്കപ്പെടേണ്ടി വരുന്നു. വലിയ നിയമവിഭാഗത്തെ താങ്ങാൻ കഴിയാത്ത ചെറിയ കളിക്കാർക്ക് ഇത് വലിയൊരു തടസ്സമാണ്. ഏറ്റവും വലിയ ടെക് കമ്പനികൾക്ക് മാത്രമേ എല്ലാ മേഖലകളിലും നിയമങ്ങൾ പാലിക്കാൻ കഴിയൂ എന്ന ഭയമുണ്ട്. ഇത് വിപണിയിൽ കുത്തകവൽക്കരണത്തിന് കാരണമായേക്കാം.
യഥാർത്ഥ ലോകത്ത്, ഉൽപ്പന്നങ്ങൾ നിർമ്മിക്കുന്ന രീതിയിൽ വലിയൊരു മാറ്റമാണ് ഇത് ഉണ്ടാക്കുന്നത്. ഒരു ഇടത്തരം സ്റ്റാർട്ടപ്പിലെ പ്രൊഡക്റ്റ് മാനേജരെ ചിന്തിച്ചു നോക്കൂ. ഒരു വർഷം മുമ്പ്, എത്രയും വേഗം ഒരു പുതിയ AI ഫീച്ചർ പുറത്തിറക്കുക എന്നതായിരുന്നു ലക്ഷ്യം. ഇന്ന്, അവരുടെ ആദ്യ മീറ്റിംഗ് ഒരു കംപ്ലയൻസ് ഓഫീസറുമായാണ്. ഉപയോഗിക്കുന്ന ഓരോ ഡാറ്റാസെറ്റും അവർ ട്രാക്ക് ചെയ്യണം. മോഡലുകളിൽ ‘ഹാലുസിനേഷൻ’ (തെറ്റായ വിവരങ്ങൾ) ഉണ്ടോ എന്ന് പരിശോധിക്കണം. AI തീരുമാനങ്ങൾ നിരീക്ഷിക്കാൻ ‘ഹ്യൂമൻ ഇൻ ദ ലൂപ്പ്’ സംവിധാനം വേണം. ഇത് വികസന സമയം മാസങ്ങളോളം വർദ്ധിപ്പിക്കുന്നു. ക്രിയേറ്റർമാരെ സംബന്ധിച്ചിടത്തോളം, തങ്ങളുടെ സൃഷ്ടികൾ മോഷ്ടിക്കപ്പെട്ടിട്ടില്ലെന്ന് ഉറപ്പാക്കുന്ന ടൂളുകളാണ് അവർ തിരയുന്നത്. ട്രെയിനിംഗ് സെറ്റിലെ ഓരോ ചിത്രവും വാക്കും ലൈസൻസ് ചെയ്ത ‘ലൈസൻസ്ഡ് AI’ എന്ന ആശയത്തിന് ഇപ്പോൾ പ്രാധാന്യം ഏറുന്നു. ഇത് കൂടുതൽ സുസ്ഥിരവും എന്നാൽ ചെലവേറിയതുമായ ഒരു നിർമ്മാണ രീതിയാണ്.
ഒരു കംപ്ലയൻസ് ഓഫീസറുടെ ജോലിയിൽ ഇപ്പോൾ ‘റെഡ് ടീമിംഗ്’ സെഷനുകൾ ഉൾപ്പെടുന്നു, അവിടെ അവർ സ്വന്തം AI-യെ തകർക്കാൻ ശ്രമിക്കുന്നു. മോഡൽ അപകടകരമായ ഉപദേശങ്ങൾ നൽകുന്നുണ്ടോ അല്ലെങ്കിൽ പക്ഷപാതം കാണിക്കുന്നുണ്ടോ എന്ന് അവർ പരിശോധിക്കുന്നു. ഈ പരാജയങ്ങളും പരിഹാരങ്ങളും അവർ രേഖപ്പെടുത്തുന്നു. ഈ രേഖകൾ ആഭ്യന്തര ആവശ്യത്തിന് മാത്രമല്ല, എപ്പോൾ വേണമെങ്കിലും സർക്കാർ റെഗുലേറ്റർമാർക്ക് പരിശോധിക്കാൻ തയ്യാറായിരിക്കണം. ‘വേഗത്തിൽ നീങ്ങുക, കാര്യങ്ങൾ തകർക്കുക’ എന്ന പഴയ രീതിയിൽ നിന്ന് ഇത് തികച്ചും വ്യത്യസ്തമാണ്. ഇപ്പോൾ കാര്യങ്ങൾ തകർത്താൽ, ഒരു വലിയ വാർത്താ സ്ഥാപനത്തിൽ നിന്നോ സർക്കാർ ഏജൻസിയിൽ നിന്നോ നിയമനടപടികൾ നേരിടേണ്ടി വരും. EU AI ആക്റ്റ് AI വികസനത്തെ ബാങ്കിംഗ് അല്ലെങ്കിൽ വൈദ്യശാസ്ത്രം പോലെ ഒരു നിയന്ത്രിത തൊഴിലായി മാറ്റിയിരിക്കുന്നു. വിവിധ മേഖലകളിൽ ഈ നിയമങ്ങൾ എങ്ങനെ ബാധകമാകുന്നു എന്നതിനെക്കുറിച്ചുള്ള സമഗ്രമായ AI പോളിസി വിശകലനം നിങ്ങൾക്ക് ഇവിടെ കാണാം. ഇത് വെറും യൂസർ എക്സ്പീരിയൻസിനെക്കുറിച്ചല്ല, മറിച്ച് നിയമപരമായ അതിജീവനത്തെക്കുറിച്ചാണ്.
വ്യവസായം ഇപ്പോൾ ‘കോപ്പിറൈറ്റ് ട്രാപ്പിലും’ പെട്ടിരിക്കുകയാണ്. ന്യൂയോർക്ക് ടൈംസ് പോലുള്ള പ്രസാധകർ AI കമ്പനികൾക്കെതിരെ കേസ് നൽകിയിട്ടുണ്ട്. ഈ കേസുകൾ പണത്തിന് വേണ്ടിയുള്ളതല്ല, നിലനിൽപ്പിന് വേണ്ടിയാണ്. AI ട്രെയിനിംഗ് ‘ഫെയർ യൂസ്’ അല്ലെന്ന് കോടതി വിധിച്ചാൽ, ജനറേറ്റീവ് AI-യുടെ ബിസിനസ് മോഡൽ തന്നെ തകരും. കമ്പനികൾക്ക് നിലവിലെ മോഡലുകൾ ഡിലീറ്റ് ചെയ്ത് ലൈസൻസ്ഡ് ഡാറ്റ ഉപയോഗിച്ച് വീണ്ടും തുടങ്ങേണ്ടി വരും. അതുകൊണ്ടാണ് OpenAI പോലുള്ള കമ്പനികൾ വാർത്താ സ്ഥാപനങ്ങളുമായി കരാറുകളിൽ ഒപ്പിടുന്നത്. അവർ നിയമപരമായ റിസ്ക് കുറയ്ക്കാൻ ശ്രമിക്കുകയാണ്. ഡാറ്റയ്ക്ക് പണം നൽകി നിയമപരമായ അവകാശം നേടുകയാണ് അവർ. ഇത് ഡാറ്റ ഏറ്റവും വിലപിടിപ്പുള്ള ചരക്കായി മാറുന്ന ഒരു പുതിയ സമ്പദ്വ്യവസ്ഥ സൃഷ്ടിക്കുന്നു.
ഉള്ളടക്കം ഗവേഷണം ചെയ്യാനും എഴുതാനും എഡിറ്റ് ചെയ്യാനും വിവർത്തനം ചെയ്യാനും BotNews.today AI ടൂളുകൾ ഉപയോഗിക്കുന്നു. വിവരങ്ങൾ ഉപയോഗപ്രദവും വ്യക്തവും വിശ്വസനീയവുമാക്കാൻ ഞങ്ങളുടെ ടീം ഈ പ്രക്രിയ അവലോകനം ചെയ്യുകയും മേൽനോട്ടം വഹിക്കുകയും ചെയ്യുന്നു.
ഈ നിയമങ്ങൾ ആരെയാണ് യഥാർത്ഥത്തിൽ സംരക്ഷിക്കുന്നത് എന്ന് നമ്മൾ ചോദിക്കേണ്ടതുണ്ട്. പൊതുജനങ്ങളെയോ അതോ നിലവിലുള്ള വമ്പന്മാരെയോ? കംപ്ലയൻസ് ചെലവ് ലക്ഷക്കണക്കിന് ഡോളറാണെങ്കിൽ, ഒരു ഗാരേജിൽ പ്രവർത്തിക്കുന്ന ചെറിയ സ്റ്റാർട്ടപ്പിന് മത്സരിക്കാൻ കഴിയില്ല. പണം കൈവശമുള്ള കമ്പനികൾക്ക് വേണ്ടി നമ്മൾ അറിയാതെ ഒരു കുത്തക സൃഷ്ടിക്കുകയാണോ? സ്വകാര്യതയെക്കുറിച്ചും ചോദ്യങ്ങളുണ്ട്. ഒരു AI ഒരു ഗ്രൂപ്പിനോട് പക്ഷപാതം കാണിക്കുന്നില്ലെന്ന് തെളിയിക്കാൻ, ആ ഗ്രൂപ്പിനെക്കുറിച്ച് കൂടുതൽ ഡാറ്റ ശേഖരിക്കേണ്ടി വരും. ഇത് ‘നീതി’ ഉറപ്പാക്കാൻ കൂടുതൽ നിരീക്ഷണം ആവശ്യമായി വരുന്ന ഒരു വൈരുദ്ധ്യമാണ്. പാരിസ്ഥിതിക ചെലവിനെക്കുറിച്ചും നമ്മൾ ചോദിക്കണം. പുതിയ മാനദണ്ഡങ്ങൾ പാലിക്കാൻ നിരന്തരമായ പരിശോധനയും മോഡലുകളുടെ റീ-ട്രെയിനിംഗും ആവശ്യമാണെങ്കിൽ, ഡാറ്റാ സെന്ററുകളുടെ ഊർജ്ജ ഉപഭോഗം അതിവേഗം വർദ്ധിക്കും. ഈ വിട്ടുവീഴ്ചയ്ക്ക് നമ്മൾ തയ്യാറാണോ?
‘സത്യം’ എന്ന നിർവചനമാണ് മറ്റൊരു വലിയ ചോദ്യം. AI ‘കൃത്യമായിരിക്കണം’ എന്നാണ് റെഗുലേറ്റർമാർ ആഗ്രഹിക്കുന്നത്. എന്നാൽ ഒരു രാഷ്ട്രീയ അല്ലെങ്കിൽ സാമൂഹിക പശ്ചാത്തലത്തിൽ എന്താണ് കൃത്യമെന്ന് ആരാണ് തീരുമാനിക്കുക? ഒരു ‘അകൃത്യമായ’ AI പ്രതികരണത്തിന് സർക്കാരിന് ഒരു കമ്പനിയെ പിഴ ചുമത്താൻ കഴിയുമെങ്കിൽ, ആ സർക്കാർ സെൻസർഷിപ്പിനുള്ള ഒരു ടൂൾ ഉപയോഗിക്കുകയാണെന്ന് അർത്ഥം. മനുഷ്യാവകാശ രേഖകൾ അത്ര മികച്ചതല്ലാത്ത രാജ്യങ്ങളിൽ ഇത് വലിയൊരു ആശങ്കയാണ്. ‘സുരക്ഷ’ എന്നത് ‘സർക്കാർ അംഗീകരിച്ച ഉള്ളടക്കം’ എന്നതിന്റെ കോഡ് വാക്കായി മാറുമോ എന്ന് വ്യവസായം ഭയപ്പെടുന്നു. AI ഉള്ളടക്കത്തിൽ ‘വാട്ടർമാർക്കിംഗ്’ കൊണ്ടുവരാനും ശ്രമങ്ങൾ നടക്കുന്നുണ്ട്. ഡീപ്ഫേക്കുകൾ തടയാൻ ഇത് നല്ലതാണെന്ന് തോന്നുമെങ്കിലും, സാങ്കേതികമായി നടപ്പിലാക്കാൻ ബുദ്ധിമുട്ടാണ്. ഒരു ഉപയോക്താവിന് എളുപ്പത്തിൽ വാട്ടർമാർക്ക് നീക്കം ചെയ്യാൻ സാധിക്കും. എളുപ്പത്തിൽ മറികടക്കാവുന്ന ഒരു സാങ്കേതികവിദ്യയെ ആശ്രയിക്കുന്നത് സുരക്ഷയെക്കുറിച്ചുള്ള ഒരു തെറ്റായ ധാരണ സൃഷ്ടിക്കില്ലേ? ഈ നിയന്ത്രണങ്ങളുടെ മറഞ്ഞിരിക്കുന്ന ചെലവുകൾ പലപ്പോഴും ചെറിയ അക്ഷരങ്ങളിൽ ഒളിഞ്ഞിരിക്കുന്നു.
പവർ യൂസർമാർക്കും ഡെവലപ്പർമാർക്കും, മോഡൽ റിപ്പോർട്ടിംഗിന്റെ സാങ്കേതിക ആവശ്യകതകളിലാണ് നിയന്ത്രണങ്ങളുടെ ‘ഗീക്കി’ വശം കാണാൻ കഴിയുന്നത്. മോഡൽ കാർഡുകൾ ഇപ്പോൾ വർദ്ധിച്ചുവരികയാണ്. ഒരു മോഡലിന്റെ ട്രെയിനിംഗ് ഡാറ്റ, പ്രകടന മാനദണ്ഡങ്ങൾ, പരിമിതികൾ എന്നിവ പട്ടികപ്പെടുത്തുന്ന സ്റ്റാൻഡേർഡ് രേഖകളാണിവ. GitHub റിപ്പോസിറ്ററികളിലെ ‘readme’ ഫയലുകൾ പോലെ ഇവ സാധാരണമായി മാറുകയാണ്. ഡെവലപ്പർമാർ ‘സുതാര്യത API-കൾ’ നിർമ്മിക്കേണ്ടതുണ്ട്, ഇത് തേർഡ് പാർട്ടി ഗവേഷകർക്ക് കോഡ് കാണാതെ തന്നെ സിസ്റ്റങ്ങളെ ഓഡിറ്റ് ചെയ്യാൻ അനുവദിക്കുന്നു. ഇതൊരു സങ്കീർണ്ണമായ എഞ്ചിനീയറിംഗ് വെല്ലുവിളിയാണ്. നിങ്ങളുടെ ബൗദ്ധിക സ്വത്തവകാശം വെളിപ്പെടുത്താതെ തന്നെ സുരക്ഷ പരിശോധിക്കാൻ ഒരാൾക്ക് എങ്ങനെ മതിയായ ആക്സസ് നൽകും? ഈ API-കളുടെ മാനദണ്ഡങ്ങളെക്കുറിച്ച് വ്യവസായം ഇപ്പോൾ ചർച്ച ചെയ്യുകയാണ്.
നിയന്ത്രണങ്ങളിൽ നിന്ന് രക്ഷപ്പെടാനുള്ള ഒരു മാർഗ്ഗമായി ലോക്കൽ സ്റ്റോറേജും ‘എഡ്ജ് AI’-യും ജനപ്രിയമായിക്കൊണ്ടിരിക്കുന്നു. AI പ്രോസസ്സിംഗ് ക്ലൗഡിന് പകരം ഉപയോക്താവിന്റെ ഫോണിൽ നടക്കുകയാണെങ്കിൽ, കർശനമായ ഡാറ്റാ പ്രൈവസി നിയമങ്ങൾ പാലിക്കാൻ എളുപ്പമാണ്. എന്നാൽ ഇത് AI-യുടെ ശക്തിയെ പരിമിതപ്പെടുത്തുന്നു. വലിയ ക്ലൗഡ് കംപ്യൂട്ടിംഗും ലോക്കൽ ഇൻഫറൻസിന്റെ നിയമപരമായ സുരക്ഷയും തമ്മിൽ ഡെവലപ്പർമാർ ഇപ്പോൾ സന്തുലിതാവസ്ഥ പാലിക്കുന്നു. AI കോഡിൽ ‘കിൽ സ്വിച്ചുകൾ’ നടപ്പിലാക്കുന്നതും നമ്മൾ കാണുന്നുണ്ട്. പരിശോധനയ്ക്കിടെ പ്രവചിക്കാത്ത ‘അപ്രതീക്ഷിത പെരുമാറ്റങ്ങൾ’ കാണിക്കാൻ തുടങ്ങിയാൽ മോഡലിനെ ഷട്ട് ഡൗൺ ചെയ്യാൻ കഴിയുന്ന പ്രോട്ടോക്കോളുകളാണിവ. ഇത് സയൻസ് ഫിക്ഷനല്ല, ഉയർന്ന റിസ്ക് സിസ്റ്റങ്ങൾക്ക് ഇതൊരു ആവശ്യകതയാണ്. ഡാറ്റാബേസ് സ്കീമ മുതൽ API റേറ്റ് ലിമിറ്റുകൾ വരെ, സോഫ്റ്റ്വെയർ ആർക്കിടെക്ചറിൽ തന്നെ കംപ്ലയൻസ് ഇപ്പോൾ ഉൾച്ചേർക്കപ്പെടുന്നു.
ചുരുക്കത്തിൽ, AI വ്യവസായം പക്വത പ്രാപിക്കുകയാണ്. ഒരു ഗവേഷണ കൗതുകത്തിൽ നിന്ന് നിയന്ത്രിത യൂട്ടിലിറ്റിയിലേക്കുള്ള ഈ മാറ്റം വേദനാജനകവും ചെലവേറിയതുമാണ്. നിയമപരമായ ഈ മാറ്റത്തെ അവഗണിക്കുന്ന കമ്പനികൾ അടുത്ത അഞ്ച് വർഷത്തിനുള്ളിൽ അതിജീവിക്കില്ല. ‘നമുക്ക് ഇത് നിർമ്മിക്കാൻ കഴിയുമോ’ എന്നതിൽ നിന്ന് ‘നമ്മൾ ഇത് നിർമ്മിക്കണോ’ എന്നും ‘നമ്മൾ ഇത് എങ്ങനെ രേഖപ്പെടുത്തണം’ എന്നും ഉള്ളതിലേക്ക് ശ്രദ്ധ മാറി. ഈ മാറ്റം ഹ്രസ്വകാലത്തേക്ക് നവീകരണത്തിന്റെ വേഗത കുറച്ചേക്കാം, എന്നാൽ ദീർഘകാലാടിസ്ഥാനത്തിൽ ഇത് കൂടുതൽ സുസ്ഥിരവും വിശ്വസനീയവുമായ സാങ്കേതികവിദ്യയിലേക്ക് നയിക്കും. നിയമങ്ങൾ ഇപ്പോഴും എഴുതപ്പെട്ടുകൊണ്ടിരിക്കുന്നു, കേസുകൾ തീർപ്പുകൽപ്പിക്കപ്പെടുന്നു. ‘വൈൽഡ് വെസ്റ്റ്’ കാലം കഴിഞ്ഞുവെന്നത് വ്യക്തമാണ്. AI-യുടെ ഭാവി എഞ്ചിനീയർമാരെയും ഡാറ്റാ സയന്റിസ്റ്റുകളെയും പോലെ തന്നെ അഭിഭാഷകരും നിയമനിർമ്മാതാക്കളും നിർണ്ണയിക്കും. വ്യവസായം ആശങ്കയിലാണെങ്കിലും, നിയന്ത്രിത ലോകത്തിന്റെ പുതിയ യാഥാർത്ഥ്യവുമായി അത് പൊരുത്തപ്പെട്ടുകൊണ്ടിരിക്കുകയാണ്.
Editor’s note: We created this site as a multilingual AI news and guides hub for people who are not computer geeks, but still want to understand artificial intelligence, use it with more confidence, and follow the future that is already arriving.
ഒരു പിശകോ തിരുത്തേണ്ട എന്തെങ്കിലും കണ്ടെത്തിയോ? ഞങ്ങളെ അറിയിക്കുക.