AI-യ്ക്കായുള്ള പുതിയ ആഗോള നിയമപുസ്തകം തയ്യാറായി വരുന്നു
അനുവാദമില്ലാത്ത ഇന്നൊവേഷന്റെ അന്ത്യം
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ (AI) ‘വൈൽഡ് വെസ്റ്റ്’ കാലഘട്ടം അവസാനിക്കുകയാണ്. വർഷങ്ങളായി, ഡെവലപ്പർമാർ കാര്യമായ മേൽനോട്ടമോ ഉത്തരവാദിത്തമോ ഇല്ലാതെയാണ് മോഡലുകൾ നിർമ്മിച്ചിരുന്നത്. ഇപ്പോൾ, ആ സ്വാതന്ത്ര്യത്തിന് പകരം കർശനമായ നിയമങ്ങളും സുരക്ഷാ മാനദണ്ഡങ്ങളും ഉൾക്കൊള്ളുന്ന ഒരു പുതിയ ആഗോള നിയമപുസ്തകം രൂപംകൊള്ളുകയാണ്. ഇതൊരു നിർദ്ദേശമോ സന്നദ്ധ മാർഗ്ഗനിർദ്ദേശമോ മാത്രമല്ല, വൻ പിഴകളും വിപണിയിൽ നിന്ന് പുറത്താക്കപ്പെടാനുള്ള സാധ്യതയുമുള്ള കടുത്ത നിയമങ്ങളാണ്. യൂറോപ്യൻ യൂണിയൻ അവരുടെ സമഗ്രമായ AI Act-ലൂടെ ഇതിന് നേതൃത്വം നൽകുന്നു, അതേസമയം അമേരിക്ക തങ്ങളുടെ ഏറ്റവും ശക്തമായ മോഡലുകളെ ലക്ഷ്യമിട്ടുള്ള എക്സിക്യൂട്ടീവ് ഉത്തരവുകളുമായി മുന്നോട്ട് പോകുന്നു. ഈ നിയമങ്ങൾ കോഡ് എങ്ങനെ എഴുതണം, ഡാറ്റ എങ്ങനെ ശേഖരിക്കണം എന്നതിനെ മാറ്റിമറിക്കും. ഈ മത്സരരംഗത്ത് ആർക്കൊക്കെ പിടിച്ചുനിൽക്കാൻ കഴിയും എന്നതിനെയും ഇത് തീരുമാനിക്കും. മനുഷ്യന്റെ പെരുമാറ്റത്തെ പ്രവചിക്കുന്ന ഒരു മോഡലാണ് നിങ്ങൾ നിർമ്മിക്കുന്നതെങ്കിൽ, നിങ്ങൾ ഇപ്പോൾ നിരീക്ഷണത്തിലാണ്. ഈ മാറ്റം വ്യവസായത്തിന്റെ ശ്രദ്ധയെ വേഗതയിൽ നിന്ന് സുരക്ഷയിലേക്ക് മാറ്റുന്നു. കമ്പനികൾ തങ്ങളുടെ സിസ്റ്റങ്ങൾ പുറത്തിറക്കുന്നതിന് മുൻപ് അവ പക്ഷപാതപരമല്ലെന്ന് തെളിയിക്കേണ്ടതുണ്ട്. ലോകത്തിലെ എല്ലാ ടെക് കമ്പനികൾക്കും ഇതൊരു പുതിയ യാഥാർത്ഥ്യമാണ്.
കോഡിലെ റിസ്ക് തരംതിരിക്കൽ
പുതിയ നിയമങ്ങളുടെ കാതൽ റിസ്ക് അധിഷ്ഠിത സമീപനമാണ്. ഇതിനർത്ഥം ഒരു മ്യൂസിക് റെക്കമെൻഡേഷൻ എൻജിനെ ഒരു മെഡിക്കൽ ഡയഗ്നോസ്റ്റിക് ടൂളിൽ നിന്നോ സെൽഫ് ഡ്രൈവിംഗ് കാറിൽ നിന്നോ നിയമം വ്യത്യസ്തമായാണ് കാണുന്നത് എന്നാണ്. യൂറോപ്യൻ യൂണിയൻ ഇത്തരത്തിലുള്ള നിയന്ത്രണങ്ങൾക്ക് ഒരു സുവർണ്ണ നിലവാരം നിശ്ചയിച്ചിട്ടുണ്ട്. സമൂഹത്തിന് വരുത്താൻ കഴിയുന്ന ദോഷഫലങ്ങളുടെ അടിസ്ഥാനത്തിൽ അവർ AI-യെ നാല് വ്യത്യസ്ത വിഭാഗങ്ങളായി തിരിച്ചിരിക്കുന്നു. വ്യക്തമായ ദോഷം വരുത്തുന്ന നിരോധിത സിസ്റ്റങ്ങൾ പൂർണ്ണമായും നിരോധിച്ചിരിക്കുന്നു. പൗരന്മാരെ ട്രാക്ക് ചെയ്യാനും റാങ്ക് ചെയ്യാനും ഏകാധിപത്യ ഭരണകൂടങ്ങൾ ഉപയോഗിക്കുന്ന സോഷ്യൽ സ്കോറിംഗ് സിസ്റ്റങ്ങൾ ഇതിൽ ഉൾപ്പെടുന്നു. ദേശീയ സുരക്ഷയ്ക്ക് വളരെ അപൂർവ്വമായ ഇളവുകൾ ഒഴികെ, പൊതുസ്ഥലങ്ങളിൽ നിയമപാലകർ നടത്തുന്ന തത്സമയ ബയോമെട്രിക് തിരിച്ചറിയലും ഇതിൽ ഉൾപ്പെടുന്നു. ഹൈ-റിസ്ക് സിസ്റ്റങ്ങൾക്കാണ് റെഗുലേറ്റർമാരിൽ നിന്ന് ഏറ്റവും കൂടുതൽ പരിശോധന നേരിടേണ്ടി വരിക. ഇവ നിർണ്ണായക ഇൻഫ്രാസ്ട്രക്ചർ, വിദ്യാഭ്യാസം, തൊഴിൽ മേഖലകളിൽ ഉപയോഗിക്കുന്നു. ഒരു ജോലി ആർക്ക് ലഭിക്കണം അല്ലെങ്കിൽ ആർക്ക് ലോൺ ലഭിക്കണം എന്ന് ഒരു AI തീരുമാനിക്കുകയാണെങ്കിൽ, അത് സുതാര്യമായിരിക്കണം. അതിന് മനുഷ്യന്റെ മേൽനോട്ടവും ഉയർന്ന തലത്തിലുള്ള കൃത്യതയും ഉണ്ടായിരിക്കണം. ചാറ്റ്ബോട്ട് പോലുള്ള ലിമിറ്റഡ് റിസ്ക് സിസ്റ്റങ്ങൾക്ക് നിയമങ്ങൾ കുറവാണെങ്കിലും സുതാര്യത ആവശ്യമാണ്. തങ്ങൾ സംസാരിക്കുന്നത് ഒരു മെഷീനോടാണെന്ന് ഉപയോക്താവിനോട് പറയണം. AI ശത്രുക്കളുള്ള വീഡിയോ ഗെയിമുകൾ പോലുള്ള മിനിമൽ റിസ്ക് സിസ്റ്റങ്ങളെ മിക്കവാറും വെറുതെ വിടുന്നു. ഈ ചട്ടക്കൂട് പുരോഗതി തടയാതെ അവകാശങ്ങളെ സംരക്ഷിക്കാൻ രൂപകൽപ്പന ചെയ്തിട്ടുള്ളതാണ്. എന്നിരുന്നാലും, ഈ വിഭാഗങ്ങളുടെ നിർവചനങ്ങൾ കോടതികളിലും ബോർഡ് റൂമുകളിലും ഇപ്പോഴും ചർച്ച ചെയ്യപ്പെടുന്നു. ഒരാൾ ലളിതമായ റെക്കമെൻഡേഷൻ എന്ന് വിളിക്കുന്നത് മറ്റൊരാൾ മനഃശാസ്ത്രപരമായ കൃത്രിമത്വം എന്ന് വിളിച്ചേക്കാം. നിയമങ്ങൾ ഒരു അതിർവരമ്പ് വരയ്ക്കാൻ ശ്രമിക്കുന്നുണ്ടെങ്കിലും, സാങ്കേതികവിദ്യ വികസിക്കുന്നതിനനുസരിച്ച് ആ മണൽത്തരികൾ നിരന്തരം മാറിക്കൊണ്ടിരിക്കുന്നു.
യൂറോപ്യൻ പാർലമെന്റ് അവരുടെ ഏറ്റവും പുതിയ EU AI Act സംബന്ധിച്ച ബ്രീഫിംഗുകളിൽ ഈ വിഭാഗങ്ങളെ വിശദീകരിച്ചിട്ടുണ്ട്. AI ഗവേണൻസിനെക്കുറിച്ച് ലോകം എങ്ങനെ ചിന്തിക്കുന്നു എന്നതിന്റെ അടിസ്ഥാനമായി ഈ രേഖ വർത്തിക്കുന്നു. ഇത് അമൂർത്തമായ ഭയങ്ങളിൽ നിന്ന് മാറി, ബിസിനസ്സ് നിലനിർത്താൻ കമ്പനികൾ പാലിക്കേണ്ട വ്യക്തമായ പ്രവർത്തനപരമായ ആവശ്യകതകളിലേക്ക് സംഭാഷണത്തെ മാറ്റുന്നു.
ആഗോള സ്റ്റാൻഡേർഡൈസേഷൻ മത്സരം
ഈ നിയമങ്ങൾ യൂറോപ്പിൽ മാത്രം ഒതുങ്ങുന്നില്ല. ‘ബ്രസ്സൽസ് ഇഫക്റ്റ്’ (Brussels Effect) നാം തത്സമയം കാണുകയാണ്. ഒരു വലിയ വിപണി നിയമങ്ങൾ നിശ്ചയിക്കുമ്പോൾ, പ്രസക്തമായി തുടരാൻ മറ്റെല്ലാവരും അത് പിന്തുടരേണ്ടി വരുന്നു. ഒരു ആഗോള കമ്പനി പാരീസിനായി ഒരു മോഡലും ന്യൂയോർക്കിനായി മറ്റൊരു മോഡലും നിർമ്മിക്കില്ല, കാരണം അതിന്റെ ചെലവ് വളരെ കൂടുതലാണ്. അവർ ഏറ്റവും കർശനമായ നിലവാരത്തിൽ നിർമ്മിക്കും. അതുകൊണ്ടാണ് EU ചട്ടക്കൂട് ഒരു ആഗോള മാതൃകയായി മാറുന്നത്. മറ്റ് രാജ്യങ്ങൾ ഇത് ശ്രദ്ധാപൂർവ്വം നിരീക്ഷിക്കുകയും സ്വന്തം പതിപ്പുകൾ തയ്യാറാക്കുകയും ചെയ്യുന്നു. ബ്രസീലും കാനഡയും ഇതിനകം യൂറോപ്യൻ സമീപനത്തെ പ്രതിഫലിപ്പിക്കുന്ന സമാനമായ നിയമങ്ങളിൽ പ്രവർത്തിക്കുന്നുണ്ട്. സാധാരണയായി ഇന്നൊവേഷൻ പ്രോത്സാഹിപ്പിക്കാൻ കൂടുതൽ സ്വാതന്ത്ര്യം ആഗ്രഹിക്കുന്ന അമേരിക്ക പോലും കൂടുതൽ നിയന്ത്രണങ്ങളിലേക്ക് നീങ്ങുകയാണ്. ശക്തമായ മോഡലുകളുടെ ഡെവലപ്പർമാർ തങ്ങളുടെ സുരക്ഷാ പരിശോധനാ ഫലങ്ങൾ സർക്കാരുമായി പങ്കുവെക്കണമെന്ന് വൈറ്റ് ഹൗസ് ഒരു എക്സിക്യൂട്ടീവ് ഉത്തരവിലൂടെ ആവശ്യപ്പെട്ടു. ഇത് ചിതറിക്കിടക്കുന്നതും എന്നാൽ ഒത്തുചേരുന്നതുമായ ഒരു നിയന്ത്രണ ലോകം സൃഷ്ടിക്കുന്നു. പുതിയ ആവശ്യകതകൾ വായിക്കാൻ മാത്രം കമ്പനികൾ ഇപ്പോൾ അഭിഭാഷകരുടെ സംഘത്തെ നിയമിക്കേണ്ടതുണ്ട്. വളർന്നുവരുന്ന വിപണികളിലെ ചെറിയ സ്റ്റാർട്ടപ്പുകൾക്ക് ഈ നിയമങ്ങൾ പാലിക്കാൻ കഴിയാതെ വന്നേക്കാം. ഇത് ഏറ്റവും വലിയ ടെക് ഭീമന്മാർക്ക് മാത്രം നിയമങ്ങൾ പാലിക്കാനുള്ള വിഭവങ്ങളുള്ള ഒരു ലോകത്തിലേക്ക് നയിച്ചേക്കാം. കാറുകൾ അതിവേഗം ഓടിക്കൊണ്ടിരിക്കുമ്പോൾ തന്നെ നിയമങ്ങൾ എഴുതപ്പെടുന്ന ഒരു ഉയർന്ന മത്സരമാണിത്. AI സുരക്ഷയെക്കുറിച്ചുള്ള US Executive Order സ്വയം നിയന്ത്രണത്തിന്റെ കാലഘട്ടം അവസാനിച്ചുവെന്നതിന്റെ വ്യക്തമായ സൂചനയാണ്. വിഭജിക്കപ്പെട്ട രാഷ്ട്രീയ കാലാവസ്ഥയിൽ പോലും, ഒരു പരിധിവരെ മേൽനോട്ടം ആവശ്യമാണെന്ന കാര്യത്തിൽ ലോകനേതാക്കൾക്കിടയിൽ അപൂർവ്വമായ യോജിപ്പുണ്ട്.
ഞങ്ങൾ ഉൾപ്പെടുത്തണമെന്ന് നിങ്ങൾ കരുതുന്ന ഒരു AI സ്റ്റോറിയോ, ടൂളോ, ട്രെൻഡോ, ചോദ്യമോ നിങ്ങളുടെ പക്കലുണ്ടോ? നിങ്ങളുടെ ലേഖന ആശയം ഞങ്ങൾക്ക് അയയ്ക്കുക — അത് കേൾക്കാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു.
കംപ്ലയിന്റ് ഓഫീസിലെ ഒരു ദിവസം
അലക്സ് എന്നൊരു പ്രൊഡക്റ്റ് മാനേജരെ സങ്കൽപ്പിക്കുക. ഹ്യൂമൻ റിസോഴ്സസിനായി AI ടൂളുകൾ നിർമ്മിക്കുന്ന ഒരു സ്റ്റാർട്ടപ്പിലാണ് അലക്സ് ജോലി ചെയ്യുന്നത്. പുതിയ നിയമങ്ങൾക്ക് മുൻപ്, അലക്സ് എല്ലാ വെള്ളിയാഴ്ച ഉച്ചകഴിഞ്ഞ് ഒരു അപ്ഡേറ്റ് നൽകുമായിരുന്നു. ഇപ്പോൾ, ആ പ്രക്രിയ വളരെ മന്ദഗതിയിലുള്ളതും ആലോചിച്ചുള്ളതുമാണ്. ഓരോ പുതിയ ഫീച്ചറും കോഡിന്റെ ഒരു വരി പോലും വിന്യസിക്കുന്നതിന് മുൻപ് കർശനമായ റിസ്ക് അസസ്മെന്റിന് വിധേയമാകണം. പരിശീലന ഡാറ്റ ഡോക്യുമെന്റ് ചെയ്യാനും അത് സംരക്ഷിത ഗ്രൂപ്പുകളോട് വിവേചനം കാണിക്കുന്നില്ലെന്ന് തെളിയിക്കാനും അലക്സിന് ബാധ്യതയുണ്ട്. മോഡൽ എങ്ങനെ തീരുമാനങ്ങൾ എടുക്കുന്നു എന്നതിന്റെ വിശദമായ ലോഗുകൾ അവൻ സൂക്ഷിക്കണം. ഇത് ഡെവലപ്മെന്റ് സൈക്കിളിൽ ആഴ്ചകൾ അധികമായി ചേർക്കുന്നു. ഒരു സാധാരണ ചൊവ്വാഴ്ച, അലക്സ് കോഡിംഗ് ചെയ്യുകയോ പുതിയ ഫീച്ചറുകളെക്കുറിച്ച് ചിന്തിക്കുകയോ അല്ല ചെയ്യുന്നത്. മോഡൽ കാർഡുകൾ അവലോകനം ചെയ്യാൻ അവൻ ഒരു കംപ്ലയിൻസ് ഓഫീസറുമായി കൂടിക്കാഴ്ച നടത്തുകയാണ്. സുതാര്യതയ്ക്കും ഡാറ്റാ നിലനിർത്തലിനുമുള്ള പുതിയ മാനദണ്ഡങ്ങൾ API ലോഗുകൾ പാലിക്കുന്നുണ്ടോ എന്ന് അവർ പരിശോധിക്കുന്നു. സുരക്ഷ സൃഷ്ടിക്കുന്ന തടസ്സമാണിത്. ഉപയോക്താവിനെ സംബന്ധിച്ചിടത്തോളം, ഇതിനർത്ഥം പുതിയ ഫീച്ചറുകൾ വൈകി ലഭിക്കാം എന്നാണ്. എന്നാൽ ഒരു ബ്ലാക്ക് ബോക്സ് അൽഗോരിതം വഴി ജോലിയിൽ നിന്ന് അന്യായമായി പുറത്താക്കപ്പെടാനുള്ള സാധ്യത കുറയുന്നു എന്നാണ് ഇതിനർത്ഥം. ഈ നിയമങ്ങൾ ഇന്നൊവേഷനെ എത്രത്തോളം തടയുമെന്ന് ആളുകൾ പലപ്പോഴും പെരുപ്പിച്ചു കാണാറുണ്ട്. വ്യവസായം സ്തംഭിച്ചുപോകുമെന്ന് അവർ കരുതുന്നു. വാസ്തവത്തിൽ, അത് രൂപം മാറുക മാത്രമാണ് ചെയ്യുന്നത്. ഈ നിയമങ്ങളുടെ സങ്കീർണ്ണതയെ ആളുകൾ കുറച്ചുകാണുന്നുമുണ്ട്. ഇത് പക്ഷപാതം ഒഴിവാക്കുന്നതിനെക്കുറിച്ച് മാത്രമല്ല. ഇത് ഡാറ്റാ പരമാധികാരത്തെയും ഊർജ്ജ ഉപയോഗത്തെയും കുറിച്ചാണ്. വൈരുദ്ധ്യങ്ങൾ എല്ലായിടത്തുമുണ്ട്. AI വേഗമേറിയതും ശക്തവുമാകണമെന്ന് ഞങ്ങൾ ആഗ്രഹിക്കുന്നു, എന്നാൽ അത് സാവധാനവും ശ്രദ്ധയുള്ളതുമാകണമെന്നും ഞങ്ങൾ ആഗ്രഹിക്കുന്നു. അത് തുറന്നതും സുതാര്യവുമാകണമെന്ന് ഞങ്ങൾ ആഗ്രഹിക്കുന്നു, എന്നാൽ അത് നിർമ്മിക്കുന്ന കമ്പനികളുടെ വ്യാപാര രഹസ്യങ്ങൾ സംരക്ഷിക്കണമെന്നും ഞങ്ങൾ ആഗ്രഹിക്കുന്നു. ഈ പിരിമുറുക്കങ്ങൾ പരിഹരിക്കപ്പെടുന്നില്ല: അവ കൈകാര്യം ചെയ്യപ്പെടുകയാണ്. പുതിയ നിയമപുസ്തകം ഈ വൈരുദ്ധ്യങ്ങളുമായി ജീവിക്കാനുള്ള ഒരു ശ്രമമാണ്. അലക്സ് എല്ലാ ആഴ്ചയും നിരവധി പ്രത്യേക ജോലികൾ കൈകാര്യം ചെയ്യണം:
- എല്ലാ പരിശീലന സെറ്റുകളും നിയമപരമായി ലഭിച്ചതാണെന്ന് ഉറപ്പാക്കാൻ ഡാറ്റാ പ്രോവനൻസ് അവലോകനം ചെയ്യുക.
- ഓരോ പുതിയ മോഡൽ ഇറ്ററേഷനിലും ബയാസ് ഡിറ്റക്ഷൻ സ്ക്രിപ്റ്റുകൾ പ്രവർത്തിപ്പിക്കുക.
- വലിയ മോഡലുകളെ പരിശീലിപ്പിക്കാൻ ഉപയോഗിക്കുന്ന കമ്പ്യൂട്ട് വിഭവങ്ങൾ ഡോക്യുമെന്റ് ചെയ്യുക.
- നിർബന്ധിത AI വെളിപ്പെടുത്തലുകൾ ഉൾപ്പെടുത്താൻ യൂസർ ഇന്റർഫേസ് അപ്ഡേറ്റ് ചെയ്യുക.
- കമ്പനിയുടെ സുരക്ഷാ പ്രോട്ടോക്കോളുകളുടെ തേർഡ്-പാർട്ടി ഓഡിറ്റുകൾ മാനേജ് ചെയ്യുക.
ദിവസാവസാനം, ഈ പുതിയ നിയമങ്ങളുടെ ഭാരം അലക്സിന് അനുഭവപ്പെടുന്നു. നീതിക്ക് ഇവ പ്രധാനമാണെന്ന് അവനറിയാം. എന്നാൽ നിയമങ്ങൾ കുറവുള്ള രാജ്യങ്ങളിലെ തന്റെ എതിരാളികൾ വേഗത്തിൽ നീങ്ങുന്നുണ്ടെന്നും അവനറിയാം. ധാർമ്മികമായിരിക്കുന്നതിന്റെ ചെലവ് താങ്ങാൻ തന്റെ സ്റ്റാർട്ടപ്പിന് കഴിയുമോ എന്ന് അവൻ അത്ഭുതപ്പെടുന്നു. ആയിരക്കണക്കിന് ഡെവലപ്പർമാർക്ക് ഇതാണ് യാഥാർത്ഥ്യം. തടസ്സങ്ങൾ യഥാർത്ഥമാണ്, അവ ഇവിടെത്തന്നെ തുടരും. ഈ മാറ്റങ്ങൾ വ്യവസായത്തെ എങ്ങനെ ബാധിക്കുന്നു എന്നതിനെക്കുറിച്ച് കൂടുതൽ അറിയാൻ, ഞങ്ങളുടെ ഏറ്റവും പുതിയ AI പോളിസി അനാലിസിസ് കാണുക.
ഉള്ളടക്കം ഗവേഷണം ചെയ്യാനും എഴുതാനും എഡിറ്റ് ചെയ്യാനും വിവർത്തനം ചെയ്യാനും BotNews.today AI ടൂളുകൾ ഉപയോഗിക്കുന്നു. വിവരങ്ങൾ ഉപയോഗപ്രദവും വ്യക്തവും വിശ്വസനീയവുമാക്കാൻ ഞങ്ങളുടെ ടീം ഈ പ്രക്രിയ അവലോകനം ചെയ്യുകയും മേൽനോട്ടം വഹിക്കുകയും ചെയ്യുന്നു.
പുതിയ റെഗുലേറ്റർമാർക്കുള്ള കടുത്ത ചോദ്യങ്ങൾ
ഈ നിയമങ്ങളിൽ നിന്ന് യഥാർത്ഥത്തിൽ ആർക്കാണ് പ്രയോജനം ലഭിക്കുന്നത്? പൊതുജനങ്ങൾക്കോ, അതോ നിയമപരമായ ഫീസ് നൽകാൻ കഴിയുന്ന നിലവിലുള്ള ടെക് ഭീമന്മാർക്കോ? ഒരു സ്റ്റാർട്ടപ്പിന് അതിന്റെ സീഡ് റൗണ്ടിന്റെ പകുതിയും കംപ്ലയിൻസിനായി ചെലവഴിക്കേണ്ടി വന്നാൽ, അത് മത്സരത്തെ ഇല്ലാതാക്കുകയല്ലേ ചെയ്യുന്നത്? സ്വകാര്യതയുടെ മറഞ്ഞിരിക്കുന്ന ചെലവുകളെക്കുറിച്ചും നാം ചോദിക്കണം. ഓരോ മോഡലും ഓഡിറ്റ് ചെയ്യണമെങ്കിൽ, ആരാണ് ഓഡിറ്റ് ചെയ്യുന്നത്? ഓരോ പ്രധാന AI-യുടെയും പ്രവർത്തനരീതികളിലേക്ക് പ്രവേശനം ലഭിക്കാൻ ഒരു സർക്കാർ ഏജൻസിയെ നാം വിശ്വസിക്കുമോ? ആഗോള അസമത്വത്തെക്കുറിച്ചുള്ള ചോദ്യവുമുണ്ട്. പാശ്ചാത്യർ നിയമങ്ങൾ നിശ്ചയിച്ചാൽ, ഗ്ലോബൽ സൗത്തിന്റെ അവസ്ഥ എന്തായിരിക്കും? അവരുടെ പ്രാദേശിക ആവശ്യങ്ങൾക്ക് അനുയോജ്യമല്ലാത്ത മാനദണ്ഡങ്ങൾ സ്വീകരിക്കാൻ അവർ നിർബന്ധിതരാകുമോ? ഈ നിയമങ്ങൾ നമ്മെ സുരക്ഷിതരാക്കുന്നു എന്ന് പറയപ്പെടുന്നു, എന്നാൽ അത് സത്യമാണോ? അതോ യഥാർത്ഥ അപകടസാധ്യതകൾ ഡാർക്ക് വെബ്ബിലെ നിയന്ത്രണമില്ലാത്ത ഭാഗങ്ങളിലേക്ക് മാറുമ്പോൾ ഇതൊരു തെറ്റായ സുരക്ഷിതബോധം സൃഷ്ടിക്കുകയാണോ? ഓരോ മാസവും മാറുന്ന സാങ്കേതികവിദ്യയോടൊപ്പം ഒരു നിയമത്തിന് സഞ്ചരിക്കാൻ കഴിയുമോ എന്ന് നാം ചോദിക്കേണ്ടതുണ്ട്. കോഡും നിയമവും തമ്മിലുള്ള ഇടവേളയിൽ പലതും തെറ്റാൻ സാധ്യതയുണ്ട്. യുണൈറ്റഡ് നേഷൻസ് AI അഡ്വൈസറി ബോഡി ഈ ആഗോള വിടവുകൾ പരിഹരിക്കാൻ ശ്രമിക്കുന്നുണ്ടെങ്കിലും, സമവായത്തിൽ എത്തുക പ്രയാസമാണ്. വൈരുദ്ധ്യങ്ങൾ ഇപ്പോഴും ദൃശ്യമാണ്. ഞങ്ങൾക്ക് സംരക്ഷണം വേണം, എന്നാൽ അമിതമായ ഇടപെടലിനെ ഞങ്ങൾ ഭയപ്പെടുന്നു. ഞങ്ങൾക്ക് ഇന്നൊവേഷൻ വേണം, എന്നാൽ പൂർണ്ണമായി മനസ്സിലാകാത്ത ഒരു സിസ്റ്റത്തിന്റെ പ്രത്യാഘാതങ്ങളെ ഞങ്ങൾ ഭയപ്പെടുന്നു. ഈ ചോദ്യങ്ങൾക്ക് എളുപ്പമുള്ള ഉത്തരങ്ങളില്ല, നിലവിലെ നിയമങ്ങൾ അവ കണ്ടെത്തുന്നതിനുള്ള ആദ്യ ശ്രമം മാത്രമാണ്.
കംപ്ലയിൻസിന്റെ സാങ്കേതിക വാസ്തുവിദ്യ
പവർ യൂസർമാർക്കും ഡെവലപ്പർമാർക്കും വേണ്ടി, നിയമങ്ങൾ വളരെ വ്യക്തമാണ്. യുഎസ് എക്സിക്യൂട്ടീവ് ഓർഡർ റിസ്കിന്റെ സൂചകമായി കമ്പ്യൂട്ട് പവറിനെ കേന്ദ്രീകരിക്കുന്നു. ഒരു മോഡൽ 10^26 ഫ്ലോട്ടിംഗ് പോയിന്റ് ഓപ്പറേഷനുകളിൽ കൂടുതൽ ഉപയോഗിച്ച് പരിശീലിപ്പിക്കുകയാണെങ്കിൽ, അത് നിർബന്ധിത റിപ്പോർട്ടിംഗ് ആവശ്യകതയെ ട്രിഗർ ചെയ്യുന്നു. ഇതൊരു വലിയ കമ്പ്യൂട്ട് അളവാണ്, എന്നാൽ ഹാർഡ്വെയർ മെച്ചപ്പെടുമ്പോൾ, കൂടുതൽ മോഡലുകൾ ഈ പരിധിയിലെത്തും. ഡെവലപ്പർമാർ ഡാറ്റാ പ്രോവനൻസിനെക്കുറിച്ചും ആശങ്കപ്പെടണം. നിങ്ങൾക്ക് ഇനി ഇന്റർനെറ്റിൽ നിന്ന് ഡാറ്റ സ്ക്രാപ്പ് ചെയ്ത് മികച്ച ഫലം പ്രതീക്ഷിക്കാൻ കഴിയില്ല. ഡാറ്റ ഉപയോഗിക്കാൻ നിങ്ങൾക്ക് അവകാശമുണ്ടെന്ന് തെളിയിക്കണം. റെഡ്-ടീമിംഗിനായി പുതിയ മാനദണ്ഡങ്ങളുമുണ്ട്. ഇവിടെയാണ് നിങ്ങളുടെ AI-യെ തകർക്കാൻ ആളുകളെ നിങ്ങൾ നിയമിക്കുന്നത്. ഈ പരിശോധനകളുടെ ഫലങ്ങൾ ഇപ്പോൾ ഡോക്യുമെന്റ് ചെയ്യുകയും ചില അധികാരപരിധികളിൽ റെഗുലേറ്റർമാരുമായി പങ്കിടുകയും വേണം. API പ്രൊവൈഡർമാരും പുതിയ പരിധികൾ നേരിടുന്നു. ഡ്യുവൽ-യൂസ് AI തെറ്റായ കൈകളിൽ എത്താതിരിക്കാൻ അവരുടെ ഉപഭോക്താക്കളുടെ ഐഡന്റിറ്റി പരിശോധിക്കാൻ അവർ ആവശ്യപ്പെട്ടേക്കാം. മോഡലുകളുടെ ലോക്കൽ സ്റ്റോറേജാണ് മറ്റൊരു ആശങ്കാജനകമായ മേഖല. ഒരു മോഡൽ ലാപ്ടോപ്പിൽ പ്രവർത്തിക്കാൻ മാത്രം ചെറുതാണെങ്കിൽ, ഈ നിയമങ്ങൾ നിങ്ങൾ എങ്ങനെ നടപ്പിലാക്കും? ഹാർഡ്വെയർ തലത്തിലുള്ള നിയന്ത്രണങ്ങളിലൂടെയോ AI നിർമ്മിത ഉള്ളടക്കത്തിന്റെ നിർബന്ധിത വാട്ടർമാർക്കിംഗിലൂടെയോ ആണ് ഇതിനുള്ള ഉത്തരം പലപ്പോഴും ലഭിക്കുന്നത്. ഈ സാങ്കേതിക തടസ്സങ്ങൾ ഈ മേഖലയിൽ പ്രവർത്തിക്കുന്ന ആർക്കും പുതിയ അടിസ്ഥാനരേഖയാണ്. ഇനിപ്പറയുന്ന സാങ്കേതിക ആവശ്യകതകൾ നിങ്ങൾ ഇപ്പോൾ പരിഗണിക്കണം:
- എല്ലാ മോഡൽ പരിശീലന സെഷനുകൾക്കും ശക്തമായ ലോഗിംഗ് നടപ്പിലാക്കുക.
- ടെക്സ്റ്റ്, ഇമേജ് ഔട്ട്പുട്ടുകൾ വാട്ടർമാർക്ക് ചെയ്യുന്നതിനായി ഓട്ടോമേറ്റഡ് ടൂളുകൾ വികസിപ്പിക്കുക.
- തേർഡ്-പാർട്ടി മോഡൽ ഓഡിറ്റുകൾക്കായി സുരക്ഷിതമായ അന്തരീക്ഷം സജ്ജമാക്കുക.
- API റേറ്റ് ലിമിറ്റുകൾ സുരക്ഷാ ഫിൽട്ടറുകളെ മറികടക്കുന്നില്ലെന്ന് ഉറപ്പാക്കുക.
- ഹ്യൂമൻ-ഇൻ-ദി-ലൂപ്പ് ഇടപെടലുകളുടെ വിശദമായ രേഖകൾ സൂക്ഷിക്കുക.
ഈ ആവശ്യകതകൾ ഒരു ഡെവലപ്പറുടെ വർക്ക്ഫ്ലോ മാറ്റുന്നു. ഇത് കൃത്യതയ്ക്കോ വേഗതയ്ക്കോ വേണ്ടി ഒപ്റ്റിമൈസ് ചെയ്യുന്നതിനെക്കുറിച്ച് മാത്രമല്ല. അടിസ്ഥാനം മുതൽ ഓഡിറ്റ് ചെയ്യാവുന്ന ഒരു സിസ്റ്റം നിർമ്മിക്കുന്നതിനെക്കുറിച്ചാണ്. ഇതിനർത്ഥം ഇൻഫ്രാസ്ട്രക്ചറിനായി കൂടുതൽ സമയം ചെലവഴിക്കുകയും കോർ അൽഗോരിതത്തിനായി കുറഞ്ഞ സമയം ലഭിക്കുകയും ചെയ്യുന്നു എന്നാണ്. ലോക്കൽ സ്റ്റോറേജും ഓഫ്ലൈൻ മോഡലുകളും ഇതേ സുരക്ഷാ ഫീച്ചറുകൾ ഉൾപ്പെടുത്താൻ വർദ്ധിച്ചുവരുന്ന സമ്മർദ്ദം നേരിടുമെന്നും ഇതിനർത്ഥം, ഇത് എഡ്ജ് ഉപകരണങ്ങളിലെ പ്രകടനത്തെ ബാധിച്ചേക്കാം.
അപൂർണ്ണമായ ചട്ടക്കൂട്
ചുരുക്കത്തിൽ, ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ കാര്യത്തിൽ ‘വേഗത്തിൽ നീങ്ങുക, കാര്യങ്ങൾ തകർക്കുക’ എന്ന കാലഘട്ടം അവസാനിച്ചു. നാം ഇപ്പോൾ ‘ശ്രദ്ധാപൂർവ്വം നീങ്ങുക, എല്ലാം ഡോക്യുമെന്റ് ചെയ്യുക’ എന്ന കാലഘട്ടത്തിലേക്കാണ് കടക്കുന്നത്. നിയമങ്ങൾ ഇപ്പോഴും എഴുതപ്പെട്ടുകൊണ്ടിരിക്കുകയാണ്, അവ പൂർണ്ണതയിൽ നിന്ന് വളരെ അകലെയാണ്. സുരക്ഷ, ലാഭം, ദേശീയ സുരക്ഷ എന്നിവ തമ്മിലുള്ള കുഴപ്പമുള്ള ഒരു ഒത്തുതീർപ്പാണവ. ഒരു പ്രധാന ചോദ്യം ഇപ്പോഴും അവശേഷിക്കുന്നു: വികേന്ദ്രീകൃതമായ ഒരു സാങ്കേതികവിദ്യയെ കേന്ദ്രീകൃതമായ ഒരു നിയമത്തിന് ശരിക്കും നിയന്ത്രിക്കാൻ കഴിയുമോ? ഓപ്പൺ-സോഴ്സ് മോഡലുകൾ മെച്ചപ്പെടുന്നത് തുടരുമ്പോൾ, നിയന്ത്രിക്കപ്പെടുന്നതും സാധ്യമായതും തമ്മിലുള്ള വിടവ് വർദ്ധിക്കും. ഇതൊരു കഥയുടെ അവസാനമല്ല. ഇത് തുടക്കത്തിന്റെ അവസാനം മാത്രമാണ്. നിയമപുസ്തകം രൂപംകൊള്ളാൻ തുടങ്ങിയിട്ടുണ്ട്, പക്ഷേ മഷി ഇപ്പോഴും ഉണങ്ങിയിട്ടില്ല. ഈ നിയമങ്ങൾ എങ്ങനെ നടപ്പിലാക്കുമെന്നും വ്യവസായം എങ്ങനെ പൊരുത്തപ്പെടുമെന്നും വരും മാസങ്ങളിൽ നാം കാണും. നാം AI നിർമ്മിക്കുന്നതും ഉപയോഗിക്കുന്നതുമായ രീതി ഒരിക്കലും പഴയതുപോലെ ആകില്ല എന്നത് മാത്രമാണ് ഏക ഉറപ്പ്.
Editor’s note: We created this site as a multilingual AI news and guides hub for people who are not computer geeks, but still want to understand artificial intelligence, use it with more confidence, and follow the future that is already arriving.
ഒരു പിശകോ തിരുത്തേണ്ട എന്തെങ്കിലും കണ്ടെത്തിയോ? ഞങ്ങളെ അറിയിക്കുക.