AI साठी नवीन जागतिक नियमावली तयार होत आहे
परवानगीशिवाय नवनिर्माणाचा अंत
आर्टिफिशियल इंटेलिजन्स (AI) मधील ‘वाईल्ड वेस्ट’चा काळ आता संपत आला आहे. अनेक वर्षांपासून डेव्हलपर्सनी फारशी देखरेख किंवा जबाबदारी न घेता मॉडेल्स तयार केली. आता त्या स्वातंत्र्याची जागा अनुपालन आणि सुरक्षिततेच्या कठोर नियमांनी घेतली आहे. हे केवळ काही सल्ले किंवा ऐच्छिक मार्गदर्शक तत्त्वे नाहीत, तर हे कठोर कायदे आहेत, ज्यांचे उल्लंघन केल्यास मोठा दंड किंवा बाजारपेठेतून बाहेर काढले जाण्याची भीती आहे. युरोपियन युनियन त्यांच्या सर्वसमावेशक AI Act सह आघाडीवर आहे, तर युनायटेड स्टेट्स सर्वात शक्तिशाली मॉडेल्सवर लक्ष केंद्रित करणारे कार्यकारी आदेश आणत आहे. हे नियम कोड कसा लिहिला जातो आणि डेटा कसा गोळा केला जातो, हे बदलतील. यामुळे या स्पर्धेत कोण टिकू शकेल, हेही ठरेल. जर तुम्ही मानवी वर्तनाचा अंदाज लावणारे मॉडेल तयार करत असाल, तर आता तुम्ही सूक्ष्मदर्शकाखाली आहात. हा बदल उद्योगाला वेगाकडून सुरक्षिततेकडे घेऊन जात आहे. कंपन्यांना आता त्यांचे सिस्टम लाँच करण्यापूर्वी ते पक्षपाती नाहीत, हे सिद्ध करावे लागेल. जगातील प्रत्येक टेक फर्मसाठी हीच नवीन वास्तविकता आहे.
कोडमधील जोखमीचे वर्गीकरण
नवीन नियमांचा गाभा ‘जोखीम-आधारित’ (risk-based) दृष्टिकोन आहे. याचा अर्थ असा की, कायदा म्युझिक रिकमेंडेशन इंजिन आणि वैद्यकीय निदान साधन किंवा स्वयंचलित कार यांच्याकडे वेगळ्या दृष्टीने पाहतो. युरोपियन युनियनने या प्रकारच्या नियमनासाठी एक सुवर्ण मानक निश्चित केले आहे. त्यांनी AI ला समाजाला होणाऱ्या संभाव्य हानीनुसार चार श्रेणींमध्ये विभागले आहे. प्रतिबंधित सिस्टम्स अशा आहेत ज्या स्पष्ट हानी पोहोचवतात आणि त्यावर पूर्णपणे बंदी आहे. यामध्ये नागरिकांना ट्रॅक आणि रँक करण्यासाठी हुकूमशाही राज्यांद्वारे वापरल्या जाणाऱ्या सोशल स्कोअरिंग सिस्टम्सचा समावेश आहे. तसेच, राष्ट्रीय सुरक्षेच्या काही अपवादांशिवाय सार्वजनिक ठिकाणी कायद्याची अंमलबजावणी करणाऱ्या संस्थांद्वारे रिअल-टाइम बायोमेट्रिक ओळख पटवण्यावरही बंदी आहे. हाय-रिस्क सिस्टम्सवर नियामकांचे सर्वाधिक लक्ष असेल. या सिस्टम्सचा वापर गंभीर पायाभूत सुविधा, शिक्षण आणि रोजगारात केला जातो. जर एखादे AI कोणाला नोकरी द्यायची किंवा कोणाला कर्ज द्यायचे हे ठरवत असेल, तर ते पारदर्शक असले पाहिजे. त्यात मानवी देखरेख आणि उच्च दर्जाची अचूकता असणे आवश्यक आहे. मर्यादित जोखीम असलेल्या सिस्टम्स, जसे की चॅटबॉट्स, साठी कमी नियम आहेत पण तरीही पारदर्शकता आवश्यक आहे. त्यांना वापरकर्त्याला हे सांगावे लागेल की ते मशीनशी बोलत आहेत. किमान जोखीम असलेल्या सिस्टम्स, जसे की AI शत्रू असलेले व्हिडिओ गेम्स, कडे सहसा दुर्लक्ष केले जाते. हे फ्रेमवर्क सर्व प्रगती न थांबवता हक्कांचे रक्षण करण्यासाठी डिझाइन केलेले आहे. मात्र, या श्रेणींच्या व्याख्यांवर अजूनही न्यायालयात आणि बोर्डरूममध्ये चर्चा सुरू आहे. ज्याला एक व्यक्ती साधी शिफारस म्हणते, त्याला दुसरी व्यक्ती मानसिक फेरफार म्हणू शकते. हे नियम वाळूवर रेषा काढण्याचा प्रयत्न करतात, पण तंत्रज्ञान विकसित होत असताना ती वाळू सतत सरकत असते.
युरोपियन संसदेने EU AI Act वरील त्यांच्या ताज्या ब्रीफिंगमध्ये या श्रेणींचे तपशील दिले आहेत. हा दस्तऐवज जगातील इतर देश AI गव्हर्नन्सचा विचार कसा करत आहेत, याचा पाया ठरतो. हे चर्चेला अमूर्त भीतीपासून दूर नेऊन कंपन्यांना व्यवसायात टिकून राहण्यासाठी पूर्ण कराव्या लागणाऱ्या ठोस ऑपरेशनल आवश्यकतांकडे वळवते.
जागतिक मानकीकरणाची शर्यत
हे नियम फक्त युरोपपुरते मर्यादित राहणार नाहीत. आपण रिअल टाइममध्ये ‘ब्रसेल्स इफेक्ट’चा उदय पाहत आहोत. जेव्हा एखादी मोठी बाजारपेठ असे नियम ठरवते जे सर्वांना पाळावे लागतात, तेव्हा हे घडते. एखादी जागतिक कंपनी पॅरिससाठी एक आणि न्यूयॉर्कसाठी वेगळे मॉडेल बनवणार नाही, जर त्याचा खर्च खूप जास्त असेल. ते फक्त सर्वात कडक मानकांनुसारच बिल्ड करतील. म्हणूनच EU फ्रेमवर्क हे जागतिक टेम्पलेट बनत आहे. इतर देशही याकडे बारकाईने पाहत आहेत आणि स्वतःचे नियम मसुदा तयार करत आहेत. ब्राझील आणि कॅनडा आधीच युरोपियन दृष्टिकोनाचे प्रतिबिंब असणारे कायदे तयार करत आहेत. अगदी युनायटेड स्टेट्स, जे सहसा नवनिर्माणाला प्रोत्साहन देण्यासाठी हलक्या हाताने नियमन करणे पसंत करते, ते देखील अधिक नियंत्रणाकडे वळत आहे. व्हाईट हाऊसने एक कार्यकारी आदेश जारी केला आहे, ज्यामध्ये शक्तिशाली मॉडेल्सच्या डेव्हलपर्सना त्यांचे सुरक्षितता चाचणी निकाल सरकारसोबत शेअर करणे बंधनकारक आहे. हे नियमनाचे एक विखुरलेले पण एकत्रित होणारे जग निर्माण करत आहे. कंपन्यांना आता नवीन आवश्यकता वाचण्यासाठी वकिलांच्या टीम्स नियुक्त कराव्या लागत आहेत. उदयोन्मुख बाजारपेठेतील लहान स्टार्टअप्सना या नियमांचे पालन करणे अशक्य वाटू शकते. यामुळे असे जग निर्माण होऊ शकते जिथे केवळ सर्वात मोठ्या टेक कंपन्यांकडेच अनुपालनासाठी संसाधने असतील. हा एक उच्च-जोखीमीचा खेळ आहे जिथे गाड्या आधीच पूर्ण वेगाने धावत असताना नियम लिहिले जात आहेत. AI सुरक्षिततेवरील US Executive Order हा एक स्पष्ट संकेत आहे की स्व-नियमनाचा काळ संपला आहे. विभाजित राजकीय वातावरणातही, काही स्तरावरील देखरेखीची गरज ही जागतिक नेत्यांमधील सहमतीचा एक दुर्मिळ मुद्दा बनली आहे.
तुम्ही आम्हाला कव्हर करावे असे तुम्हाला वाटणारी AI कथा, साधन, ट्रेंड किंवा प्रश्न आहे का? तुमची लेखाची कल्पना आम्हाला पाठवा — आम्हाला ती ऐकायला आवडेल.
अनुपालन कार्यालयातील एक दिवस
ॲलेक्स नावाच्या प्रॉडक्ट मॅनेजरची कल्पना करा. ॲलेक्स एका स्टार्टअपमध्ये काम करतो जो मानवी संसाधनांसाठी (HR) AI टूल्स बनवतो. नवीन नियमांच्या आधी, ॲलेक्स दर शुक्रवारी दुपारी एक अपडेट लाँच करायचा. आता, ही प्रक्रिया खूप संथ आणि विचारपूर्वक आहे. प्रत्येक नवीन फीचर कोडच्या एका ओळीच्या अंमलबजावणीपूर्वी कठोर जोखीम मूल्यांकनातून जाणे आवश्यक आहे. ॲलेक्सला ट्रेनिंग डेटाचे डॉक्युमेंटेशन करावे लागते आणि हे सिद्ध करावे लागते की ते संरक्षित गटांविरुद्ध भेदभाव करत नाही. त्याला मॉडेल निर्णय कसे घेते, याचे तपशीलवार लॉग्स ठेवावे लागतात. यामुळे डेव्हलपमेंट सायकलमध्ये अनेक आठवड्यांची भर पडते. एका सामान्य मंगळवारी, ॲलेक्स कोडिंग किंवा नवीन फीचर्सवर विचार करत नाही. तो मॉडेल कार्ड्सचे पुनरावलोकन करण्यासाठी कंप्लायन्स ऑफिसरसोबत मीटिंग करत आहे. ते API लॉग्स पारदर्शकता आणि डेटा रिटेंशनच्या नवीन मानकांची पूर्तता करतात का, हे तपासत आहेत. सुरक्षिततेमुळे निर्माण होणारा हाच तो घर्षण (friction) आहे. वापरकर्त्यासाठी, याचा अर्थ नवीन फीचर्स मिळण्यास उशीर होऊ शकतो. पण याचा अर्थ असाही आहे की ब्लॅक बॉक्स अल्गोरिदममुळे नोकरी नाकारली जाण्याची शक्यता कमी होते. लोक अनेकदा हे नियम नवनिर्माणाला किती थांबवतील, याचा अतिअंदाज लावतात. त्यांना वाटते की उद्योग पूर्णपणे थांबेल. प्रत्यक्षात, तो फक्त त्याचे स्वरूप बदलेल. लोक या कायद्यांच्या जटिलतेचाही कमी अंदाज लावतात. हे फक्त पक्षपातीपणा टाळण्याबद्दल नाही. हे डेटा सार्वभौमत्व आणि ऊर्जा वापराबाबत आहे. विरोधाभास सर्वत्र आहेत. आम्हाला AI वेगवान आणि शक्तिशाली हवे आहे, पण ते संथ आणि सावध असावे असेही वाटते. आम्हाला ते खुले आणि पारदर्शक हवे आहे, पण ते बनवणाऱ्या कंपन्यांचे व्यापार रहस्यही सुरक्षित ठेवायचे आहे. या तणावांचे निराकरण होत नाही: त्यांचे व्यवस्थापन केले जात आहे. नवीन नियमावली या विरोधाभासांसह जगण्याचा एक प्रयत्न आहे. ॲलेक्सला दर आठवड्याला अनेक विशिष्ट कामे हाताळावी लागतात:
- सर्व ट्रेनिंग सेट्स कायदेशीररित्या मिळवल्याची खात्री करण्यासाठी डेटा प्रोव्हेनन्सचे पुनरावलोकन करणे.
- प्रत्येक नवीन मॉडेल इटरेशनवर बायस डिटेक्शन स्क्रिप्ट्स चालवणे.
- मोठी मॉडेल्स ट्रेन करण्यासाठी वापरलेल्या कॉम्प्युट संसाधनांचे डॉक्युमेंटेशन करणे.
- अनिवार्य AI डिस्क्लोजर समाविष्ट करण्यासाठी युजर इंटरफेस अपडेट करणे.
- कंपनीच्या सुरक्षा प्रोटोकॉलचे थर्ड-पार्टी ऑडिट्स व्यवस्थापित करणे.
दिवसाच्या शेवटी, ॲलेक्सला या नवीन नियमांचे ओझे जाणवते. त्याला माहित आहे की ते न्यायासाठी महत्त्वाचे आहेत. पण त्याला हेही माहित आहे की कमी नियम असलेल्या देशांतील त्याचे स्पर्धक वेगाने पुढे जात आहेत. त्याला वाटते की त्याचे स्टार्टअप नैतिक असण्याच्या खर्चात टिकू शकेल का. हजारो डेव्हलपर्ससाठी हीच वास्तविकता आहे. घर्षण वास्तविक आहे आणि ते कायम राहणार आहे. हे बदल उद्योगावर कसा परिणाम करतात, याबद्दल अधिक माहितीसाठी आमचे नवीनतम AI धोरण विश्लेषण पहा.
BotNews.today सामग्री संशोधन, लेखन, संपादन आणि भाषांतरित करण्यासाठी AI साधनांचा वापर करते. माहिती उपयुक्त, स्पष्ट आणि विश्वसनीय ठेवण्यासाठी आमची टीम प्रक्रियेचे पुनरावलोकन आणि पर्यवेक्षण करते.
नवीन नियामकांसाठी कठीण प्रश्न
या नियमांचा खरोखर फायदा कोणाला होतो? जनतेला, की त्या बड्या टेक कंपन्यांना ज्या कायदेशीर फी भरू शकतात? जर एखाद्या स्टार्टअपला त्याचा अर्धा सीड राऊंड अनुपालनावर खर्च करावा लागला, तर ते स्पर्धेला संपवते का? आपल्याला गोपनीयतेच्या लपलेल्या खर्चाबद्दलही विचारले पाहिजे. जर प्रत्येक मॉडेलचे ऑडिट करणे आवश्यक असेल, तर ऑडिट कोण करणार? प्रत्येक मोठ्या AI च्या अंतर्गत कामकाजात प्रवेश मिळवण्यासाठी आपण सरकारी एजन्सीवर विश्वास ठेवतो का? जागतिक असमानतेचाही प्रश्न आहे. जर पश्चिमेने नियम ठरवले, तर ग्लोबल साऊथचे काय? त्यांना त्यांच्या स्थानिक गरजांशी जुळत नसलेली मानके स्वीकारण्यास भाग पाडले जाईल का? आपल्याला सांगितले जाते की हे नियम आपल्याला अधिक सुरक्षित बनवतात, पण ते खरोखर तसे करतात का? की ते केवळ सुरक्षिततेचा खोटा आभास निर्माण करतात, तर खरी जोखीम डार्क वेबच्या अनियंत्रित भागांकडे सरकते? दर महिन्याला बदलणाऱ्या तंत्रज्ञानाशी दर महिन्याला लिहिलेला कायदा जुळवून घेऊ शकतो का, हे आपण विचारले पाहिजे. कोड आणि कायदा यांच्यातील अंतर ही अशी जागा आहे जिथे अनेक गोष्टी चुकीच्या होऊ शकतात. युनायटेड नेशन्स AI ॲडव्हायझरी बॉडी या जागतिक अंतरांना संबोधित करण्याचा प्रयत्न करत आहे, परंतु सहमती मिळणे कठीण आहे. विरोधाभास अजूनही दिसून येतात. आम्हाला संरक्षण हवे आहे, पण आम्हाला ओव्हररीचची भीती वाटते. आम्हाला नवनिर्मिती हवी आहे, पण आम्हाला पूर्णपणे न समजणाऱ्या सिस्टमच्या परिणामांची भीती वाटते. या प्रश्नांची सोपी उत्तरे नाहीत आणि सध्याचे कायदे ते शोधण्याचा पहिला प्रयत्न आहेत.
अनुपालनाचे तांत्रिक आर्किटेक्चर
पॉवर युजर्स आणि डेव्हलपर्ससाठी, नियम खूप विशिष्ट आहेत. अमेरिकेचा कार्यकारी आदेश जोखमीसाठी ‘कॉम्प्युट पॉवर’ला एक प्रॉक्सी मानतो. जर एखादे मॉडेल 10^26 फ्लोटिंग पॉइंट ऑपरेशन्सपेक्षा जास्त वापरून ट्रेन केले असेल, तर ते अनिवार्य रिपोर्टिंगची अट ट्रिगर करते. हे कॉम्प्युटचे प्रचंड प्रमाण आहे, परंतु हार्डवेअर सुधारत असल्याने, अधिक मॉडेल्स या मर्यादेपर्यंत पोहोचतील. डेव्हलपर्सना डेटा प्रोव्हेनन्सबद्दलही काळजी करावी लागेल. तुम्ही आता फक्त इंटरनेटवरून डेटा स्क्रॅप करून चांगल्याची आशा करू शकत नाही. तुम्हाला डेटा वापरण्याचा अधिकार असल्याचे सिद्ध करावे लागेल. रेड-टीमिंगसाठीही नवीन मानके आहेत. येथे तुम्ही तुमचे AI तोडण्यासाठी लोकांना कामावर ठेवता. या चाचण्यांचे निकाल आता डॉक्युमेंट करणे आणि काही अधिकारक्षेत्रातील नियामकांशी शेअर करणे आवश्यक आहे. API प्रोव्हायडर्सनाही नवीन मर्यादांचा सामना करावा लागत आहे. ड्युअल-युज AI चुकीच्या हातात पडू नये म्हणून त्यांना त्यांच्या ग्राहकांची ओळख पडताळणे आवश्यक असू शकते. मॉडेल्सचे स्थानिक स्टोरेज हा चिंतेचा आणखी एक विषय आहे. जर एखादे मॉडेल लॅपटॉपवर चालण्याइतके लहान असेल, तर तुम्ही हे नियम कसे लागू कराल? याचे उत्तर अनेकदा हार्डवेअर-स्तरीय निर्बंध किंवा AI-जनरेट केलेल्या आशयाचे अनिवार्य वॉटरमार्किंग याद्वारे दिले जाते. हे तांत्रिक अडथळे या क्षेत्रात काम करणाऱ्या प्रत्येकासाठी नवीन बेसलाइन आहेत. तुम्हाला आता खालील तांत्रिक आवश्यकतांचा विचार करावा लागेल:
- सर्व मॉडेल ट्रेनिंग सत्रांसाठी मजबूत लॉगिंग लागू करणे.
- टेक्स्ट आणि इमेज आउटपुट वॉटरमार्क करण्यासाठी स्वयंचलित टूल्स विकसित करणे.
- थर्ड-पार्टी मॉडेल ऑडिटसाठी सुरक्षित वातावरण तयार करणे.
- API रेट लिमिट्स सुरक्षा फिल्टरला बायपास करत नाहीत, याची खात्री करणे.
- सर्व मानवी हस्तक्षेपांची तपशीलवार नोंद ठेवणे.
या आवश्यकता डेव्हलपरची कार्यपद्धती बदलतात. आता हे फक्त अचूकता किंवा वेगासाठी ऑप्टिमाइझ करण्याबद्दल नाही. हे सुरुवातीपासून ऑडिट करण्यायोग्य सिस्टम तयार करण्याबद्दल आहे. याचा अर्थ पायाभूत सुविधांवर जास्त वेळ आणि कोअर अल्गोरिदमवर कमी वेळ खर्च करणे. याचा अर्थ असाही आहे की स्थानिक स्टोरेज आणि ऑफलाइन मॉडेल्सवर हेच सुरक्षा फीचर्स समाविष्ट करण्यासाठी दबाव वाढेल, ज्याचा परिणाम एज डिव्हाइसेसच्या कामगिरीवर होऊ शकतो.
अपूर्ण फ्रेमवर्क
थोडक्यात सांगायचे तर, आर्टिफिशियल इंटेलिजन्ससाठी ‘वेगाने हलवा आणि गोष्टी तोडा’ (move fast and break things) हा काळ संपला आहे. आपण आता ‘सावधगिरीने हलवा आणि सर्व काही डॉक्युमेंट करा’ अशा युगात प्रवेश करत आहोत. नियम अजूनही लिहिले जात आहेत आणि ते परिपूर्ण होण्यापासून दूर आहेत. ते सुरक्षितता, नफा आणि राष्ट्रीय सुरक्षा यांच्यातील एक गोंधळलेला तडजोड आहेत. एक मोठा प्रश्न अजूनही खुला आहे: एखादा केंद्रीकृत कायदा खरोखरच विकेंद्रित तंत्रज्ञानावर नियंत्रण ठेवू शकतो का? ओपन-सोर्स मॉडेल्समध्ये सुधारणा होत असताना, काय नियंत्रित आहे आणि काय शक्य आहे, यातील अंतर वाढत जाईल. ही कथेचा शेवट नाही. ही फक्त सुरुवातीची समाप्ती आहे. नियमावली तयार होऊ लागली आहे, पण शाई अजूनही ओली आहे. येत्या काही महिन्यांत हे कायदे कसे लागू केले जातात आणि उद्योग कसा जुळवून घेतो, हे आपण पाहू. एकमेव निश्चित गोष्ट ही आहे की आपण AI ज्या प्रकारे तयार करतो आणि वापरतो, ते पुन्हा कधीही पूर्वीसारखे राहणार नाही.
संपादकाची नोंद: आम्ही ही साइट बहुभाषिक AI बातम्या आणि मार्गदर्शिका केंद्र म्हणून अशा लोकांसाठी तयार केली आहे जे संगणक तज्ञ नाहीत, परंतु तरीही कृत्रिम बुद्धिमत्ता समजून घेऊ इच्छितात, अधिक आत्मविश्वासाने तिचा वापर करू इच्छितात आणि आधीच येत असलेल्या भविष्याचा मागोवा घेऊ इच्छितात.
काही चूक आढळली किंवा काही दुरुस्त करायचे आहे का? आम्हाला कळवा.