AI चे सर्वात मोठे कायदे आणि नियम जे तुम्हाला माहित असायला हवेत
आर्टिफिशियल इंटेलिजन्सच्या (AI) बेकायदेशीर युगाचा आता अंत झाला आहे. जगभरातील सरकारे आता अस्पष्ट सूचनांकडून कडक कायद्यांकडे वळत आहेत, ज्यामध्ये मोठ्या दंडाची तरतूद आहे. जर तुम्ही सॉफ्टवेअर बनवत असाल किंवा वापरत असाल, तर तुमच्या पायाखालची जमीन बदलत आहे. हे आता केवळ नैतिकतेपुरते मर्यादित राहिलेले नाही. हा आता कायदेशीर पालनाचा आणि अब्जावधींच्या दंडाचा प्रश्न आहे. युरोपियन युनियनने पहिल्या मोठ्या सर्वसमावेशक कायद्याद्वारे एक दिशा निश्चित केली आहे, तर अमेरिका आणि चीनही मागे नाहीत. हे नियम ठरवतील की तुम्ही कोणती फीचर्स वापरू शकता आणि कंपन्या तुमचा डेटा कसा हाताळतील. बहुतेक लोकांना वाटते की ही वकिलांची समस्या आहे, पण ते चुकीचे आहेत. याचा परिणाम तुम्ही नोकरीसाठी कसा अर्ज करता इथपासून ते तुमच्या सोशल मीडिया फीडच्या रँकिंगपर्यंत सर्व गोष्टींवर होतो. आपण एका अशा नियंत्रित उद्योगाचा जन्म पाहतोय जो जुन्या काळातील मुक्त वेबपेक्षा बँकिंग किंवा वैद्यकीय क्षेत्रासारखा वाटतो. हा बदल पुढील दशकातील तांत्रिक विकास आणि कॉर्पोरेट धोरण ठरवेल. आता सरकारी दालनांतून तुमच्या ॲप्सच्या कोडमध्ये येणाऱ्या विशिष्ट नियमांकडे पाहण्याची वेळ आली आहे.
आर्टिफिशियल इंटेलिजन्स देखरेखीकडे जागतिक कल
सध्याच्या नियमांचा गाभा म्हणजे ‘युरोपियन युनियन AI ॲक्ट’. हा कायदा सर्व सॉफ्टवेअरना एकाच तराजूत मोजत नाही. तो काय परवानगीयोग्य आहे आणि काय नाही हे ठरवण्यासाठी जोखीम-आधारित आराखडा वापरतो. या पिरॅमिडच्या शिखरावर प्रतिबंधित प्रणाली आहेत. यामध्ये सार्वजनिक ठिकाणी रिअल-टाइम बायोमेट्रिक ओळख किंवा सरकारद्वारे सोशल स्कोअरिंगचा समावेश होतो. या गोष्टींवर बंदी घालण्यात आली आहे कारण त्या नागरी स्वातंत्र्यासाठी धोकादायक आहेत. त्याखाली उच्च-जोखीम प्रणाली आहेत. या श्रेणीमध्ये शिक्षण, नोकरभरती किंवा महत्त्वाच्या पायाभूत सुविधांमध्ये वापरल्या जाणाऱ्या AI चा समावेश होतो. जर एखादी कंपनी रेझ्युमे तपासण्यासाठी टूल बनवत असेल, तर त्यांना ते पक्षपाती नसल्याचे सिद्ध करावे लागेल. त्यांना सविस्तर लॉग्स ठेवावे लागतील आणि मानवी देखरेख ठेवावी लागेल. हा कायदा ‘जनरल पर्पज मॉडेल्स’नाही लक्ष्य करतो. या मॉडेल्सना ते कसे प्रशिक्षित केले गेले याबद्दल पारदर्शक असावे लागेल. त्यांना कॉपीराइट कायद्यांचा आदर करावा लागेल आणि प्रशिक्षणासाठी वापरलेल्या डेटाचा सारांश द्यावा लागेल. दोन वर्षांपूर्वी ज्या गुप्त पद्धतीने मॉडेल्स बनवले जात होते, त्या तुलनेत हा एक मोठा बदल आहे.
अमेरिकेत दृष्टिकोन वेगळा पण तितकाच महत्त्वाचा आहे. व्हाईट हाऊसने एक कार्यकारी आदेश जारी केला आहे, ज्यानुसार शक्तिशाली प्रणालींच्या डेव्हलपर्सना त्यांचे सुरक्षा चाचणी निकाल सरकारसोबत शेअर करावे लागतील. हे ‘डिफेन्स प्रोडक्शन ॲक्ट’चा वापर करते जेणेकरून AI राष्ट्रीय सुरक्षेसाठी धोका ठरणार नाही. हा काँग्रेसने मंजूर केलेला कायदा नसला तरी, त्याला फेडरल प्रोक्योरमेंट आणि देखरेखीचे वजन आहे. हे ‘रेड-टीमिंग’वर लक्ष केंद्रित करते, जी प्रणालीमधील कमकुवतपणा किंवा हानिकारक आउटपुट तपासण्याची पद्धत आहे. चीनचे स्वतःचे नियम आहेत जे आशयाची सत्यता आणि सामाजिक सुव्यवस्थेच्या संरक्षणावर लक्ष केंद्रित करतात. पद्धती वेगळ्या असल्या तरी ध्येय एकच आहे. सरकारांना अशा तंत्रज्ञानावर पुन्हा नियंत्रण मिळवायचे आहे जे त्यांच्या अपेक्षेपेक्षा वेगाने पुढे गेले आहे. तुम्ही अधिकृत युरोपियन कमिशन AI ॲक्ट डॉक्युमेंटेशन मध्ये विशिष्ट आवश्यकतांबद्दल अधिक तपशील शोधू शकता. हे नियम जागतिक स्तरावर काम करू इच्छिणाऱ्या कोणत्याही कंपनीसाठी नवीन आधारभूत मानके आहेत.
या कायद्यांचा प्रभाव त्या देशांच्या सीमांच्या पलीकडे जातो ज्यांनी ते लिहिले आहेत. याला अनेकदा *ब्रसेल्स इफेक्ट* म्हटले जाते. जर एखाद्या मोठ्या टेक कंपनीला त्यांचे सॉफ्टवेअर युरोपमध्ये विकायचे असेल, तर त्यांना EU नियमांचे पालन करावे लागेल. प्रत्येक देशासाठी वेगवेगळ्या आवृत्त्या बनवण्याऐवजी, बहुतेक कंपन्या त्यांच्या संपूर्ण जागतिक उत्पादनासाठी सर्वात कडक नियम लागू करतील. याचा अर्थ असा की ब्रसेल्समध्ये मंजूर झालेला कायदा कॅलिफोर्नियातील डेव्हलपर किंवा टोकियोमधील वापरकर्त्यासाठी प्रभावीपणे कायदा बनतो. हे सुरक्षा आणि पारदर्शकतेसाठी एक जागतिक पाया तयार करते. तथापि, हे एक खंडित जग देखील निर्माण करते जिथे काही फीचर्स काही प्रदेशांमध्ये बंद केली जातात. आपण हे आधीच घडताना पाहत आहोत. काही कंपन्यांनी युरोपमध्ये प्रगत फीचर्स लाँच करण्यास उशीर केला आहे कारण कायदेशीर जोखीम खूप जास्त आहे. यामुळे एक डिजिटल दरी निर्माण होते जिथे अमेरिकेतील वापरकर्त्यांकडे अशी साधने असू शकतात जी फ्रान्समधील वापरकर्त्यांकडे नाहीत. क्रिएटर्ससाठी, याचा अर्थ असा की त्यांचे काम परवानगीशिवाय ट्रेनिंग डेटा म्हणून वापरण्यापासून अधिक सुरक्षित आहे. सरकारांसाठी, कोण विश्वासार्ह तंत्रज्ञानाचे जागतिक केंद्र बनू शकते ही एक शर्यत आहे. जर एखाद्या देशाने अति-नियमन केले, तर तो आपली सर्वोत्तम प्रतिभा गमावू शकतो. जर त्याने कमी नियमन केले, तर तो आपल्या नागरिकांच्या सुरक्षेला धोका निर्माण करतो. हा तणाव जागतिक टेक अर्थव्यवस्थेसाठी नवीन सामान्य आहे. तुम्ही व्हाईट हाऊस एक्झिक्युटिव्ह ऑर्डर ऑन AI द्वारे या बदलांचा मागोवा घेऊ शकता, जे नाविन्य आणि सुरक्षा यांचा समतोल राखण्यासाठी अमेरिकन धोरण स्पष्ट करते.
मार्क्स नावाच्या सॉफ्टवेअर इंजिनिअरच्या आयुष्यातील एक दिवस विचारात घ्या. दोन वर्षांपूर्वी, मार्क्स वेबवरून डेटासेट घेऊ शकत होता आणि एका वीकेंडमध्ये मॉडेल ट्रेन करू शकत होता. त्याला कोणाचीही परवानगी घेण्याची गरज नव्हती. आज, त्याची सकाळ कंप्लायन्स मीटिंगने सुरू होते. त्याला त्याच्या ट्रेनिंग सेटमधील प्रत्येक इमेजचा उगम दस्तऐवजीकरण करावा लागतो. मॉडेल विशिष्ट पिन कोडच्या विरोधात भेदभाव करत नाही याची खात्री करण्यासाठी त्याला चाचण्या कराव्या लागतात. त्याच्या कंपनीने एक नवीन ‘चीफ AI कंप्लायन्स ऑफिसर’ नेमला आहे ज्याला कोणताही लाँच थांबवण्याचा अधिकार आहे. ही ऑपरेशनल वास्तविकता आहे. हे आता फक्त कोडबद्दल नाही. हे ऑडिट ट्रेलबद्दल आहे. मार्क्स त्याचा तीस टक्के वेळ वापरकर्त्यांसाठी फीचर्स लिहिण्याऐवजी नियामकांसाठी अहवाल लिहिण्यात घालवतो. हा नवीन नियामक युगाचा छुपा कर आहे. सरासरी वापरकर्त्यासाठी, परिणाम अधिक सूक्ष्म पण तितकाच खोल आहे. जेव्हा तुम्ही कर्जासाठी अर्ज करता, तेव्हा बँकेला हे स्पष्ट करता आले पाहिजे की AI ने तुम्हाला नाकारले का. तुम्हाला स्पष्टीकरण मिळण्याचा अधिकार आहे. हे स्वयंचलित निर्णय घेण्याच्या ‘ब्लॅक बॉक्स’ युगाचा अंत करते. लोक हे नियम किती लवकर त्रुटी थांबवतील याचा अतिरेकी अंदाज लावतात. ते हे कमी लेखतात की हे नियम नवीन फीचर्सच्या रिलीझला किती धीमे करतील. आपण बीटा सॉफ्टवेअरच्या जगातून प्रमाणित सॉफ्टवेअरच्या जगाकडे जात आहोत. यामुळे अधिक स्थिर उत्पादने मिळतील पण कमी क्रांतिकारी झेप घेता येतील.
BotNews.today सामग्री संशोधन, लेखन, संपादन आणि भाषांतरित करण्यासाठी AI साधनांचा वापर करते. माहिती उपयुक्त, स्पष्ट आणि विश्वसनीय ठेवण्यासाठी आमची टीम प्रक्रियेचे पुनरावलोकन आणि पर्यवेक्षण करते.
उद्योगासाठी व्यावहारिक बदल
- विशिष्ट कॉम्प्युटिंग पॉवर थ्रेशोल्ड ओलांडणाऱ्या कोणत्याही मॉडेलसाठी अनिवार्य सुरक्षा चाचणी.
- वापरकर्त्यांना त्यांच्या कायदेशीर स्थितीवर परिणाम करणाऱ्या कोणत्याही स्वयंचलित निर्णयासाठी स्पष्टीकरण मिळवण्याचा अधिकार.
- ट्रेनिंग सेटमध्ये डेटा लेबलिंग आणि कॉपीराइट डिस्क्लोजरसाठी कडक आवश्यकता.
- कंपनीच्या एकूण जागतिक महसुलाच्या सात टक्क्यांपर्यंत पोहोचू शकणारा मोठा दंड.
- पालनावर लक्ष ठेवण्यासाठी आणि तक्रारींची चौकशी करण्यासाठी राष्ट्रीय AI कार्यालयांची स्थापना.
आपल्याला हे विचारणे आवश्यक आहे की हे नियम खरोखर जनतेचे रक्षण करतात की ते फक्त शक्तिशाली लोकांचे रक्षण करतात. चारशे पानांचे नियमन छोट्या स्टार्टअपला मदत करते का, की ते फक्त अब्जावधी डॉलर्सची कायदेशीर टीम असलेल्या कंपन्याच टिकू शकतील याची खात्री करते? जर पालनाचा खर्च खूप जास्त असेल, तर आपण सध्याच्या टेक दिग्गजांना कायमस्वरूपी मक्तेदारी देत असू शकतो. आपल्याला सुरक्षेच्या व्याख्येवरही प्रश्नचिन्ह उपस्थित करण्याची गरज आहे. अस्वीकार्य जोखीम काय आहे हे ठरवण्याचा अधिकार कोणाला आहे? जर सरकार AI च्या काही प्रकारांवर बंदी घालू शकत असेल, तर ते त्या अधिकाराचा वापर असहमती दाबण्यासाठी किंवा माहितीवर नियंत्रण ठेवण्यासाठीही करू शकतात. पारदर्शकतेचीही एक छुपी किंमत आहे. जर कंपनीला तिचे मॉडेल नेमके कसे काम करते हे उघड करावे लागले, तर त्यामुळे वाईट कलाकारांना कमकुवतपणा शोधणे सोपे होईल का? आपण सुरक्षेसाठी वेगाचा व्यापार करत आहोत, पण सुरक्षित म्हणजे नक्की काय हे आपण अजून ठरवलेले नाही. दर सहा महिन्यांनी बदलणाऱ्या उद्योगाचे नियमन करणे शक्य आहे का, तेही अशा कायद्यांनी ज्यांना लिहिण्यासाठी वर्षे लागतात? हे ते प्रश्न आहेत जे ठरवतील की नियमनाचे हे युग यशस्वी आहे की अपयशी. आपण अशी प्रणाली बनवण्यापासून सावध राहिले पाहिजे जी इतकी कडक असेल की शाई वाळण्यापूर्वीच ती कालबाह्य होईल. चीनमधील नियम, जे सायबरस्पेस ॲडमिनिस्ट्रेशन ऑफ चायना द्वारे व्यवस्थापित केले जातात, ते दर्शवतात की सुरक्षेचा अर्थ सामाजिक स्थिरता असा कसा लावला जाऊ शकतो. हे विविध राष्ट्रे घेत असलेले दार्शनिक मार्ग अधोरेखित करते. आपल्याला अशा कोणत्याही कायद्याबद्दल संशयी असण्याची गरज आहे जो पुढील पिढीच्या निर्मात्यांसाठी नवीन समस्या निर्माण करताना सर्व समस्या सोडवण्याचा दावा करतो.
तांत्रिक मानके आणि कंप्लायन्स वर्कफ्लो
तांत्रिक लोकांसाठी, लक्ष आता ‘कंप्लायन्स स्टॅक’कडे वळत आहे. यामध्ये डेटा लिनिएज आणि स्वयंचलित मॉडेल ऑडिटिंगसाठी टूल्सचा समावेश आहे. डेव्हलपर्स डिजिटल वॉटरमार्किंगसाठी C2PA मानकांकडे पाहत आहेत. यामध्ये फाइल्समध्ये मेटाडेटा एम्बेड करणे समाविष्ट आहे जे क्रॉपिंग किंवा पुन्हा सेव्ह केल्यानंतरही टिकून राहते. संवेदनशील डेटाच्या स्थानिक साठवणुकीकडेही कल वाढत आहे. गोपनीयता नियमांचे पालन करण्यासाठी, कंपन्या काही कार्यांसाठी केंद्रीकृत क्लाउड प्रोसेसिंगपासून दूर जात आहेत. ते वापरकर्त्याचा डेटा डिव्हाइसवर ठेवण्यासाठी ‘एज कॉम्प्युटिंग’चा वापर करत आहेत. API मर्यादा देखील पुन्हा डिझाइन केल्या जात आहेत. हे आता फक्त ट्रॅफिकसाठी रेट लिमिटिंगबद्दल नाही. हे सुरक्षा फिल्टरबद्दल आहे जे हार्डवेअर स्तरावर काही प्रकारचे क्वेरी ब्लॉक करतात. आपण ‘मॉडेल कार्ड्स’चा उदय पाहत आहोत जे AI साठी पोषण लेबलसारखे आहेत. ते ट्रेनिंग डेटा, अभिप्रेत वापर आणि ज्ञात मर्यादांची यादी करतात. वर्कफ्लोच्या दृष्टीकोनातून, याचा अर्थ स्वयंचलित चाचणीला ‘कंटिन्युअस इंटिग्रेशन’ प्रक्रियेत समाकलित करणे आहे. प्रत्येक वेळी मॉडेल अपडेट केले जाते, तेव्हा ते तैनात करण्यापूर्वी त्याला पक्षपातीपणा आणि सुरक्षेसाठी चाचण्यांच्या मालिकेतून जावे लागते. यामुळे डेव्हलपमेंट सायकलमध्ये विलंब होतो पण कायदेशीर आपत्तीचा धोका कमी होतो. कंपन्या प्रशिक्षित मॉडेल्ससाठी डेटा डिलीशन विनंत्या कशा हाताळायच्या याकडेही पाहत आहेत, जे एक मोठे तांत्रिक आव्हान आहे. जर वापरकर्त्याने त्यांचा डेटा काढून टाकण्यास सांगितले, तर तुम्ही न्यूरल नेटवर्कमधून तो डेटा कसा ‘अन-लर्न’ कराल? येथेच कायदा सध्याच्या कॉम्प्युटर सायन्सच्या मर्यादेला भेटतो. आपण या कायदेशीर गरजा व्यवस्थापित करण्यासाठी विशेषतः डिझाइन केलेले सॉफ्टवेअरचा एक नवीन वर्ग पाहत आहोत.
पुढील वर्ष या कायद्यांची पहिली खरी परीक्षा असेल. आपण पहिले मोठे दंड आणि पहिले कोर्ट केसेस पाहू जे सरकारी अधिकारांच्या मर्यादा ठरवतील. अर्थपूर्ण प्रगती म्हणजे मानकांचा एक स्पष्ट संच असेल जो लहान कंपन्यांना कागदपत्रांच्या ओझ्याखाली न दबता स्पर्धा करण्याची परवानगी देईल. आपण तृतीय-पक्ष ऑडिटर्सच्या उदयाकडे पाहिले पाहिजे जे AI सुरक्षित असल्याचे प्रमाणित करू शकतील. ध्येय हायप आणि भीतीपासून पुढे जाणे आहे. आपल्याला अशी प्रणाली हवी आहे जिथे तंत्रज्ञान लोकांच्या अधिकारांचे उल्लंघन न करता त्यांची सेवा करेल. **EU AI ॲक्ट** अंमलबजावणी ही पाहण्यासाठी मुख्य संकेत असेल. जर अंमलबजावणी खूप आक्रमक असेल, तर आपण भांडवलाचे इतर प्रदेशांकडे स्थलांतर पाहू शकतो. जर ते खूप कमकुवत असेल, तर कायद्याला कागदी वाघ मानले जाईल. नियम आले आहेत. आता आपल्याला पाहायचे आहे की ते खऱ्या जगात खरोखर काम करतात का.
काही चूक आढळली किंवा काही दुरुस्त करायचे आहे का? आम्हाला कळवा.
संपादकाची नोंद: आम्ही ही साइट बहुभाषिक AI बातम्या आणि मार्गदर्शिका केंद्र म्हणून अशा लोकांसाठी तयार केली आहे जे संगणक तज्ञ नाहीत, परंतु तरीही कृत्रिम बुद्धिमत्ता समजून घेऊ इच्छितात, अधिक आत्मविश्वासाने तिचा वापर करू इच्छितात आणि आधीच येत असलेल्या भविष्याचा मागोवा घेऊ इच्छितात.