सरकारे AI वर नियंत्रण मिळवण्याचा प्रयत्न कशी करत आहेत
मशीनचे नवीन नियम
आर्टिफिशियल इंटेलिजन्सच्या ‘वाईल्ड वेस्ट’ युगाचा आता अंत होत आहे. सरकारे आता केवळ बघ्याची भूमिका घेत नाहीत, तर ते असे नियम बनवत आहेत जे ठरवतील की कोड कसा लिहिला जावा आणि तो कुठे वापरला जाऊ शकतो. हे केवळ नीतिमत्ता किंवा अस्पष्ट तत्त्वांबद्दल नाही, तर हे कठोर कायदे आणि मोठ्या दंडांबद्दल आहे. युरोपियन युनियनने आपल्या AI Act द्वारे पुढाकार घेतला आहे. युनायटेड स्टेट्सने देखील व्यापक कार्यकारी आदेशासह त्याचे अनुसरण केले आहे. या कृतींमुळे जगातील प्रत्येक टेक कंपनीसाठी गणिते बदलली आहेत. जर तुम्ही ठराविक पॉवर थ्रेशोल्डपेक्षा जास्त क्षमतेचे मॉडेल बनवले, तर आता तुमच्यावर लक्ष ठेवले जाईल. ते लोकांपर्यंत पोहोचण्यापूर्वी तुम्हाला ते सुरक्षित असल्याचे सिद्ध करावे लागेल. हा बदल ऐच्छिक सुरक्षा प्रतिज्ञांकडून अनिवार्य देखरेखीकडे होणारे संक्रमण दर्शवतो. सामान्य वापरकर्त्यासाठी, याचा अर्थ असा की तुम्ही उद्या वापरत असलेली साधने आजच्या साधनांपेक्षा वेगळी असू शकतात. काही फीचर्स तुमच्या देशात ब्लॉक केली जाऊ शकतात. इतर साधने तुमचा डेटा कसा वापरतात याबद्दल अधिक पारदर्शक होऊ शकतात. प्रगती आणि संरक्षण यांचा समतोल साधणे हे ध्येय आहे, परंतु हा मार्ग संघर्षाने भरलेला आहे.
नीतिमत्तेकडून अंमलबजावणीकडे वाटचाल
नवीन नियम समजून घेण्यासाठी, तुम्हाला रिस्क कॅटेगरीकडे पहावे लागेल. बहुतेक सरकारे ‘वन साईझ फिट्स ऑल’ दृष्टिकोनापासून दूर जात आहेत. त्याऐवजी, ते संभाव्य हानीच्या आधारावर सिस्टिम्सचे ग्रेडिंग करत आहेत. हा एक थेट ऑपरेशनल बदल आहे. कंपन्या आता केवळ उत्पादन रिलीज करून नशिबावर अवलंबून राहू शकत नाहीत. वापरकर्त्यापर्यंत पोहोचण्यापूर्वी त्यांना त्यांच्या तंत्रज्ञानाचे वर्गीकरण करावे लागेल. हे वर्गीकरण सरकार किती बारकाईने तपासणी करेल हे ठरवते. काही चूक झाल्यास कंपनीला किती कायदेशीर जबाबदारी स्वीकारावी लागेल हे देखील यावरून ठरते. लक्ष आता AI काय आहे यावरून AI काय करते याकडे वळले आहे. जर एखादी सिस्टिम लोकांबद्दल निर्णय घेत असेल, तर मांजरींचे फोटो जनरेट करणाऱ्या सिस्टिमपेक्षा तिच्याकडे अधिक संशयाने पाहिले जाते.
सर्वात कडक नियम अशा सिस्टिम्सना लागू होतात ज्यांना ‘अनअॅक्सेप्टेबल रिस्क’ मानले जाते. त्यांना केवळ प्रोत्साहित केले जात नाही असे नाही, तर ते पूर्णपणे प्रतिबंधित आहेत. हे डेव्हलपर्ससाठी एक स्पष्ट सीमा तयार करते. त्यांना नेमके माहित आहे की कोणत्या रेषा ओलांडता येणार नाहीत. इतर सर्व गोष्टींसाठी, नियमांना नवीन स्तरावरील दस्तऐवजीकरण आवश्यक आहे. कंपन्यांनी त्यांचे मॉडेल्स कसे ट्रेन केले गेले याची सविस्तर नोंद ठेवली पाहिजे. मॉडेल निष्कर्षापर्यंत कसे पोहोचते हे स्पष्ट करण्यासही ते सक्षम असले पाहिजेत. हे एक मोठे तांत्रिक आव्हान आहे कारण अनेक आधुनिक मॉडेल्स मुळात ‘ब्लॅक बॉक्सेस’ आहेत. त्यांना स्पष्ट करण्यायोग्य बनवण्यासाठी त्यांच्या डिझाइनमध्ये मूलभूत बदल करणे आवश्यक आहे. नियम असेही सांगतात की ट्रेनिंगसाठी वापरलेला डेटा स्वच्छ आणि पूर्वग्रहमुक्त असावा. याचा अर्थ डेटा संकलन प्रक्रिया आता कायदेशीर ऑडिटच्या अधीन आहे. खालील श्रेणी सध्याचा नियामक दृष्टिकोन स्पष्ट करतात:
- सोशल स्कोअरिंग किंवा वर्तणूक हाताळण्यासाठी फसव्या तंत्रांचा वापर करणाऱ्या प्रतिबंधित सिस्टिम्स.
- महत्त्वाच्या पायाभूत सुविधा, भरती आणि कायदा अंमलबजावणीमध्ये वापरल्या जाणाऱ्या हाय रिस्क सिस्टिम्स ज्यांना कठोर ऑडिटची आवश्यकता असते.
- चॅटबॉट्ससारख्या मर्यादित रिस्क सिस्टिम्स ज्यांनी आपण मानव नसल्याचे उघड केले पाहिजे.
- AI सक्षम व्हिडिओ गेम्ससारख्या कमीत कमी रिस्क सिस्टिम्स ज्यांना कमी निर्बंधांचा सामना करावा लागतो.
ही रचना लवचिक बनवण्यासाठी डिझाइन केलेली आहे. तंत्रज्ञान बदलत असताना, हाय रिस्क ॲप्लिकेशन्सची यादी वाढू शकते. सॉफ्टवेअर विकसित होत असतानाही हे कायद्याला सुसंगत ठेवते. तथापि, हे व्यवसायांसाठी कायमस्वरूपी अनिश्चिततेची स्थिती देखील निर्माण करते. त्यांचे नवीन फीचर अधिक नियंत्रित श्रेणीमध्ये गेले आहे का, हे त्यांना सतत तपासावे लागते. मशीनच्या शक्तीबद्दल सावध असलेल्या जगात सॉफ्टवेअर तयार करण्याची ही नवीन वास्तविकता आहे.
एक विखुरलेली जागतिक चौकट
या नियमांचा प्रभाव एका राष्ट्राच्या सीमांपुरता मर्यादित नाही. आपण *ब्रसेल्स इफेक्ट* चा उदय पाहत आहोत. जेव्हा EU टेक रेग्युलेशनसाठी उच्च मानके सेट करते, तेव्हा जागतिक कंपन्या अनेकदा त्यांचे ऑपरेशन्स सुलभ करण्यासाठी सर्वत्र ती मानके स्वीकारतात. विविध बाजारांसाठी दहा भिन्न आवृत्त्या तयार करण्यापेक्षा एक सुसंगत उत्पादन तयार करणे स्वस्त पडते. यामुळे सिलिकॉन व्हॅलीमध्ये AI कसे तयार केले जाते यावर युरोपचा मोठा प्रभाव पडतो. हे मानके कशी संरचित आहेत हे पाहण्यासाठी तुम्ही EU AI Act बद्दल अधिक वाचू शकता. युनायटेड स्टेट्समध्ये, दृष्टिकोन वेगळा आहे पण तितकाच महत्त्वाचा आहे. सरकार **Defense Production Act** चा वापर करून टेक दिग्गजांना त्यांचे सुरक्षा चाचणी निकाल शेअर करण्यास भाग पाडत आहे. हे दर्शवते की अमेरिका मोठ्या प्रमाणावरील AI ला राष्ट्रीय सुरक्षेचा विषय मानते.
दरम्यान, चीनने अधिक थेट मार्ग स्वीकारला आहे. त्यांचे नियम जनरेटिव्ह AI द्वारे तयार केलेल्या मजकुरावर लक्ष केंद्रित करतात. त्यांना आवश्यक आहे की आउटपुट सामाजिक मूल्यांशी जुळणारे असावे आणि ते राज्य सत्तेला धक्का लावू नये. हे एक विखुरलेले जग निर्माण करते जिथे तुम्ही कुठे लॉग इन करता त्यानुसार एकच मॉडेल वेगळ्या प्रकारे वागू शकते. बीजिंगमधील मॉडेलचे गार्डरेल्स पॅरिस किंवा न्यूयॉर्कमधील मॉडेलपेक्षा वेगळे असतील. हे विखुरलेपण डेव्हलपर्ससाठी डोकेदुखी ठरते ज्यांना आता परस्परविरोधी नियमांच्या जाळ्यात काम करावे लागते. काही देशांना अधिक मोकळेपणा हवा आहे तर काहींना कथनावर अधिक नियंत्रण हवे आहे. जागतिक प्रेक्षकांसाठी, याचा अर्थ असा की AI अनुभव स्थानिक होत आहे. एकाच, सीमाहीन इंटरनेटचे स्वप्न धूसर होत आहे. त्याऐवजी एक नियंत्रित वातावरण आहे जिथे तुमचे स्थान मशीनला तुम्हाला काय सांगण्याची परवानगी आहे हे ठरवते. ही २०२४ ची नवीन वास्तविकता आहे. हा एक असा बदल आहे जो तंत्रज्ञान वाढीचे पुढील दशक निश्चित करेल.
नियामक नजरेखाली दैनंदिन जीवन
सारा नावाच्या प्रोजेक्ट मॅनेजरच्या सकाळची कल्पना करा. ती ईमेलची लांबलचक साखळी सारांशित करण्यासाठी AI टूल उघडून दिवसाची सुरुवात करते. नवीन नियमांनुसार, तिच्या सॉफ्टवेअरने तिला सूचित केले पाहिजे की सारांश अल्गोरिदमद्वारे तयार केला गेला आहे. तसेच, तिचा कंपनी डेटा तिच्या संमतीशिवाय सार्वजनिक मॉडेलला ट्रेन करण्यासाठी वापरला जात नाही याची खात्री करणे आवश्यक आहे. अलीकडील कायद्यांमध्ये समाविष्ट असलेल्या नवीन गोपनीयता संरक्षणांचा हा थेट परिणाम आहे. नंतर, सारा एका टेक फर्ममध्ये नवीन भूमिकेसाठी अर्ज करते. ती फर्म AI स्क्रीनिंग टूल वापरते. हे हाय रिस्क ॲप्लिकेशन असल्याने, कंपनीला पूर्वग्रहासाठी टूलचे ऑडिट करावे लागले आहे. AI ने तिला ज्या प्रकारे रँक केले त्याचे स्पष्टीकरण मागण्याचा साराला कायदेशीर अधिकार आहे. पूर्वी, तिला एक सामान्य नकार मिळाला असता. आता, तिच्याकडे पारदर्शकतेचा मार्ग आहे. कॉर्पोरेशन आणि व्यक्तींमधील शक्तीचे समीकरण गव्हर्नन्स कसे बदलते, याचे हे एक ठोस उदाहरण आहे.
दुपारी, सारा शॉपिंग मॉलमध्ये फिरते. काही शहरांमध्ये, फेशियल रिकग्निशन तिच्या हालचालींचा मागोवा घेऊन तिला टार्गेटेड जाहिराती दाखवत असेल. कठोर EU नियमांनुसार, अशा प्रकारच्या रिअल-टाइम पाळत ठेवण्यावर निर्बंध आहेत. मॉलकडे ते वापरण्याचे विशिष्ट कायदेशीर कारण असले पाहिजे आणि साराला त्याबद्दल माहिती दिली पाहिजे. ती वापरत असलेली उत्पादने देखील बदलत आहेत. OpenAI आणि Google सारख्या कंपन्या स्थानिक कायद्यांचे पालन करण्यासाठी त्यांची फीचर्स आधीच ॲडजस्ट करत आहेत. तुम्हाला कदाचित लक्षात येईल की काही इमेज जनरेशन टूल्स तुमच्या प्रदेशात उपलब्ध नाहीत किंवा त्यांच्यावर कठोर फिल्टर्स आहेत जे सार्वजनिक व्यक्तींचे वास्तववादी चेहरे तयार करण्यापासून रोखतात. ही तांत्रिक मर्यादा नाही. ही कायदेशीर मर्यादा आहे. डीपफेक्समुळे निवडणुका विस्कळीत होण्याची किंवा पूर्वग्रहदूषित अल्गोरिदममुळे लोकांना घरापासून वंचित ठेवण्याची शक्यता लक्षात घेतली तर या नियमांचा युक्तिवाद खरा वाटतो. गार्डरेल्स लावून, सरकारे हे नुकसान होण्यापूर्वीच रोखण्याचा प्रयत्न करत आहेत. हा कृतीशील US चा AI सुरक्षा दृष्टिकोन आहे.
BotNews.today सामग्री संशोधन, लेखन, संपादन आणि भाषांतरित करण्यासाठी AI साधनांचा वापर करते. माहिती उपयुक्त, स्पष्ट आणि विश्वसनीय ठेवण्यासाठी आमची टीम प्रक्रियेचे पुनरावलोकन आणि पर्यवेक्षण करते.
पालनाचे छुपे खर्च
नियंत्रित जगात खरोखर कोण जिंकते, याबद्दल आपण कठीण प्रश्न विचारले पाहिजेत. जड नियामक ओझे खरोखर जनतेचे संरक्षण करते का, की ते फक्त विद्यमान कंपन्यांचे संरक्षण करते? मोठ्या टेक कंपन्यांकडे पालनासाठी शेकडो वकील आणि इंजिनिअर्सना कामावर ठेवण्याची संसाधने आहेत. गॅरेजमधील एका छोट्या स्टार्टअपकडे ती नाहीत. आपण अशा जगाची निर्मिती करण्याचा धोका पत्करत आहोत जिथे केवळ दिग्गजच नाविन्यपूर्ण काम करू शकतात. यामुळे स्पर्धा कमी होऊ शकते आणि वापरकर्त्यांसाठी किमती वाढू शकतात. गोपनीयता विरुद्ध सुरक्षा असाही प्रश्न आहे. जेव्हा सरकारे AI मॉडेलच्या अंतर्गत कामकाजात प्रवेश मागतात, तेव्हा त्या डेटाचे संरक्षण कोण करत आहे? जर सरकार मॉडेल सुरक्षित असल्याची खात्री करण्यासाठी त्याचे ऑडिट करू शकत असेल, तर ते त्याच प्रवेशाचा वापर मॉडेल वापरकर्त्यांकडून काय शिकत आहे हे पाहण्यासाठी देखील करू शकतात. हा एक असा ट्रेड-ऑफ आहे ज्यावर सार्वजनिक मंचांवर क्वचितच चर्चा केली जाते.
आपण नाविन्यपूर्णतेच्या छुपे खर्चाचाही विचार केला पाहिजे. जर प्रत्येक नवीन फीचरला प्रदीर्घ मंजुरी प्रक्रियेतून जावे लागले, तर आपण औषधोपचारात जीव वाचवू शकणाऱ्या किंवा हवामानातील जटिल समस्या सोडवू शकणाऱ्या शोधांना मुकणार का? नियमनाचे घर्षण हा एक वास्तविक खर्च आहे. आपल्याला मिळालेली सुरक्षा आपण गमावलेल्या प्रगतीपेक्षा जास्त मोलाची आहे का, हे जाणून घेणे आवश्यक आहे. अंमलबजावणीचाही प्रश्न आहे. डिसेंट्रलाइज्ड नेटवर्कवर किंवा आंतरराष्ट्रीय नियमांकडे दुर्लक्ष करणाऱ्या देशात होस्ट केलेले मॉडेल तुम्ही कसे नियंत्रित कराल? नियम कदाचित फक्त त्या कंपन्यांना लागू होतील ज्यांनी त्यांचे पालन करण्याचे निवडले आहे, ज्यामुळे सर्वात धोकादायक घटक देखरेखीशिवाय काम करण्यास मोकळे राहतील. हे सुरक्षेची खोटी भावना निर्माण करते. आपण कायदा पाळणाऱ्या नागरिकांभोवती कुंपण घालत आहोत, तर इतरांसाठी दरवाजा उघडाच आहे. हे असे प्रश्न आहेत जे नियामक अनेकदा टाळतात. ते पद्धतशीर जोखमींकडे दुर्लक्ष करून दृश्यमान जोखमींवर लक्ष केंद्रित करतात. आपण पुढे जात असताना, सुरक्षिततेची आपली इच्छा मुक्त आणि स्पर्धात्मक बाजाराच्या मूल्याकडे दुर्लक्ष करणार नाही याची खात्री केली पाहिजे.
तुम्ही आम्हाला कव्हर करावे असे तुम्हाला वाटणारी AI कथा, साधन, ट्रेंड किंवा प्रश्न आहे का? तुमची लेखाची कल्पना आम्हाला पाठवा — आम्हाला ती ऐकायला आवडेल.पारदर्शकतेचा तांत्रिक टोल
पॉवर युजर्स आणि डेव्हलपर्ससाठी, नवीन नियम विशिष्ट तांत्रिक मर्यादांमध्ये रूपांतरित होतात. सर्वात महत्त्वाच्या मेट्रिक्सपैकी एक म्हणजे ‘कंप्युट थ्रेशोल्ड’. US कार्यकारी आदेश १० च्या २६ व्या घातापर्यंत फ्लोटिंग पॉइंट ऑपरेशन्सची मर्यादा सेट करतो. यापेक्षा जास्त पॉवरसह प्रशिक्षित केलेल्या कोणत्याही मॉडेलची माहिती सरकारला देणे आवश्यक आहे. हे डेव्हलपर्सना त्यांच्या हार्डवेअर वापराचे आणि ट्रेनिंग रन्सचे तपशीलवार लॉग ठेवण्यास भाग पाडते. API मर्यादा देखील नियमनाचे साधन बनत आहेत. चुकीची माहिती मोठ्या प्रमाणावर पसरण्यापासून रोखण्यासाठी, काही प्रदेश एकाच वापरकर्त्याला जनरेटिव्ह मॉडेलला किती विनंत्या करता येतील यावर मर्यादा घालण्याचा विचार करत आहेत. हे डेव्हलपर्स या मॉडेल्सवर अवलंबून असणारी ॲप्लिकेशन्स कशी तयार करतात यावर परिणाम करते. त्यांना आता त्यांच्या कोडमध्ये आणि बिझनेस मॉडेल्समध्ये या मर्यादांचा हिशोब ठेवावा लागेल. स्थानिक स्टोरेज हा आणखी एक मोठा घटक आहे. कायद्यानुसार अनेकदा अशी अट असते की नागरिकांचा डेटा ठराविक भौगोलिक सीमांच्या आतच राहिला पाहिजे. याचा अर्थ कंपन्या सर्व ठिकाणचा डेटा प्रोसेस करण्यासाठी केवळ सेंट्रल क्लाउड वापरू शकत नाहीत. त्यांना स्थानिक डेटा सेंटर्स बांधावे आणि मेंटेन करावे लागतील. तांत्रिक गरजांमध्ये खालील गोष्टींचा समावेश आहे:
- AI जनरेट केलेला मजकूर ओळखण्यासाठी API स्तरावर अनिवार्य वॉटरमार्किंग.
- स्थानिक प्रक्रिया आणि स्टोरेजसाठी डेटा रेसिडेन्सी आवश्यकता.
- १० च्या २६ व्या घातापेक्षा जास्त फ्लॉप्स थ्रेशोल्ड ओलांडणाऱ्या कोणत्याही मॉडेल ट्रेनिंगसाठी कंप्युट लॉगिंग.
- एक्सप्लेनेबिलिटी लेयर्स जे मॉडेल वेट्स आणि निर्णयाच्या मार्गांचे मानवी ऑडिट करण्यास परवानगी देतात.
इंटिग्रेशन वर्कफ्लो देखील बदलत आहेत. डेव्हलपर्सना आता पाइपलाइनच्या प्रत्येक टप्प्यावर सुरक्षा तपासणी करावी लागेल. जर तुम्ही थर्ड पार्टी API वापरणारे साधन तयार करत असाल, तर ते API डेटा कसा हाताळते यासाठी आता तुम्ही जबाबदार आहात. तुमच्या इंटिग्रेशनमुळे प्रोव्हायडरने सेट केलेले सुरक्षा फिल्टर्स बायपास होणार नाहीत याची खात्री तुम्हाला करावी लागेल. कायद्याचा ‘गीक’ विभाग तो आहे जिथे खऱ्या लढाया लढल्या जातात. हे लॅटन्सी, डेटा रेसिडेन्सी आणि मॉडेल वेट्सच्या गणिताबद्दल आहे. हे तपशील ठरवतात की उत्पादन व्यवहार्य आहे की ते स्वतःच्या पालनाच्या गरजांच्या ओझ्याखाली दबले जाईल. तुम्ही टेक पॉलिसीबद्दलच्या ताज्या बातम्यांच्या अहवालांमध्ये या तांत्रिक बदलांबद्दल अधिक तपशील शोधू शकता. ज्यांना या बदलांच्या पुढे राहायचे आहे, त्यांच्यासाठी AI नियमनातील ताज्या घडामोडींचे अनुसरण करणे आवश्यक आहे. या नियमांच्या जटिलतेचा अर्थ असा आहे की डेव्हलपरची भूमिका आता कोडइतकीच कायद्याबद्दलही होत आहे.
अपूर्ण कोड
AI नियंत्रित करण्याचा प्रयत्न ही एक प्रगतीपथावर असलेली प्रक्रिया आहे. आपण पूर्ण स्वातंत्र्याच्या काळाकडून व्यवस्थापित वाढीच्या काळाकडे जात आहोत. आज लिहिलेले नियम पुढील दशकातील तंत्रज्ञान घडवतील. तथापि, सॉफ्टवेअरचा वेग नेहमीच कायद्याच्या वेगापेक्षा जास्त असतो. कायदा संमत होईपर्यंत, तंत्रज्ञान अनेकदा नवीन गोष्टींकडे वळलेले असते. यामुळे आपल्यासमोर एक जिवंत प्रश्न उरतो जो या विषयाला विकसित करत राहील: लोकशाही प्रक्रिया स्वतःला पुन्हा लिहिणाऱ्या बुद्धिमत्तेला नियंत्रित करण्यासाठी कधीही वेगवान असू शकते का? सध्या, लक्ष पारदर्शकता आणि उत्तरदायित्वावर आहे. आपण हे सुनिश्चित करण्याचा प्रयत्न करत आहोत की मानवांनी बनवलेल्या मशीनवर मानवांचे नियंत्रण राहील. हे नियम AI ला अधिक सुरक्षित करतील की फक्त अधिक क्लिष्ट, हे पाहणे बाकी आहे. एकच खात्री आहे की अनियंत्रित अल्गोरिदमचे युग संपले आहे. ही २०२४ आणि त्यानंतरची वास्तविकता आहे.
संपादकाची नोंद: आम्ही ही साइट बहुभाषिक AI बातम्या आणि मार्गदर्शिका केंद्र म्हणून अशा लोकांसाठी तयार केली आहे जे संगणक तज्ञ नाहीत, परंतु तरीही कृत्रिम बुद्धिमत्ता समजून घेऊ इच्छितात, अधिक आत्मविश्वासाने तिचा वापर करू इच्छितात आणि आधीच येत असलेल्या भविष्याचा मागोवा घेऊ इच्छितात.
काही चूक आढळली किंवा काही दुरुस्त करायचे आहे का? आम्हाला कळवा.