सरकारें AI को नियंत्रित करने की कोशिश कैसे कर रही हैं
मशीन के नए नियम
आर्टिफिशियल इंटेलिजेंस (AI) के ‘वाइल्ड वेस्ट’ का दौर अब खत्म हो रहा है। सरकारें अब सिर्फ तमाशबीन बनकर नहीं बैठी हैं। वे वे नियम लिख रही हैं जो यह तय करेंगे कि कोड कैसे लिखा जाए और उसे कहां तैनात किया जा सकता है। यह सिर्फ नैतिकता या अस्पष्ट सिद्धांतों के बारे में नहीं है। यह सख्त कानून और भारी जुर्माने के बारे में है। यूरोपीय संघ ने अपने AI Act के साथ रास्ता दिखाया है। संयुक्त राज्य अमेरिका ने एक व्यापक कार्यकारी आदेश के साथ इसका अनुसरण किया है। ये कार्रवाइयां दुनिया की हर टेक कंपनी के लिए गणित बदल देती हैं। यदि आप एक ऐसा मॉडल बनाते हैं जो एक निश्चित पावर थ्रेशोल्ड से अधिक है, तो अब आप सरकार के निशाने पर हैं। जनता तक पहुंचने से पहले आपको यह साबित करना होगा कि यह सुरक्षित है। यह बदलाव स्वैच्छिक सुरक्षा प्रतिज्ञाओं से अनिवार्य निगरानी की ओर संक्रमण को दर्शाता है। औसत उपयोगकर्ता के लिए, इसका मतलब है कि आप कल जो टूल्स इस्तेमाल करेंगे, वे आज वाले से अलग दिख सकते हैं। कुछ फीचर्स आपके देश में ब्लॉक हो सकते हैं। अन्य टूल्स इस बारे में अधिक पारदर्शी हो सकते हैं कि वे आपके डेटा का उपयोग कैसे करते हैं। लक्ष्य प्रगति और सुरक्षा के बीच संतुलन बनाना है, लेकिन यह रास्ता काफी चुनौतीपूर्ण है।
नैतिकता से प्रवर्तन की ओर बढ़ना
नए नियमों को समझने के लिए, आपको जोखिम श्रेणियों (risk categories) को देखना होगा। अधिकांश सरकारें ‘वन साइज फिट्स ऑल’ दृष्टिकोण से दूर हो रही हैं। इसके बजाय, वे संभावित नुकसान के आधार पर सिस्टम को ग्रेड दे रही हैं। यह एक सीधा परिचालन परिवर्तन है। कंपनियां अब बस एक प्रोडक्ट रिलीज करके अच्छे की उम्मीद नहीं कर सकतीं। उन्हें उपयोगकर्ता तक पहुंचने से पहले अपनी तकनीक को वर्गीकृत करना होगा। यह वर्गीकरण सरकार द्वारा लागू की जाने वाली जांच के स्तर को निर्धारित करता है। यह उस कानूनी दायित्व के स्तर को भी निर्धारित करता है जिसका सामना कंपनी को करना पड़ता है यदि कुछ गलत हो जाता है। ध्यान इस बात से हट गया है कि AI क्या है, बल्कि इस पर आ गया है कि AI क्या करता है। यदि कोई सिस्टम लोगों के बारे में निर्णय लेता है, तो उसे बिल्लियों की तस्वीरें बनाने वाले सिस्टम की तुलना में कहीं अधिक संदेह के साथ देखा जाता है।
सबसे प्रतिबंधात्मक नियम उन सिस्टम पर लागू होते हैं जिन्हें ‘अस्वीकार्य जोखिम’ माना जाता है। इन्हें सिर्फ हतोत्साहित नहीं किया जाता, बल्कि प्रतिबंधित कर दिया जाता है। यह डेवलपर्स के लिए एक स्पष्ट सीमा बनाता है। वे जानते हैं कि उन्हें कौन सी रेखाएं पार नहीं करनी हैं। बाकी सब चीजों के लिए, नियमों को नए स्तर के डॉक्यूमेंटेशन की आवश्यकता है। कंपनियों को विस्तृत रिकॉर्ड रखना होगा कि उनके मॉडल को कैसे ट्रेन किया गया था। उन्हें यह भी बताने में सक्षम होना चाहिए कि मॉडल अपने निष्कर्षों तक कैसे पहुंचता है। यह एक महत्वपूर्ण तकनीकी चुनौती है क्योंकि कई आधुनिक मॉडल अनिवार्य रूप से ‘ब्लैक बॉक्स’ हैं। उन्हें समझाने योग्य बनाने के लिए उनके डिजाइन के तरीके में मौलिक बदलाव की आवश्यकता है। नियम यह भी मांग करते हैं कि ट्रेनिंग के लिए उपयोग किया जाने वाला डेटा साफ और पूर्वाग्रह (bias) से मुक्त हो। इसका मतलब है कि डेटा संग्रह प्रक्रिया अब कानूनी ऑडिट के अधीन है। निम्नलिखित श्रेणियां वर्तमान नियामक दृष्टिकोण को परिभाषित करती हैं:
- प्रतिबंधित सिस्टम जो व्यवहार में हेरफेर करने के लिए सोशल स्कोरिंग या भ्रामक तकनीकों का उपयोग करते हैं।
- महत्वपूर्ण बुनियादी ढांचे, भर्ती और कानून प्रवर्तन में उपयोग किए जाने वाले उच्च जोखिम वाले सिस्टम, जिनके लिए सख्त ऑडिट की आवश्यकता होती है।
- सीमित जोखिम वाले सिस्टम जैसे चैटबॉट्स, जिन्हें यह खुलासा करना होगा कि वे इंसान नहीं हैं।
- न्यूनतम जोखिम वाले सिस्टम जैसे AI-सक्षम वीडियो गेम, जिन्हें कम प्रतिबंधों का सामना करना पड़ता है।
यह संरचना लचीली होने के लिए डिज़ाइन की गई है। जैसे-जैसे तकनीक बदलती है, उच्च जोखिम वाले अनुप्रयोगों की सूची बढ़ सकती है। यह सॉफ्टवेयर के विकसित होने के बावजूद कानून को प्रासंगिक बनाए रखता है। हालांकि, यह व्यवसायों के लिए अनिश्चितता की स्थिति भी पैदा करता है। उन्हें लगातार यह जांचना होगा कि क्या उनका नया फीचर अधिक विनियमित श्रेणी में चला गया है। यह मशीन की शक्ति से सावधान दुनिया में सॉफ्टवेयर बनाने की नई वास्तविकता है।
एक खंडित वैश्विक ढांचा
इन नियमों का प्रभाव किसी एक देश की सीमाओं तक सीमित नहीं है। हम ‘ब्रसेल्स इफेक्ट’ का उदय देख रहे हैं। जब यूरोपीय संघ टेक विनियमन के लिए एक उच्च मानक निर्धारित करता है, तो वैश्विक कंपनियां अक्सर अपने संचालन को सरल बनाने के लिए हर जगह उन मानकों को अपना लेती हैं। अलग-अलग बाजारों के लिए दस अलग-अलग संस्करण बनाने की तुलना में एक अनुपालन प्रोडक्ट बनाना सस्ता है। यह यूरोप को इस बात पर भारी प्रभाव देता है कि सिलिकॉन वैली में AI कैसे बनाया जाता है। आप EU AI Act के बारे में अधिक पढ़ सकते हैं ताकि यह देख सकें कि ये मानक कैसे संरचित हैं। संयुक्त राज्य अमेरिका में, दृष्टिकोण अलग है लेकिन समान रूप से महत्वपूर्ण है। सरकार टेक दिग्गजों को उनके सुरक्षा परीक्षण परिणामों को साझा करने के लिए मजबूर करने के लिए **Defense Production Act** का उपयोग कर रही है। यह संकेत देता है कि अमेरिका बड़े पैमाने पर AI को राष्ट्रीय सुरक्षा का मामला मानता है।
इस बीच, चीन ने अधिक सीधा रास्ता अपनाया है। उनके नियम जनरेटिव AI द्वारा उत्पादित सामग्री पर केंद्रित हैं। उन्हें आवश्यकता है कि आउटपुट सामाजिक मूल्यों के अनुरूप हों और राज्य की शक्ति को कमजोर न करें। यह एक खंडित दुनिया बनाता है जहां एक ही मॉडल अलग-अलग व्यवहार कर सकता है, यह इस पर निर्भर करता है कि आप कहां लॉग इन करते हैं। बीजिंग में एक मॉडल के पास पेरिस या न्यूयॉर्क की तुलना में अलग गार्डरेल्स होंगे। यह विखंडन उन डेवलपर्स के लिए सिरदर्द पैदा करता है जिन्हें अब परस्पर विरोधी नियमों के जाल में काम करना पड़ता है। कुछ देश अधिक खुलापन चाहते हैं जबकि अन्य नैरेटिव पर अधिक नियंत्रण चाहते हैं। वैश्विक दर्शकों के लिए, इसका मतलब है कि AI का अनुभव स्थानीयकृत हो रहा है। एक एकल, सीमाहीन इंटरनेट का सपना फीका पड़ रहा है। इसकी जगह एक विनियमित वातावरण है जहां आपका स्थान यह निर्धारित करता है कि मशीन को आपको क्या बताने की अनुमति है। यह 2024 की नई वास्तविकता है। यह एक ऐसा बदलाव है जो तकनीकी विकास के अगले दशक को परिभाषित करेगा।
नियामक नजर में दैनिक जीवन
सारा नाम की एक प्रोजेक्ट मैनेजर के लिए एक सामान्य सुबह की कल्पना करें। वह ईमेल की एक लंबी श्रृंखला को संक्षेप में प्रस्तुत करने के लिए एक AI टूल खोलकर अपने दिन की शुरुआत करती है। नए नियमों के तहत, उसके सॉफ्टवेयर को उसे सूचित करना होगा कि सारांश एक एल्गोरिदम द्वारा उत्पन्न किया गया था। इसे यह भी सुनिश्चित करना होगा कि उसकी सहमति के बिना सार्वजनिक मॉडल को ट्रेन करने के लिए उसके कंपनी डेटा का उपयोग नहीं किया जा रहा है। यह हाल के कानूनों में निर्मित नई गोपनीयता सुरक्षा का सीधा परिणाम है। बाद में, सारा एक टेक फर्म में एक नई भूमिका के लिए आवेदन करती है। फर्म एक AI स्क्रीनिंग टूल का उपयोग करती है। चूंकि यह एक उच्च जोखिम वाला एप्लिकेशन है, इसलिए कंपनी को पूर्वाग्रह के लिए टूल का ऑडिट करना पड़ा है। सारा के पास यह पूछने का कानूनी अधिकार है कि AI ने उसे उस तरह से रैंक क्यों किया जैसा उसने किया। अतीत में, उसे एक सामान्य अस्वीकृति प्राप्त होती। अब, उसके पास पारदर्शिता का एक रास्ता है। यह एक ठोस उदाहरण है कि कैसे शासन निगमों और व्यक्तियों के बीच शक्ति की गतिशीलता को बदलता है।
दोपहर में, सारा एक शॉपिंग मॉल से गुजरती है। कुछ शहरों में, फेशियल रिकग्निशन लक्षित विज्ञापन देने के लिए उसकी गतिविधियों को ट्रैक कर रहा होता। सख्त यूरोपीय संघ के नियमों के तहत, इस तरह की रीयल-टाइम निगरानी प्रतिबंधित है। मॉल के पास इसका उपयोग करने का एक विशिष्ट कानूनी कारण होना चाहिए और सारा को सूचित किया जाना चाहिए। वह जो प्रोडक्ट इस्तेमाल करती है, वे भी बदल रहे हैं। OpenAI और Google जैसी कंपनियां स्थानीय कानूनों का पालन करने के लिए अपने फीचर्स को पहले ही समायोजित कर रही हैं। आप देख सकते हैं कि कुछ इमेज जनरेशन टूल आपके क्षेत्र में उपलब्ध नहीं हैं या उनके पास सख्त फिल्टर हैं जो उन्हें सार्वजनिक हस्तियों के यथार्थवादी चेहरे बनाने से रोकते हैं। यह एक तकनीकी सीमा नहीं है। यह एक कानूनी सीमा है। इन नियमों के लिए तर्क तब वास्तविक लगता है जब आप डीपफेक के चुनावों को बाधित करने या पक्षपाती एल्गोरिदम के लोगों को आवास से वंचित करने की क्षमता पर विचार करते हैं। गार्डरेल्स लगाकर, सरकारें इन नुकसानों को होने से पहले रोकने की कोशिश कर रही हैं। यह US approach to AI safety का क्रियान्वयन है।
BotNews.today सामग्री का शोध करने, लिखने, संपादित करने और अनुवाद करने के लिए AI उपकरणों का उपयोग करता है। हमारी टीम जानकारी को उपयोगी, स्पष्ट और विश्वसनीय बनाए रखने के लिए प्रक्रिया की समीक्षा और पर्यवेक्षण करती है।
अनुपालन की छिपी हुई लागत
हमें उन कठिन सवालों के बारे में पूछना चाहिए कि विनियमित दुनिया में वास्तव में कौन जीतता है। क्या भारी नियामक बोझ वास्तव में जनता की रक्षा करता है, या यह केवल दिग्गजों की रक्षा करता है? बड़ी टेक फर्मों के पास अनुपालन संभालने के लिए सैकड़ों वकीलों और इंजीनियरों को काम पर रखने के संसाधन हैं। गैरेज में एक छोटा स्टार्टअप ऐसा नहीं कर सकता। हम एक ऐसी दुनिया बनाने का जोखिम उठाते हैं जहां केवल दिग्गज ही नवाचार कर सकते हैं। इससे कम प्रतिस्पर्धा और उपयोगकर्ताओं के लिए उच्च कीमतें हो सकती हैं। गोपनीयता बनाम सुरक्षा का भी सवाल है। जब सरकारें AI मॉडल के आंतरिक कामकाज तक पहुंच की मांग करती हैं, तो उस डेटा की रक्षा कौन कर रहा है? यदि कोई सरकार यह सुनिश्चित करने के लिए मॉडल का ऑडिट कर सकती है कि वह सुरक्षित है, तो वे अपने उपयोगकर्ताओं से मॉडल क्या सीख रहा है, इसकी निगरानी के लिए भी उसी पहुंच का उपयोग कर सकते हैं। यह एक ऐसा ट्रेड-ऑफ है जिस पर सार्वजनिक मंचों पर शायद ही कभी चर्चा की जाती है।
हमें नवाचार की छिपी हुई लागत पर भी विचार करना चाहिए। यदि प्रत्येक नए फीचर को लंबी अनुमोदन प्रक्रिया से गुजरना पड़ता है, तो क्या हम उन सफलताओं से चूक जाएंगे जो चिकित्सा में जीवन बचा सकती हैं या जटिल जलवायु मुद्दों को हल कर सकती हैं? विनियमन का घर्षण एक वास्तविक लागत है। हमें यह जानने की जरूरत है कि क्या हमें जो सुरक्षा मिलती है, वह उस प्रगति के लायक है जिसे हम खो देते हैं। प्रवर्तन का मुद्दा भी है। आप एक ऐसे मॉडल को कैसे विनियमित करते हैं जो विकेंद्रीकृत नेटवर्क पर या किसी ऐसे देश में होस्ट किया गया है जो अंतरराष्ट्रीय मानदंडों की अनदेखी करता है? नियम केवल उन कंपनियों पर लागू हो सकते हैं जो उनका पालन करना चुनती हैं, जिससे सबसे खतरनाक अभिनेता बिना किसी निगरानी के काम करने के लिए स्वतंत्र हो जाते हैं। यह सुरक्षा की एक झूठी भावना पैदा करता है। हम कानून का पालन करने वाले नागरिकों के चारों ओर एक बाड़ बना रहे हैं जबकि गेट बाकी सभी के लिए खुला है। ये वे सवाल हैं जिनसे नियामक अक्सर बचते हैं। वे प्रणालीगत जोखिमों को अनदेखा करते हुए दिखाई देने वाले जोखिमों पर ध्यान केंद्रित करते हैं। जैसे-जैसे हम आगे बढ़ते हैं, हमें यह सुनिश्चित करना चाहिए कि हमारी सुरक्षा की इच्छा हमें एक खुले और प्रतिस्पर्धी बाजार के मूल्य के प्रति अंधा न कर दे।
क्या आपके पास कोई AI कहानी, उपकरण, ट्रेंड या प्रश्न है जिसके बारे में आपको लगता है कि हमें कवर करना चाहिए? हमें अपना लेख विचार भेजें — हमें इसे सुनकर खुशी होगी।पारदर्शिता का तकनीकी टोल
पावर यूजर्स और डेवलपर्स के लिए, नए नियम विशिष्ट तकनीकी बाधाओं में अनुवादित होते हैं। सबसे महत्वपूर्ण मेट्रिक्स में से एक ‘कंप्यूट थ्रेशोल्ड’ है। अमेरिकी कार्यकारी आदेश 10 की पावर 26 फ्लोटिंग पॉइंट ऑपरेशंस पर एक बार सेट करता है। इससे अधिक पावर के साथ प्रशिक्षित किसी भी मॉडल की सूचना सरकार को दी जानी चाहिए। यह डेवलपर्स को उनके हार्डवेयर उपयोग और ट्रेनिंग रन के विस्तृत लॉग रखने के लिए मजबूर करता है। API सीमाएं भी विनियमन के लिए एक टूल बन रही हैं। दुष्प्रचार की सामूहिक पीढ़ी को रोकने के लिए, कुछ क्षेत्र इस बात पर सीमाएं लगा रहे हैं कि एक उपयोगकर्ता जनरेटिव मॉडल के लिए कितने अनुरोध कर सकता है। यह प्रभावित करता है कि डेवलपर्स उन अनुप्रयोगों का निर्माण कैसे करते हैं जो इन मॉडलों पर निर्भर करते हैं। उन्हें अब अपने कोड और अपने बिजनेस मॉडल में इन सीमाओं का हिसाब रखना होगा। स्थानीय भंडारण एक और प्रमुख कारक है। कानूनों के लिए अक्सर यह आवश्यक होता है कि नागरिकों के बारे में डेटा कुछ भौगोलिक सीमाओं के भीतर रहे। इसका मतलब है कि कंपनियां हर जगह से डेटा प्रोसेस करने के लिए सिर्फ एक केंद्रीय क्लाउड का उपयोग नहीं कर सकती हैं। उन्हें स्थानीय डेटा सेंटर बनाने और बनाए रखने होंगे। तकनीकी आवश्यकताओं में शामिल हैं:
- AI जनरेटेड सामग्री की पहचान करने के लिए API स्तर पर अनिवार्य वॉटरमार्किंग।
- डेटा रेजिडेंसी आवश्यकताएं जो स्थानीय प्रोसेसिंग और स्टोरेज को मजबूर करती हैं।
- 10 की पावर 26 फ्लॉप्स थ्रेशोल्ड से अधिक किसी भी मॉडल ट्रेनिंग के लिए कंप्यूट लॉगिंग।
- व्याख्यात्मक परतें (explainability layers) जो मॉडल वेट और निर्णय पथों के मानव ऑडिट की अनुमति देती हैं।
इंटीग्रेशन वर्कफ़्लो भी बदल रहे हैं। डेवलपर्स को अब पाइपलाइन के हर चरण में सुरक्षा जांच बनानी होगी। यदि आप एक ऐसा टूल बना रहे हैं जो थर्ड-पार्टी API का उपयोग करता है, तो अब आप जिम्मेदार हैं कि वह API डेटा को कैसे संभालता है। आपको यह सुनिश्चित करना होगा कि आपका इंटीग्रेशन प्रदाता द्वारा निर्धारित सुरक्षा फिल्टर को बायपास न करे। कानून का ‘गीक’ सेक्शन वह जगह है जहां असली लड़ाई लड़ी जाती है। यह लेटेंसी, डेटा रेजिडेंसी और मॉडल वेट के गणित के बारे में है। ये वे विवरण हैं जो यह निर्धारित करते हैं कि कोई प्रोडक्ट व्यवहार्य है या क्या इसे अपनी अनुपालन आवश्यकताओं के बोझ तले दबा दिया जाएगा। आप तकनीकी नीति के संबंध में latest news reports में इन तकनीकी बदलावों पर अधिक विवरण पा सकते हैं। जो लोग इन परिवर्तनों से आगे रहना चाहते हैं, उनके लिए latest developments in AI regulation का पालन करना आवश्यक है। इन नियमों की जटिलता का मतलब है कि डेवलपर की भूमिका कोड के साथ-साथ कानून के बारे में भी उतनी ही होती जा रही है।
अधूरा कोड
AI को नियंत्रित करने का प्रयास प्रगति पर है। हम पूर्ण स्वतंत्रता की अवधि से प्रबंधित विकास की ओर बढ़ रहे हैं। आज लिखे गए नियम अगले दशक की तकनीक को आकार देंगे। हालांकि, सॉफ्टवेयर की गति हमेशा कानून की गति से आगे निकल जाती है। जब तक कोई कानून पारित होता है, तब तक तकनीक अक्सर कुछ नया कर चुकी होती है। यह हमें एक जीवंत सवाल के साथ छोड़ देता है जो इस विषय को विकसित करता रहेगा: क्या एक लोकतांत्रिक प्रक्रिया कभी इतनी तेज हो सकती है कि वह ऐसी बुद्धिमत्ता को विनियमित कर सके जो खुद को फिर से लिखती है? अभी के लिए, ध्यान पारदर्शिता और जवाबदेही पर है। हम यह सुनिश्चित करने की कोशिश कर रहे हैं कि इंसान उन मशीनों के प्रभारी बने रहें जिन्हें उन्होंने बनाया है। क्या ये नियम AI को सुरक्षित बनाएंगे या सिर्फ अधिक जटिल, यह देखा जाना बाकी है। एकमात्र निश्चितता यह है कि अनियंत्रित एल्गोरिदम का युग समाप्त हो गया है। यह 2024 और उसके बाद की वास्तविकता है।
संपादक का नोट: हमने इस साइट को उन लोगों के लिए एक बहुभाषी AI समाचार और गाइड हब के रूप में बनाया है जो कंप्यूटर गीक नहीं हैं, लेकिन फिर भी आर्टिफिशियल इंटेलिजेंस को समझना चाहते हैं, इसे अधिक आत्मविश्वास के साथ उपयोग करना चाहते हैं, और उस भविष्य का अनुसरण करना चाहते हैं जो पहले से ही आ रहा है।
कोई त्रुटि मिली या कुछ ऐसा जिसे सुधारने की आवश्यकता है? हमें बताएं।