AI के भविष्य को बदलने वाले अदालती मामले
वर्तमान में संघीय अदालतों में चल रही कानूनी लड़ाई सिर्फ पैसे या लाइसेंसिंग शुल्क के बारे में नहीं है। यह इस बात को परिभाषित करने का एक बुनियादी संघर्ष है कि जेनरेटिव मॉडल के युग में ‘निर्माण’ का क्या अर्थ है। वर्षों तक, टेक कंपनियों ने बिना किसी विरोध के ओपन वेब से डेटा स्क्रैप किया, यह मानकर कि उनके काम का पैमाना उन्हें एक तरह की सुरक्षा प्रदान करेगा। वह दौर अब खत्म हो गया है। न्यूयॉर्क और कैलिफोर्निया के जज अब यह तय कर रहे हैं कि क्या कोई मशीन कॉपीराइट सामग्री से वैसे ही सीख सकती है जैसे एक छात्र किताब से सीखता है, या क्या ये मॉडल केवल हाई-स्पीड साहित्यिक चोरी (plagiarism) के परिष्कृत इंजन हैं। इसका परिणाम अगले दशक के लिए इंटरनेट की आर्थिक संरचना तय करेगा। यदि अदालतें यह फैसला सुनाती हैं कि ट्रेनिंग एक ‘ट्रांसफॉर्मेटिव’ उपयोग है, तो विकास की वर्तमान गति जारी रहेगी। यदि वे फैसला सुनाती हैं कि हर डेटा पॉइंट के लिए स्पष्ट अनुमति जरूरी है, तो बड़े पैमाने पर सिस्टम बनाने की लागत आसमान छू जाएगी। यह फाइल शेयरिंग के शुरुआती दिनों के बाद से सबसे महत्वपूर्ण कानूनी तनाव है, लेकिन दांव पर मानव ज्ञान और अभिव्यक्ति के मूल तत्व लगे हैं।
फेयर यूज (Fair Use) की सीमाओं को परिभाषित करना
लगभग हर बड़े मुकदमे के केंद्र में ‘फेयर यूज’ का सिद्धांत है। यह कानूनी सिद्धांत विशिष्ट परिस्थितियों में, जैसे आलोचना, समाचार रिपोर्टिंग या शोध के लिए अनुमति के बिना कॉपीराइट सामग्री के उपयोग की अनुमति देता है। टेक कंपनियों का तर्क है कि उनके मॉडल मूल कार्यों की प्रतियां संग्रहीत नहीं करते हैं। इसके बजाय, उनका दावा है कि मॉडल कुछ नया बनाने के लिए शब्दों या पिक्सल के बीच गणितीय संबंधों को सीखते हैं। इसे ही इंडस्ट्री ‘ट्रांसफॉर्मेटिव यूज’ कहती है। वे सर्च इंजन से जुड़े पिछले फैसलों का हवाला देते हैं, जिन्हें वेबसाइटों को इंडेक्स करने की अनुमति दी गई थी क्योंकि उन्होंने मूल सामग्री को बदलने के बजाय एक नई सेवा प्रदान की थी। हालांकि, वादी, जिनमें बड़े समाचार संगठन और कलाकारों के समूह शामिल हैं, का तर्क है कि जेनरेटिव सिस्टम अलग हैं। उनका दावा है कि ये मॉडल सीधे उन लोगों के साथ प्रतिस्पर्धा करने के लिए डिज़ाइन किए गए हैं जिनके काम पर उन्हें ट्रेन किया गया है। जब कोई यूजर किसी AI से किसी जीवित लेखक की शैली में कहानी लिखने के लिए कहता है, तो मॉडल उस लेखक के जीवन भर की मेहनत का उपयोग उनकी भविष्य की आय को संभावित रूप से बदलने के लिए कर रहा होता है।
इन मामलों में प्रक्रियात्मक कदम अंतिम फैसलों जितने ही महत्वपूर्ण हैं। जज द्वारा मामले के गुण-दोष पर फैसला लेने से पहले, उन्हें खारिज करने के प्रस्तावों और डिस्कवरी अनुरोधों पर फैसला करना होता है। ये शुरुआती चरण टेक कंपनियों को यह बताने के लिए मजबूर करते हैं कि उन्होंने वास्तव में किस डेटा का उपयोग किया और उसे कैसे प्रोसेस किया। कई कंपनियों ने प्रतिस्पर्धी लाभ का हवाला देते हुए अपने ट्रेनिंग सेट को गुप्त रखा है। अदालतें अब उस गोपनीयता को खत्म कर रही हैं। भले ही कोई मामला अंततः अदालत के बाहर सुलझ जाए, डिस्कवरी चरण के दौरान सार्वजनिक की गई जानकारी भविष्य के नियमों के लिए एक रोडमैप प्रदान कर सकती है। हम एक ऐसा बदलाव देख रहे हैं जहां सबूत का बोझ रचनाकारों से टेक दिग्गजों की ओर बढ़ रहा है। अदालतें केवल AI के अंतिम आउटपुट को नहीं, बल्कि डेटा इनजेशन की पूरी पाइपलाइन को देख रही हैं। इसमें यह शामिल है कि डेटा कैसे स्क्रैप किया गया, इसे कहां स्टोर किया गया, और क्या इस प्रक्रिया के दौरान किसी डिजिटल राइट्स मैनेजमेंट टूल को बायपास किया गया। ये तकनीकी विवरण पूरी इंडस्ट्री के लिए नए कानूनी मानकों का आधार बनेंगे।
डेटा अधिकारों में अंतरराष्ट्रीय भिन्नता
जबकि अमेरिकी अदालतें ‘फेयर यूज’ पर ध्यान केंद्रित कर रही हैं, बाकी दुनिया एक अलग रास्ता अपना रही है। यह वैश्विक टेक फर्मों के लिए एक खंडित कानूनी वातावरण बनाता है। यूरोपीय संघ में, AI Act सख्त पारदर्शिता आवश्यकताओं को पेश करता है। यह अनिवार्य करता है कि कंपनियां ट्रेनिंग के लिए उपयोग की गई कॉपीराइट सामग्री का खुलासा करें, चाहे ट्रेनिंग कहीं भी हुई हो। यह अमेरिकी प्रणाली के विपरीत है, जो बाद में मुकदमेबाजी पर अधिक निर्भर करती है। EU का दृष्टिकोण सक्रिय है, जिसका उद्देश्य मॉडल के सार्वजनिक होने से पहले ही कॉपीराइट उल्लंघन को रोकना है। दर्शन में इस अंतर का मतलब है कि जो मॉडल सैन फ्रांसिस्को में चलाने के लिए कानूनी है, वह बर्लिन में तैनात करने के लिए अवैध हो सकता है। वैश्विक दर्शकों के लिए, इसका मतलब है कि आपके क्षेत्र में उपलब्ध फीचर्स स्थानीय डेटा संप्रभुता की व्याख्याओं पर निर्भर करेंगे। कुछ देश