حکومتیں AI کو کنٹرول کرنے کی کوشش کیسے کر رہی ہیں
مشین کے نئے اصول
مصنوعی ذہانت (AI) کے بے لگام دور کا خاتمہ ہو رہا ہے۔ حکومتیں اب صرف تماشا نہیں دیکھ رہیں۔ وہ ایسے اصول و ضوابط لکھ رہی ہیں جو یہ طے کریں گے کہ کوڈ کیسے لکھا جائے اور اسے کہاں استعمال کیا جا سکتا ہے۔ یہ صرف اخلاقیات یا مبہم اصولوں کی بات نہیں ہے، بلکہ یہ سخت قوانین اور بھاری جرمانوں کا معاملہ ہے۔ یورپی یونین نے اپنے AI ایکٹ کے ساتھ اس کی قیادت کی ہے۔ امریکہ نے بھی ایک وسیع ایگزیکٹو آرڈر کے ساتھ اس کی پیروی کی ہے۔ یہ اقدامات دنیا کی ہر ٹیک کمپنی کے لیے حساب کتاب بدل دیتے ہیں۔ اگر آپ کوئی ایسا ماڈل بناتے ہیں جو ایک خاص پاور تھریش ہولڈ سے تجاوز کر جائے، تو اب آپ کے اوپر ایک ہدف ہے۔ آپ کو عوام تک پہنچنے سے پہلے یہ ثابت کرنا ہوگا کہ یہ محفوظ ہے۔ یہ تبدیلی رضاکارانہ حفاظتی وعدوں سے لازمی نگرانی کی طرف منتقلی کی نشاندہی کرتی ہے۔ عام صارف کے لیے، اس کا مطلب یہ ہے کہ کل آپ جو ٹولز استعمال کریں گے وہ آج کے ٹولز سے مختلف ہو سکتے ہیں۔ کچھ فیچرز آپ کے ملک میں بلاک ہو سکتے ہیں۔ دیگر ٹولز اس بارے میں زیادہ شفاف ہو سکتے ہیں کہ وہ آپ کا ڈیٹا کیسے استعمال کرتے ہیں۔ مقصد ترقی اور تحفظ کے درمیان توازن قائم کرنا ہے، لیکن یہ راستہ رکاوٹوں سے بھرا ہوا ہے۔
اخلاقیات سے نفاذ کی طرف پیش قدمی
نئے اصولوں کو سمجھنے کے لیے، آپ کو رسک کیٹیگریز پر غور کرنا ہوگا۔ زیادہ تر حکومتیں ‘ایک سائز سب کے لیے’ والے نقطہ نظر سے دور ہو رہی ہیں۔ اس کے بجائے، وہ سسٹمز کو ان ممکنہ نقصانات کی بنیاد پر درجہ بندی کر رہی ہیں جو وہ پیدا کر سکتے ہیں۔ یہ ایک براہ راست آپریشنل تبدیلی ہے۔ کمپنیاں اب صرف پروڈکٹ ریلیز کر کے اچھے کی امید نہیں رکھ سکتیں۔ انہیں اپنی ٹیکنالوجی کو صارف تک پہنچنے سے پہلے ہی کیٹیگرائز کرنا ہوگا۔ یہ درجہ بندی اس جانچ پڑتال کی سطح کا تعین کرتی ہے جو حکومت لاگو کرے گی۔ یہ اس قانونی ذمہ داری کی سطح کا بھی تعین کرتی ہے جس کا سامنا کمپنی کو کرنا پڑتا ہے اگر کچھ غلط ہو جائے۔ توجہ اس بات سے ہٹ کر کہ AI کیا ہے، اس بات پر مرکوز ہو گئی ہے کہ AI کیا کرتا ہے۔ اگر کوئی سسٹم لوگوں کے بارے میں فیصلے کرتا ہے، تو اس کے ساتھ اس سسٹم کے مقابلے میں بہت زیادہ شک کی نظر سے برتاؤ کیا جاتا ہے جو صرف بلیوں کی تصاویر بناتا ہے۔
سب سے سخت اصول ان سسٹمز پر لاگو ہوتے ہیں جنہیں ناقابل قبول خطرہ سمجھا جاتا ہے۔ ان کی حوصلہ شکنی ہی نہیں کی جاتی، بلکہ ان پر پابندی لگا دی جاتی ہے۔ یہ ڈویلپرز کے لیے ایک واضح حد بناتا ہے۔ وہ بخوبی جانتے ہیں کہ وہ کون سی لائنیں عبور نہیں کر سکتے۔ باقی ہر چیز کے لیے، اصولوں کے تحت نئی سطح کی دستاویزات درکار ہیں۔ کمپنیوں کو اس بات کا تفصیلی ریکارڈ رکھنا ہوگا کہ ان کے ماڈلز کو کیسے ٹرین کیا گیا تھا۔ انہیں یہ بھی بتانے کے قابل ہونا چاہیے کہ ماڈل اپنے نتائج تک کیسے پہنچتا ہے۔ یہ ایک اہم تکنیکی چیلنج ہے کیونکہ بہت سے جدید ماڈلز بنیادی طور پر ‘بلیک باکس’ ہیں۔ انہیں قابلِ وضاحت بنانے کے لیے یہ ضروری ہے کہ ان کے ڈیزائن کے طریقے میں بنیادی تبدیلی لائی جائے۔ اصول یہ بھی مطالبہ کرتے ہیں کہ ٹریننگ کے لیے استعمال ہونے والا ڈیٹا صاف اور تعصب سے پاک ہو۔ اس کا مطلب ہے کہ ڈیٹا اکٹھا کرنے کا عمل اب قانونی آڈٹ کے تابع ہے۔ مندرجہ ذیل کیٹیگریز موجودہ ریگولیٹری نقطہ نظر کی وضاحت کرتی ہیں:
- ممنوعہ سسٹمز جو رویے کو ہیرا پھیری کرنے کے لیے سوشل اسکورنگ یا دھوکہ دہی کی تکنیک استعمال کرتے ہیں۔
- ہائی رسک سسٹمز جو اہم انفراسٹرکچر، بھرتی، اور قانون نافذ کرنے والے اداروں میں استعمال ہوتے ہیں جن کے لیے سخت آڈٹ کی ضرورت ہوتی ہے۔
- محدود رسک سسٹمز جیسے چیٹ بوٹس جنہیں یہ ظاہر کرنا ضروری ہے کہ وہ انسان نہیں ہیں۔
- کم سے کم رسک سسٹمز جیسے AI سے چلنے والی ویڈیو گیمز جنہیں کم پابندیوں کا سامنا ہے۔
یہ ڈھانچہ لچکدار ہونے کے لیے ڈیزائن کیا گیا ہے۔ جیسے جیسے ٹیکنالوجی بدلتی ہے، ہائی رسک ایپلی کیشنز کی فہرست بڑھ سکتی ہے۔ یہ قانون کو متعلقہ رکھتی ہے چاہے سافٹ ویئر کتنا ہی ارتقا پذیر کیوں نہ ہو۔ تاہم، یہ کاروباروں کے لیے مستقل غیر یقینی کی صورتحال بھی پیدا کرتا ہے۔ انہیں مسلسل چیک کرنا پڑتا ہے کہ آیا ان کا نیا فیچر زیادہ ریگولیٹڈ کیٹیگری میں تو نہیں چلا گیا۔ یہ ایک ایسی دنیا میں سافٹ ویئر بنانے کی نئی حقیقت ہے جو مشین کی طاقت سے محتاط ہے۔
ایک بکھرا ہوا عالمی فریم ورک
ان اصولوں کا اثر کسی ایک ملک کی سرحدوں تک محدود نہیں ہے۔ ہم ‘برسلز ایفیکٹ’ کا عروج دیکھ رہے ہیں۔ جب EU ٹیک ریگولیشن کے لیے ایک اعلیٰ معیار طے کرتا ہے، تو عالمی کمپنیاں اکثر اپنے آپریشنز کو آسان بنانے کے لیے ہر جگہ ان معیارات کو اپنا لیتی ہیں۔ مختلف مارکیٹوں کے لیے دس مختلف ورژن بنانے کے مقابلے میں ایک کمپلائنٹ پروڈکٹ بنانا سستا ہے۔ یہ یورپ کو اس بات پر زبردست اثر و رسوخ دیتا ہے کہ سلیکون ویلی میں AI کیسے بنایا جاتا ہے۔ آپ EU AI Act کے بارے میں مزید پڑھ سکتے ہیں تاکہ یہ دیکھ سکیں کہ یہ معیارات کیسے ترتیب دیے گئے ہیں۔ امریکہ میں، نقطہ نظر مختلف ہے لیکن اتنا ہی اہم ہے۔ حکومت ‘ڈیفنس پروڈکشن ایکٹ’ کا استعمال کر رہی ہے تاکہ ٹیک جائنٹس کو اپنے سیفٹی ٹیسٹ کے نتائج شیئر کرنے پر مجبور کیا جا سکے۔ یہ اس بات کا اشارہ ہے کہ امریکہ بڑے پیمانے پر AI کو قومی سلامتی کا معاملہ سمجھتا ہے۔
دریں اثنا، چین نے زیادہ براہ راست راستہ اختیار کیا ہے۔ ان کے ضوابط جنریٹو AI کے ذریعے تیار کردہ مواد پر مرکوز ہیں۔ وہ مطالبہ کرتے ہیں کہ آؤٹ پٹس سماجی اقدار سے ہم آہنگ ہوں اور ریاستی طاقت کو کمزور نہ کریں۔ یہ ایک بکھری ہوئی دنیا پیدا کرتا ہے جہاں ایک ہی ماڈل لاگ ان ہونے کی جگہ کے لحاظ سے مختلف برتاؤ کر سکتا ہے۔ بیجنگ میں ایک ماڈل کے گارڈ ریلز پیرس یا نیویارک کے مقابلے میں مختلف ہوں گے۔ یہ تقسیم ان ڈویلپرز کے لیے سر درد پیدا کرتی ہے جنہیں اب متضاد اصولوں کے جال میں کام کرنا پڑتا ہے۔ کچھ ممالک زیادہ کشادگی چاہتے ہیں جبکہ دوسرے بیانیے پر زیادہ کنٹرول چاہتے ہیں۔ عالمی سامعین کے لیے، اس کا مطلب یہ ہے کہ AI کا تجربہ مقامی بن رہا ہے۔ ایک واحد، سرحدوں سے آزاد انٹرنیٹ کا خواب دھندلا رہا ہے۔ اس کی جگہ ایک ریگولیٹڈ ماحول ہے جہاں آپ کا مقام یہ طے کرتا ہے کہ مشین کو آپ کو کیا بتانے کی اجازت ہے۔ یہ 2024 کی نئی حقیقت ہے۔ یہ ایک ایسی تبدیلی ہے جو تکنیکی ترقی کی اگلی دہائی کی وضاحت کرے گی۔
ریگولیٹری نظر کے تحت روزمرہ کی زندگی
سارہ نامی ایک پروجیکٹ مینیجر کی عام صبح کا تصور کریں۔ وہ اپنے دن کی شروعات ای میلز کی ایک لمبی چین کا خلاصہ کرنے کے لیے ایک AI ٹول کھول کر کرتی ہے۔ نئے ضوابط کے تحت، اس کے سافٹ ویئر کو اسے مطلع کرنا ہوگا کہ خلاصہ ایک الگورتھم کے ذریعے تیار کیا گیا ہے۔ اسے یہ بھی یقینی بنانا ہوگا کہ اس کا کمپنی ڈیٹا اس کی رضامندی کے بغیر پبلک ماڈل کو ٹرین کرنے کے لیے استعمال نہیں ہو رہا ہے۔ یہ حالیہ قوانین میں شامل نئی پرائیویسی تحفظات کا براہ راست نتیجہ ہے۔ بعد میں، سارہ ایک ٹیک فرم میں نئی ملازمت کے لیے درخواست دیتی ہے۔ فرم ایک AI اسکریننگ ٹول استعمال کرتی ہے۔ چونکہ یہ ایک ہائی رسک ایپلی کیشن ہے، اس لیے کمپنی کو تعصب کے لیے ٹول کا آڈٹ کرنا پڑا ہے۔ سارہ کو قانونی حق حاصل ہے کہ وہ اس بات کی وضاحت مانگے کہ AI نے اسے اس طرح کیوں درجہ بندی دی۔ ماضی میں، اسے ایک عام مسترد شدہ جواب ملتا۔ اب، اس کے پاس شفافیت کا راستہ ہے۔ یہ ایک ٹھوس مثال ہے کہ گورننس کارپوریشنز اور افراد کے درمیان طاقت کی حرکیات کو کیسے بدلتی ہے۔
دوپہر میں، سارہ ایک شاپنگ مال سے گزرتی ہے۔ کچھ شہروں میں، چہرے کی شناخت (facial recognition) ٹارگٹڈ اشتہارات دکھانے کے لیے اس کی نقل و حرکت کو ٹریک کر رہی ہوتی۔ سخت EU اصولوں کے تحت، اس قسم کی ریئل ٹائم نگرانی محدود ہے۔ مال کے پاس اسے استعمال کرنے کی ایک مخصوص قانونی وجہ ہونی چاہیے اور سارہ کو مطلع کیا جانا چاہیے۔ وہ جو پروڈکٹس استعمال کرتی ہے وہ بھی بدل رہے ہیں۔ OpenAI اور Google جیسی کمپنیاں مقامی قوانین کی تعمیل کرنے کے لیے اپنے فیچرز کو پہلے ہی ایڈجسٹ کر رہی ہیں۔ آپ نے دیکھا ہوگا کہ کچھ امیج جنریشن ٹولز آپ کے علاقے میں دستیاب نہیں ہیں یا ان میں سخت فلٹرز ہیں جو انہیں عوامی شخصیات کے حقیقت پسندانہ چہرے بنانے سے روکتے ہیں۔ یہ کوئی تکنیکی حد نہیں ہے۔ یہ ایک قانونی حد ہے۔ ان اصولوں کے لیے دلیل اس وقت حقیقی محسوس ہوتی ہے جب آپ ڈیپ فیکس کے انتخابات میں خلل ڈالنے یا متعصب الگورتھم کے لوگوں کو رہائش سے محروم کرنے کے امکان پر غور کرتے ہیں۔ گارڈ ریلز لگا کر، حکومتیں ان نقصانات کو ہونے سے پہلے روکنے کی کوشش کر رہی ہیں۔ یہ AI سیفٹی کے لیے امریکی نقطہ نظر عملی طور پر ہے۔
BotNews.today مواد کی تحقیق، تحریر، تدوین اور ترجمہ کے لیے AI ٹولز کا استعمال کرتا ہے۔ ہماری ٹیم معلومات کو مفید، واضح اور قابل اعتماد رکھنے کے لیے اس عمل کا جائزہ لیتی ہے اور اس کی نگرانی کرتی ہے۔