مصنوعی ذہانت کے لیے نیا عالمی ضابطہ اخلاق تیار ہو رہا ہے
اجازت کے بغیر جدت طرازی کا خاتمہ
مصنوعی ذہانت (AI) میں ‘وائلڈ ویسٹ’ کا دور ختم ہو رہا ہے۔ برسوں تک، ڈویلپرز نے بہت کم نگرانی اور جوابدہی کے ساتھ ماڈلز بنائے۔ اب، اس آزادی کی جگہ تعمیل اور حفاظت کے سخت ڈھانچے نے لے لی ہے۔ یہ صرف تجاویز نہیں، بلکہ بھاری جرمانے اور مارکیٹ سے باہر نکالے جانے کے خوف کے ساتھ نافذ سخت قوانین ہیں۔ یورپی یونین اپنے جامع AI ایکٹ کے ساتھ اس کی قیادت کر رہی ہے، جبکہ امریکہ بھی طاقتور ترین ماڈلز کے لیے ایگزیکٹو آرڈرز لا رہا ہے۔ یہ قوانین کوڈ لکھنے اور ڈیٹا اکٹھا کرنے کے طریقوں کو بدل دیں گے۔ اب اگر آپ ایسا ماڈل بناتے ہیں جو انسانی رویے کی پیش گوئی کرے، تو آپ کی کڑی نگرانی ہوگی۔ یہ تبدیلی انڈسٹری کو رفتار سے ہٹا کر حفاظت کی طرف لے جا رہی ہے۔ کمپنیوں کو اب اپنے سسٹمز لانچ کرنے سے پہلے یہ ثابت کرنا ہوگا کہ وہ غیر جانبدار ہیں۔ یہ دنیا کی ہر ٹیک فرم کے لیے نئی حقیقت ہے۔
کوڈ میں خطرے کی درجہ بندی
نئے قوانین کی بنیاد رسک بیسڈ (خطرے پر مبنی) نقطہ نظر ہے۔ اس کا مطلب ہے کہ قانون میوزک ریکمنڈیشن انجن اور میڈیکل تشخیصی ٹول کے ساتھ مختلف سلوک کرتا ہے۔ یورپی یونین نے اس ریگولیشن کے لیے ایک معیار قائم کیا ہے۔ انہوں نے AI کو چار زمروں میں تقسیم کیا ہے۔ ممنوعہ سسٹمز وہ ہیں جو واضح نقصان پہنچاتے ہیں، جیسے کہ شہریوں کی درجہ بندی کرنے والے سوشل اسکورنگ سسٹمز۔ ہائی رسک سسٹمز وہ ہیں جن پر ریگولیٹرز کی سب سے زیادہ نظر ہوگی، جیسے کہ ملازمت یا قرض کے فیصلے کرنے والے سسٹمز؛ ان میں انسانی نگرانی اور اعلیٰ سطح کی درستگی لازمی ہے۔ لمیٹڈ رسک سسٹمز، جیسے چیٹ بوٹس، کو صرف شفافیت دکھانے کی ضرورت ہے۔ یہ فریم ورک حقوق کے تحفظ کے لیے ہے، لیکن ان زمروں کی تعریف پر ابھی بھی بحث جاری ہے۔
یورپی پارلیمنٹ نے EU AI Act کے بارے میں اپنی بریفنگ میں ان زمروں کی تفصیل دی ہے۔ یہ دستاویز دنیا بھر میں AI گورننس کے لیے بنیاد کا کام کر رہی ہے۔
عالمی معیاری کاری کی دوڑ
یہ قوانین صرف یورپ تک محدود نہیں ہیں۔ ہم ‘برسلز ایفیکٹ’ کو حقیقت بنتے دیکھ رہے ہیں، جہاں ایک بڑی مارکیٹ کے قوانین سب کو ماننے پڑتے ہیں۔ یورپی فریم ورک ایک عالمی ٹیمپلیٹ بن رہا ہے۔ برازیل اور کینیڈا بھی اسی طرح کے قوانین پر کام کر رہے ہیں۔ امریکہ، جو پہلے جدت کے لیے نرمی کا حامی تھا، اب زیادہ کنٹرول کی طرف بڑھ رہا ہے۔ وائٹ ہاؤس نے ایک ایگزیکٹو آرڈر جاری کیا ہے جس میں ڈویلپرز کو اپنے سیفٹی ٹیسٹ کے نتائج حکومت کے ساتھ شیئر کرنا ہوں گے۔ یہ ایک ایسا کھیل ہے جہاں قوانین اس وقت لکھے جا رہے ہیں جب گاڑیاں پہلے ہی تیز رفتاری سے چل رہی ہیں۔ US Executive Order اس بات کا واضح اشارہ ہے کہ خود ریگولیشن کا دور ختم ہو چکا ہے۔
کیا آپ کے پاس کوئی AI کہانی، ٹول، رجحان، یا سوال ہے جس کے بارے میں آپ کو لگتا ہے کہ ہمیں اسے شامل کرنا چاہیے؟ ہمیں اپنے مضمون کا خیال بھیجیں — ہمیں اسے سن کر خوشی ہوگی۔
تعمیل کے دفتر میں ایک دن
فرض کریں کہ ایلکس ایک پروڈکٹ مینیجر ہے جو HR کے لیے AI ٹولز بناتا ہے۔ نئے قوانین سے پہلے، ایلکس ہر جمعہ کو اپ ڈیٹ جاری کرتا تھا۔ اب، عمل بہت سست اور محتاط ہے۔ ہر نئی فیچر کو کوڈ کے اجرا سے پہلے سخت رسک اسیسمنٹ سے گزرنا پڑتا ہے۔ ایلکس کو ٹریننگ ڈیٹا کو دستاویزی شکل دینی پڑتی ہے تاکہ یہ ثابت ہو سکے کہ وہ امتیازی سلوک نہیں کرتا۔ اب وہ کوڈنگ کے بجائے کمپلائنس آفیسر کے ساتھ ماڈل کارڈز کا جائزہ لینے میں وقت گزارتا ہے۔ یہ حفاظت کی وجہ سے پیدا ہونے والی رکاوٹ ہے۔ صارفین کے لیے اس کا مطلب نئی فیچرز کا سست اجرا ہو سکتا ہے، لیکن اس کا مطلب یہ بھی ہے کہ بلیک باکس الگورتھم کے ذریعے ملازمت سے غلط طریقے سے مسترد ہونے کا امکان کم ہے۔ ایلکس کو ہر ہفتے کئی کام کرنے پڑتے ہیں:
- ڈیٹا کے ماخذ کا جائزہ لینا تاکہ یقینی بنایا جا سکے کہ ٹریننگ سیٹ قانونی ہیں۔
- ہر نئے ماڈل پر بائس ڈیٹیکشن اسکرپٹس چلانا۔
- بڑے ماڈلز کی ٹریننگ کے لیے استعمال ہونے والے کمپیوٹ وسائل کو دستاویزی شکل دینا۔
- یوزر انٹرفیس کو اپ ڈیٹ کرنا تاکہ لازمی AI انکشافات شامل ہوں۔
- کمپنی کے سیفٹی پروٹوکولز کے تھرڈ پارٹی آڈٹ کا انتظام کرنا۔
مزید معلومات کے لیے ہماری تازہ ترین AI پالیسی تجزیہ دیکھیں۔
BotNews.today مواد کی تحقیق، تحریر، تدوین اور ترجمہ کے لیے AI ٹولز کا استعمال کرتا ہے۔ ہماری ٹیم معلومات کو مفید، واضح اور قابل اعتماد رکھنے کے لیے اس عمل کا جائزہ لیتی ہے اور اس کی نگرانی کرتی ہے۔
نئے ریگولیٹرز کے لیے مشکل سوالات
ان قوانین سے فائدہ کسے ہوتا ہے؟ کیا یہ عوام ہیں، یا بڑی ٹیک کمپنیاں جو قانونی اخراجات برداشت کر سکتی ہیں؟ اگر ایک اسٹارٹ اپ کو اپنی فنڈنگ کا نصف حصہ تعمیل پر خرچ کرنا پڑے، تو کیا یہ مسابقت کو ختم نہیں کر دے گا؟ ہم عالمی عدم مساوات کے بارے میں بھی سوال اٹھاتے ہیں۔ اگر مغرب قوانین طے کرتا ہے، تو گلوبل ساؤتھ کا کیا ہوگا؟ کیا انہیں ایسے معیارات اپنانے پر مجبور کیا جائے گا جو ان کی مقامی ضروریات کے مطابق نہیں؟ اقوام متحدہ کی AI ایڈوائزری باڈی ان عالمی خلا کو پر کرنے کی کوشش کر رہی ہے، لیکن اتفاق رائے مشکل ہے۔
تعمیل کا تکنیکی ڈھانچہ
پاور یوزرز اور ڈویلپرز کے لیے، قوانین بہت مخصوص ہیں۔ امریکی ایگزیکٹو آرڈر کمپیوٹ پاور کو خطرے کے پیمانے کے طور پر دیکھتا ہے۔ اگر کوئی ماڈل 10^26 سے زیادہ فلوٹنگ پوائنٹ آپریشنز استعمال کرتا ہے، تو اسے لازمی رپورٹنگ کرنی پڑتی ہے۔ ڈویلپرز کو ڈیٹا کے ماخذ اور ریڈ ٹیمنگ (جہاں آپ AI کو توڑنے کے لیے لوگوں کو رکھتے ہیں) کے بارے میں بھی فکر مند ہونا پڑتا ہے۔ آپ کو درج ذیل تکنیکی تقاضوں پر غور کرنا ہوگا:
- تمام ماڈل ٹریننگ سیشنز کے لیے مضبوط لاگنگ کا نفاذ۔
- ٹیکسٹ اور امیج آؤٹ پٹس کو واٹر مارک کرنے کے لیے خودکار ٹولز کی تیاری۔
- تھرڈ پارٹی ماڈل آڈٹ کے لیے محفوظ ماحول کا قیام۔
- اس بات کو یقینی بنانا کہ API ریٹ لمٹس سیفٹی فلٹرز کو بائی پاس نہ کریں۔
- ہیومن-ان-دی-لوپ مداخلتوں کا تفصیلی ریکارڈ رکھنا۔
یہ تقاضے ڈویلپر کے ورک فلو کو بدل دیتے ہیں۔ اب یہ صرف درستگی یا رفتار کے بارے میں نہیں ہے، بلکہ ایک ایسے سسٹم کی تعمیر کے بارے میں ہے جو شروع سے آڈٹ کے قابل ہو۔
نامکمل فریم ورک
خلاصہ یہ کہ ‘تیزی سے کام کرو اور چیزیں توڑو’ کا دور ختم ہو چکا ہے۔ اب ہم ‘احتیاط سے کام کرو اور سب کچھ دستاویزی شکل میں رکھو’ کے دور میں داخل ہو رہے ہیں۔ قوانین ابھی بھی لکھے جا رہے ہیں اور یہ مکمل نہیں ہیں۔ یہ حفاظت، منافع اور قومی سلامتی کے درمیان ایک الجھا ہوا سمجھوتہ ہیں۔ ایک بڑا سوال یہ ہے کہ کیا ایک مرکزی قانون کبھی وکندریقرت (decentralized) ٹیکنالوجی کو کنٹرول کر سکتا ہے؟ یہ کہانی کا اختتام نہیں، صرف شروعات کا اختتام ہے۔ ضابطہ اخلاق بننا شروع ہو گیا ہے، لیکن سیاہی ابھی بھی گیلی ہے۔
ایڈیٹر کا نوٹ: ہم نے یہ سائٹ ایک کثیر لسانی AI خبروں اور گائیڈز کے مرکز کے طور پر ان لوگوں کے لیے بنائی ہے جو کمپیوٹر گیکس نہیں ہیں، لیکن پھر بھی مصنوعی ذہانت کو سمجھنا چاہتے ہیں، اسے زیادہ اعتماد کے ساتھ استعمال کرنا چاہتے ہیں، اور اس مستقبل کی پیروی کرنا چاہتے ہیں جو پہلے ہی آ رہا ہے۔
کوئی غلطی یا اصلاح طلب چیز ملی ہے؟ ہمیں بتائیں۔