أهم قوانين وتشريعات الذكاء الاصطناعي التي يجب أن تتابعها
لقد انتهى عصر الذكاء الاصطناعي بلا قيود. بدأت الحكومات حول العالم في الانتقال من الاقتراحات الغامضة إلى قوانين صارمة بفرض غرامات باهظة. إذا كنت تقوم ببناء أو استخدام البرمجيات، فإن القواعد تتغير تحت قدميك. لم يعد الأمر يتعلق بالأخلاقيات فقط، بل بالامتثال القانوني وخطر التعرض لمليارات الدولارات كعقوبات. لقد وضع الاتحاد الأوروبي وتيرة العمل من خلال أول قانون شامل ورئيسي، لكن الولايات المتحدة والصين ليستا بعيدتين عن الركب. ستحدد هذه القواعد الميزات التي يمكنك استخدامها وكيفية تعامل الشركات مع بياناتك. يعتقد معظم الناس أن هذه مشكلة بعيدة تخص المحامين فقط، وهم مخطئون. فهي تؤثر على كل شيء، بدءاً من كيفية تقديمك لوظيفة وصولاً إلى كيفية ترتيب موجز شبكات التواصل الاجتماعي الخاص بك. نحن نشهد ولادة صناعة منظمة تشبه الخدمات المصرفية أو الطب أكثر من الويب المفتوح في الماضي. سيحدد هذا التحول العقد القادم من التطوير التقني والاستراتيجية المؤسسية. حان الوقت للنظر في التفويضات المحددة التي تنتقل من أروقة الحكومة إلى الكود البرمجي في تطبيقاتك.
التحول العالمي نحو مراقبة الذكاء الاصطناعي
جوهر التنظيم الحالي هو قانون الذكاء الاصطناعي للاتحاد الأوروبي. لا يعامل هذا القانون جميع البرمجيات بنفس الطريقة، بل يستخدم إطار عمل يعتمد على المخاطر لتقرير ما هو مسموح وما هو غير مسموح. في قمة الهرم توجد الأنظمة المحظورة، وتشمل أشياء مثل التعرف البيومتري في الوقت الفعلي في الأماكن العامة أو التقييم الاجتماعي من قبل الحكومات؛ وهي محظورة ببساطة لأنها تشكل خطراً كبيراً على الحريات المدنية. تحت ذلك توجد الأنظمة عالية المخاطر، وتشمل الذكاء الاصطناعي المستخدم في التعليم، أو التوظيف، أو البنية التحتية الحيوية. إذا قامت شركة ببناء أداة لفحص السير الذاتية، فيجب عليها إثبات أنها ليست متحيزة، كما يجب عليها الاحتفاظ بسجلات مفصلة وتوفير إشراف بشري. يستهدف القانون أيضاً النماذج ذات الأغراض العامة، حيث يجب أن تكون هذه النماذج شفافة بشأن كيفية تدريبها، وعليها احترام قوانين حقوق النشر وتلخيص البيانات المستخدمة في التدريب. هذا تغيير هائل عن الطريقة السرية التي كانت تُبنى بها النماذج قبل عامين فقط.
في الولايات المتحدة، النهج مختلف ولكنه مهم بنفس القدر. أصدر البيت الأبيض أمراً تنفيذياً يتطلب من مطوري الأنظمة القوية مشاركة نتائج اختبارات السلامة الخاصة بهم مع الحكومة، ويستخدم قانون إنتاج الدفاع لضمان عدم تحول الذكاء الاصطناعي إلى تهديد للأمن القومي. هذا ليس قانوناً أقره الكونغرس، لكنه يحمل ثقل المشتريات الحكومية والرقابة. يركز الأمر على اختبارات الاختراق (red-teaming)، وهي ممارسة اختبار النظام بحثاً عن نقاط الضعف أو المخرجات الضارة. لدى الصين مجموعتها الخاصة من القواعد التي تركز على صدق المحتوى وحماية النظام الاجتماعي. وبينما تختلف الأساليب، فإن الهدف واحد؛ تريد الحكومات استعادة السيطرة على تكنولوجيا تحركت أسرع مما توقعوا. يمكنك العثور على مزيد من التفاصيل حول المتطلبات المحددة في وثائق قانون الذكاء الاصطناعي للمفوضية الأوروبية الرسمية. هذه القواعد هي الأساس الجديد لأي شركة ترغب في العمل على نطاق عالمي.
تمتد هذه القوانين إلى ما هو أبعد من حدود الدول التي تكتبها، وهو ما يُعرف غالباً بـ “تأثير بروكسل”. إذا أرادت شركة تقنية كبرى بيع برمجياتها في أوروبا، فيجب عليها الامتثال لقواعد الاتحاد الأوروبي. وبدلاً من بناء إصدارات مختلفة لكل دولة، ستقوم معظم الشركات ببساطة بتطبيق القواعد الأكثر صرامة على منتجها العالمي بالكامل. وهذا يعني أن قانوناً تم تمريره في بروكسل يصبح فعلياً قانوناً لمطور في كاليفورنيا أو مستخدم في طوكيو. إنه يخلق حداً أدنى عالمياً للسلامة والشفافية، ولكنه يخلق أيضاً عالماً مجزأً حيث يتم إيقاف بعض الميزات ببساطة في مناطق معينة. نحن نشهد حدوث ذلك بالفعل؛ فقد أخرت بعض الشركات إطلاق ميزات متقدمة في أوروبا لأن المخاطر القانونية عالية جداً. وهذا يخلق فجوة رقمية حيث قد يتمتع المستخدمون في الولايات المتحدة بإمكانية الوصول إلى أدوات لا يملكها المستخدمون في فرنسا. بالنسبة للمبدعين، هذا يعني أن عملهم محمي بشكل أفضل من استخدامه كبيانات تدريب دون إذن. بالنسبة للحكومات، إنه سباق لمعرفة من يمكنه أن يصبح المركز العالمي للتكنولوجيا الموثوقة. المخاطر عالية؛ فإذا بالغت دولة في التنظيم، فقد تفقد أفضل مواهبها، وإذا قللت من التنظيم، فإنها تخاطر بسلامة مواطنيها. هذا التوتر هو الوضع الطبيعي الجديد للاقتصاد التقني العالمي. يمكنك تتبع هذه التغييرات من خلال الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي الذي يحدد الاستراتيجية الأمريكية للموازنة بين الابتكار والسلامة.
فكر في يوم في حياة مهندس برمجيات يدعى ماركوس. قبل عامين، كان بإمكان ماركوس الحصول على مجموعة بيانات من الويب وتدريب نموذج في عطلة نهاية أسبوع واحدة دون الحاجة لطلب إذن من أحد. اليوم، يبدأ صباحه باجتماع امتثال، حيث يتعين عليه توثيق مصدر كل صورة في مجموعة تدريبه، وإجراء اختبارات لضمان أن النموذج لا يميز ضد مناطق جغرافية محددة. قامت شركته بتعيين مسؤول امتثال ذكاء اصطناعي رئيسي جديد لديه سلطة إيقاف أي إطلاق. هذه هي الواقع التشغيلي؛ لم يعد الأمر يتعلق بالكود فقط، بل بمسار التدقيق. يقضي ماركوس ثلاثين بالمائة من وقته في كتابة تقارير للمنظمين بدلاً من كتابة ميزات للمستخدمين. هذه هي الضريبة الخفية لعصر التنظيم الجديد. بالنسبة للمستخدم العادي، التأثير أكثر دقة ولكنه عميق بنفس القدر. عندما تتقدم بطلب للحصول على قرض، يجب أن يكون البنك قادراً على شرح سبب رفض الذكاء الاصطناعي لك؛ فلديك الحق في الحصول على تفسير. هذا ينهي عصر الصندوق الأسود لاتخاذ القرار الآلي. يميل الناس إلى المبالغة في تقدير مدى سرعة إيقاف هذه القوانين للأخطاء، ويقللون من تقدير مدى إبطاء هذه القوانين لإطلاق الميزات الجديدة. نحن ننتقل من عالم برمجيات بيتا إلى عالم البرمجيات المعتمدة، مما سيؤدي إلى منتجات أكثر استقراراً ولكن قفزات جذرية أقل.
يستخدم BotNews.today أدوات الذكاء الاصطناعي للبحث عن المحتوى وكتابته وتحريره وترجمته. يقوم فريقنا بمراجعة العملية والإشراف عليها للحفاظ على المعلومات مفيدة وواضحة وموثوقة.
يرى المبدعون أيضاً تحولاً؛ حيث يُطلب من المنصات الكبيرة الآن تصنيف المحتوى المُنشأ. إذا رأيت صورة واقعية على موجزك، فهناك احتمال كبير أن تحتوي على علامة صغيرة تشير إلى أنها صُنعت بواسطة آلة. هذه نتيجة مباشرة لمتطلبات الشفافية، وهي تغير كيفية ثقتنا فيما نراه عبر الإنترنت. غالباً ما يخفي ضجيج النقاش السياسي هذه التغييرات العملية. بينما يتحدث السياسيون عن المخاطر الوجودية، يحدث العمل الحقيقي في أقسام الامتثال في كل شركة كبرى. للبقاء على اطلاع بهذه التحولات، تحقق من أحدث تحليلات سياسة الذكاء الاصطناعي للحصول على نظرة متعمقة في القواعد الإقليمية المحددة.
تغييرات عملية للصناعة
- اختبارات سلامة إلزامية لأي نموذج يتجاوز عتبات معينة لقوة الحوسبة.
- حق المستخدمين في الحصول على تفسير لأي قرار آلي يؤثر على وضعهم القانوني.
- متطلبات صارمة لتصنيف البيانات والإفصاح عن حقوق النشر في مجموعات التدريب.
- غرامات باهظة يمكن أن تصل إلى سبعة بالمائة من إجمالي الإيرادات العالمية للشركة.
- إنشاء مكاتب وطنية للذكاء الاصطناعي لمراقبة الامتثال والتحقيق في الشكاوى.
يجب أن نسأل عما إذا كانت هذه القواعد تحمي الجمهور بالفعل أم أنها تحمي الأقوياء فقط. هل يساعد تنظيم من أربعمائة صفحة شركة ناشئة صغيرة، أم يضمن بقاء الشركات التي لديها فرق قانونية بمليارات الدولارات فقط؟ إذا كانت تكلفة الامتثال مرتفعة للغاية، فقد نسلم احتكاراً دائماً لعمالقة التكنولوجيا الحاليين. نحتاج أيضاً إلى التشكيك في تعريف السلامة؛ من يقرر ما هو الخطر غير المقبول؟ إذا كان بإمكان الحكومة حظر أنواع معينة من الذكاء الاصطناعي، فيمكنها أيضاً استخدام تلك القوة لإسكات المعارضة أو التحكم في المعلومات. هناك تكلفة خفية للشفافية أيضاً؛ إذا كان على الشركة الكشف بالضبط عن كيفية عمل نموذجها، فهل يجعل ذلك من السهل على الجهات الفاعلة السيئة العثور على نقاط الضعف؟ نحن نستبدل السرعة بالسلامة، لكننا لم نحدد بعد ما تبدو عليه السلامة فعلياً. هل من الممكن تنظيم صناعة تتغير كل ستة أشهر بقوانين تستغرق سنوات لكتابتها؟ هذه هي الأسئلة التي ستحدد ما إذا كان عصر التنظيم هذا نجاحاً أم فشلاً. يجب أن نكون حذرين من بناء نظام جامد لدرجة أنه يصبح قديماً قبل أن يجف الحبر. تظهر القواعد في الصين، التي تديرها إدارة الفضاء الإلكتروني الصينية، كيف يمكن تفسير السلامة على أنها استقرار اجتماعي. هذا يسلط الضوء على المسارات الفلسفية المختلفة التي تتخذها الدول. يجب أن نكون متشككين في أي قانون يدعي حل جميع المشاكل بينما يخلق مشاكل جديدة للجيل القادم من البناة.
المعايير التقنية وسير عمل الامتثال
بالنسبة للجمهور التقني، يتحول التركيز نحو حزمة الامتثال، والتي تشمل أدوات لتتبع البيانات وتدقيق النماذج الآلي. ينظر المطورون إلى معايير C2PA للعلامة المائية الرقمية، والتي تتضمن تضمين بيانات وصفية في الملفات تصمد أمام القص أو إعادة الحفظ. هناك أيضاً توجه نحو التخزين المحلي للبيانات الحساسة؛ للامتثال لقواعد الخصوصية، تبتعد الشركات عن معالجة السحابة المركزية لمهام معينة، وتستخدم الحوسبة الطرفية (edge computing) لإبقاء بيانات المستخدم على الجهاز. يتم أيضاً إعادة تصميم حدود واجهة برمجة التطبيقات (API). لا يتعلق الأمر فقط بتحديد معدل حركة المرور، بل يتعلق بمرشحات الأمان التي تحظر أنواعاً معينة من الاستعلامات على مستوى الأجهزة. نحن نشهد صعود “بطاقات النماذج” (Model Cards) التي تشبه ملصقات التغذية للذكاء الاصطناعي، حيث تدرج بيانات التدريب، والاستخدام المقصود، والقيود المعروفة. من منظور سير العمل، يعني هذا دمج الاختبار الآلي في عملية التكامل المستمر. في كل مرة يتم فيها تحديث نموذج، يجب أن يجتاز سلسلة من الاختبارات للتحيز والسلامة قبل نشره. هذا يضيف تأخيراً إلى دورة التطوير ولكنه يقلل من خطر كارثة قانونية. تنظر الشركات أيضاً في كيفية التعامل مع طلبات حذف البيانات للنماذج المدربة، وهو تحد تقني كبير. إذا طلب مستخدم إزالة بياناته، فكيف يمكنك جعل الشبكة العصبية “تنسى” تلك البيانات؟ هنا تلتقي القوانين بحدود علوم الكمبيوتر الحالية. نحن نشهد فئة جديدة من البرمجيات المصممة خصيصاً لإدارة هذه المتطلبات القانونية.
سيكون العام القادم أول اختبار حقيقي لهذه القوانين. سنرى الغرامات الكبرى الأولى والقضايا القضائية الأولى التي تحدد حدود سلطة الحكومة. التقدم الهادف سيكون مجموعة واضحة من المعايير التي تسمح للشركات الصغيرة بالمنافسة دون الغرق في الأعمال الورقية. يجب أن نتطلع إلى ظهور مدققين من طرف ثالث يمكنهم التصديق على أن الذكاء الاصطناعي آمن. الهدف هو تجاوز الضجيج والخوف. نحن بحاجة إلى نظام تخدم فيه التكنولوجيا الناس دون انتهاك حقوقهم. سيكون تنفيذ **قانون الذكاء الاصطناعي للاتحاد الأوروبي** هو الإشارة الأساسية التي يجب مراقبتها. إذا كان الإنفاذ عدوانياً للغاية، فقد نشهد هروب رؤوس الأموال إلى مناطق أخرى. وإذا كان ضعيفاً للغاية، فسيُنظر إلى القانون على أنه نمر من ورق. القواعد هنا، والآن علينا أن نرى ما إذا كانت تعمل حقاً في العالم الحقيقي.
هل وجدت خطأ أو شيئًا يحتاج إلى تصحيح؟ أخبرنا.
ملاحظة المحرر: لقد أنشأنا هذا الموقع كمركز إخباري وإرشادي متعدد اللغات للذكاء الاصطناعي للأشخاص الذين ليسوا خبراء في الكمبيوتر، ولكنهم ما زالوا يرغبون في فهم الذكاء الاصطناعي، واستخدامه بثقة أكبر، ومتابعة المستقبل الذي بدأ بالفعل في الوصول.