كيف تحاول الحكومات السيطرة على الذكاء الاصطناعي في 2026
القواعد الجديدة للآلة
لقد انتهى عصر الغرب المتوحش في الذكاء الاصطناعي. لم تعد الحكومات تكتفي بالمشاهدة من الخطوط الجانبية، بل بدأت في كتابة قواعد اللعبة التي ستحدد كيفية كتابة الكود وأين يمكن نشره. الأمر لا يتعلق فقط بالأخلاقيات أو المبادئ الغامضة، بل بقوانين صارمة وغرامات طائلة. قاد الاتحاد الأوروبي الطريق بقانون الذكاء الاصطناعي (AI Act)، وتبعته الولايات المتحدة بأمر تنفيذي شامل. هذه الإجراءات تغير الحسابات لكل شركة تقنية على وجه الأرض. إذا قمت ببناء نموذج يتجاوز عتبة قوة معينة، فقد أصبحت الآن تحت المجهر؛ إذ يجب عليك إثبات أمانه قبل أن يصل للجمهور. يمثل هذا التحول الانتقال من تعهدات السلامة الطوعية إلى الرقابة الإلزامية. بالنسبة للمستخدم العادي، هذا يعني أن الأدوات التي تستخدمها غداً قد تبدو مختلفة عن تلك التي تستخدمها اليوم. قد يتم حظر بعض الميزات في بلدك، بينما قد تصبح أدوات أخرى أكثر شفافية بشأن كيفية استخدام بياناتك. الهدف هو الموازنة بين التقدم والحماية، لكن الطريق مليء بالاحتكاك.
من الأخلاقيات إلى التنفيذ
لفهم القواعد الجديدة، يجب أن تنظر إلى فئات المخاطر. معظم الحكومات تبتعد عن نهج “مقاس واحد يناسب الجميع”، وبدلاً من ذلك، تقوم بتصنيف الأنظمة بناءً على الضرر المحتمل الذي قد تسببه. هذا تغيير تشغيلي مباشر؛ فلم يعد بإمكان الشركات ببساطة إطلاق منتج وتمني الأفضل، بل يجب عليها تصنيف تقنيتها قبل أن تصل إلى المستخدم. يحدد هذا التصنيف مستوى التدقيق الذي ستطبقه الحكومة، كما يحدد مستوى المسؤولية القانونية التي تواجهها الشركة في حال حدوث خطأ ما. تحول التركيز من “ما هو الذكاء الاصطناعي” إلى “ماذا يفعل الذكاء الاصطناعي”. إذا كان النظام يتخذ قرارات بشأن الأشخاص، فسيتم التعامل معه بشكوك أكبر بكثير من نظام يولد صوراً للقطط.
تطبق القواعد الأكثر صرامة على الأنظمة التي تعتبر ذات مخاطر غير مقبولة. هذه الأنظمة لا يتم تثبيطها فحسب، بل يتم حظرها تماماً، مما يخلق حدوداً واضحة للمطورين يعرفون من خلالها الخطوط التي لا يمكنهم تجاوزها. بالنسبة لكل شيء آخر، تتطلب القواعد مستوى جديداً من التوثيق؛ إذ يجب على الشركات الاحتفاظ بسجلات مفصلة لكيفية تدريب نماذجها، ويجب أن تكون قادرة على شرح كيفية وصول النموذج إلى استنتاجاته. هذا تحدٍ تقني كبير لأن العديد من النماذج الحديثة هي في الأساس صناديق سوداء. إجبارها على أن تكون قابلة للتفسير يتطلب تغييراً جذرياً في كيفية تصميمها. كما تتطلب القواعد أن تكون البيانات المستخدمة للتدريب نظيفة وخالية من التحيز، مما يعني أن عملية جمع البيانات نفسها تخضع الآن لعمليات تدقيق قانونية. تحدد الفئات التالية النهج التنظيمي الحالي:
- الأنظمة المحظورة التي تستخدم التصنيف الاجتماعي أو تقنيات خادعة للتلاعب بالسلوك.
- الأنظمة عالية المخاطر المستخدمة في البنية التحتية الحيوية، والتوظيف، وإنفاذ القانون، والتي تتطلب عمليات تدقيق صارمة.
- الأنظمة محدودة المخاطر مثل روبوتات الدردشة التي يجب أن تفصح عن أنها ليست بشراً.
- الأنظمة ذات المخاطر الدنيا مثل ألعاب الفيديو التي تدعم الذكاء الاصطناعي والتي تواجه قيوداً أقل.
هذا الهيكل مصمم ليكون مرناً؛ فمع تغير التكنولوجيا، يمكن أن تنمو قائمة التطبيقات عالية المخاطر، مما يبقي القانون ملائماً حتى مع تطور البرمجيات. ومع ذلك، فإنه يخلق أيضاً حالة من عدم اليقين الدائم للشركات، حيث يجب عليها التحقق باستمرار مما إذا كانت ميزتها الجديدة قد انتقلت إلى فئة أكثر تنظيماً. هذه هي الحقيقة الجديدة لبناء البرمجيات في عالم يحذر من قوة الآلة.
إطار عمل عالمي متصدع
تأثير هذه القواعد لا يقتصر على حدود دولة واحدة. نحن نشهد صعود “تأثير بروكسل” (Brussels Effect)؛ فعندما يضع الاتحاد الأوروبي معياراً عالياً لتنظيم التكنولوجيا، غالباً ما تتبنى الشركات العالمية تلك المعايير في كل مكان لتبسيط عملياتها. من الأرخص بناء منتج واحد متوافق بدلاً من بناء عشر نسخ مختلفة لأسواق مختلفة. هذا يمنح أوروبا تأثيراً هائلاً على كيفية بناء الذكاء الاصطناعي في وادي السيليكون. يمكنك قراءة المزيد حول قانون الذكاء الاصطناعي للاتحاد الأوروبي لمعرفة كيفية هيكلة هذه المعايير. في الولايات المتحدة، النهج مختلف ولكنه مهم بنفس القدر؛ حيث تستخدم الحكومة قانون الإنتاج الدفاعي لإجبار عمالقة التكنولوجيا على مشاركة نتائج اختبارات السلامة الخاصة بهم، مما يشير إلى أن الولايات المتحدة تعتبر الذكاء الاصطناعي واسع النطاق مسألة أمن قومي.
في غضون ذلك، اتخذت الصين مساراً أكثر مباشرة؛ حيث تركز لوائحها على المحتوى الذي ينتجه الذكاء الاصطناعي التوليدي، وتتطلب أن تتماشى المخرجات مع القيم الاجتماعية وألا تقوض سلطة الدولة. هذا يخلق عالماً مجزأً حيث قد يتصرف نفس النموذج بشكل مختلف اعتماداً على المكان الذي تسجل دخولك منه. سيكون للنموذج في بكين حواجز حماية مختلفة عن تلك الموجودة في باريس أو نيويورك. هذا التجزؤ يمثل صداعاً للمطورين الذين يجب عليهم الآن العمل عبر شبكة من القواعد المتضاربة. بعض الدول تريد المزيد من الانفتاح بينما تريد أخرى المزيد من السيطرة على السردية. بالنسبة للجمهور العالمي، هذا يعني أن تجربة الذكاء الاصطناعي أصبحت محلية. حلم الإنترنت الواحد بلا حدود يتلاشى، وفي مكانه بيئة منظمة حيث يحدد موقعك ما يُسمح للآلة بإخبارك به. هذه هي الحقيقة الجديدة لعام 2024، وهو تحول سيحدد العقد القادم من النمو التكنولوجي.
الحياة اليومية تحت العين التنظيمية
تخيل صباحاً نموذجياً لمديرة مشاريع تدعى سارة. تبدأ يومها بفتح أداة ذكاء اصطناعي لتلخيص سلسلة طويلة من رسائل البريد الإلكتروني. بموجب اللوائح الجديدة، يجب أن يخطرها برنامجها بأن الملخص تم إنشاؤه بواسطة خوارزمية. كما يجب عليه التأكد من أن بيانات شركتها لا تُستخدم لتدريب النموذج العام دون موافقتها. هذه نتيجة مباشرة لحماية الخصوصية الجديدة المضمنة في القوانين الأخيرة. لاحقاً، تتقدم سارة لوظيفة جديدة في شركة تقنية تستخدم أداة فحص بالذكاء الاصطناعي. ولأن هذا تطبيق عالي المخاطر، كان على الشركة تدقيق الأداة بحثاً عن التحيز. تمتلك سارة الحق القانوني في طلب شرح لسبب تصنيف الذكاء الاصطناعي لها بالطريقة التي فعلها. في الماضي، كانت ستتلقى رفضاً عاماً، أما الآن فلديها مسار للشفافية. هذا مثال ملموس على كيفية تغيير الحوكمة لديناميكيات القوة بين الشركات والأفراد.
في فترة ما بعد الظهر، تتجول سارة في مركز تسوق. في بعض المدن، كانت تقنية التعرف على الوجه ستتتبع تحركاتها لتقديم إعلانات مستهدفة. بموجب قواعد الاتحاد الأوروبي الصارمة، يتم تقييد هذا النوع من المراقبة في الوقت الفعلي؛ إذ يجب أن يكون لدى المركز التجاري سبب قانوني محدد لاستخدامه ويجب إبلاغ سارة بذلك. المنتجات التي تستخدمها تتغير أيضاً؛ فشركات مثل OpenAI وGoogle تقوم بالفعل بتعديل ميزاتها للامتثال للقوانين المحلية. قد تلاحظ أن بعض أدوات توليد الصور غير متوفرة في منطقتك أو أن لديها مرشحات صارمة تمنعها من إنشاء وجوه واقعية لشخصيات عامة. هذا ليس قيداً تقنياً، بل هو قيد قانوني. تبدو الحجة لهذه القواعد حقيقية عندما تفكر في إمكانية استخدام التزييف العميق (deepfakes) لتعطيل الانتخابات أو استخدام خوارزميات متحيزة لحرمان الناس من السكن. من خلال وضع حواجز الحماية، تحاول الحكومات منع هذه الأضرار قبل وقوعها. هذا هو نهج الولايات المتحدة تجاه سلامة الذكاء الاصطناعي قيد التنفيذ.
يستخدم BotNews.today أدوات الذكاء الاصطناعي للبحث عن المحتوى وكتابته وتحريره وترجمته. يقوم فريقنا بمراجعة العملية والإشراف عليها للحفاظ على المعلومات مفيدة وواضحة وموثوقة.
التكاليف الخفية للامتثال
يجب أن نطرح الأسئلة الصعبة حول من يفوز حقاً في عالم منظم. هل العبء التنظيمي الثقيل يحمي الجمهور فعلياً، أم أنه يحمي الشركات القائمة فقط؟ تمتلك شركات التكنولوجيا الكبرى الموارد اللازمة لتوظيف مئات المحامين والمهندسين للتعامل مع الامتثال، بينما لا تملك الشركات الناشئة الصغيرة ذلك. نحن نخاطر بخلق عالم لا يستطيع فيه سوى العمالقة تحمل تكاليف الابتكار، مما قد يؤدي إلى منافسة أقل وأسعار أعلى للمستخدمين. هناك أيضاً مسألة الخصوصية مقابل الأمن؛ فعندما تطالب الحكومات بالوصول إلى الأعمال الداخلية لنموذج الذكاء الاصطناعي، من يحمي تلك البيانات؟ إذا تمكنت الحكومة من تدقيق نموذج لضمان سلامته، فيمكنها أيضاً استخدام نفس الوصول لمراقبة ما يتعلمه النموذج من مستخدميه. هذه مقايضة نادراً ما تُناقش في المنتديات العامة.
يجب أن نأخذ في الاعتبار أيضاً التكلفة الخفية للابتكار. إذا كان يجب أن تمر كل ميزة جديدة بعملية موافقة طويلة، فهل سنفوت اختراقات قد تنقذ الأرواح في الطب أو تحل قضايا المناخ المعقدة؟ احتكاك التنظيم هو تكلفة حقيقية. نحن بحاجة إلى معرفة ما إذا كانت السلامة التي نكتسبها تستحق التقدم الذي نفقده. هناك أيضاً مسألة الإنفاذ؛ كيف تنظم نموذجاً مستضافاً على شبكة لا مركزية أو في بلد يتجاهل المعايير الدولية؟ قد تنطبق القواعد فقط على الشركات التي تختار اتباعها، مما يترك الجهات الأكثر خطورة حرة في العمل دون رقابة. هذا يخلق شعوراً زائفاً بالأمان؛ فنحن نبني سياجاً حول المواطنين الملتزمين بالقانون بينما تظل البوابة مفتوحة للجميع. هذه هي الأسئلة التي يتجنبها المنظمون غالباً، حيث يركزون على المخاطر المرئية بينما يتجاهلون المخاطر النظامية. بينما نمضي قدماً، يجب أن نتأكد من أن رغبتنا في السلامة لا تعمينا عن قيمة سوق مفتوح وتنافسي.
هل لديك قصة، أداة، اتجاه، أو سؤال عن الذكاء الاصطناعي تعتقد أنه يجب علينا تغطيته؟ أرسل لنا فكرتك للمقالة — نود أن نسمعها.الضريبة التقنية للشفافية
بالنسبة للمستخدمين المتقدمين والمطورين، تترجم اللوائح الجديدة إلى قيود تقنية محددة. أحد أهم المقاييس هو عتبة الحوسبة. يضع الأمر التنفيذي الأمريكي حداً عند 10 مرفوعاً للقوة 26 من عمليات الفاصلة العائمة (flops). أي نموذج يتم تدريبه بقوة أكبر من هذه يجب إبلاغ الحكومة به، مما يجبر المطورين على الاحتفاظ بسجلات مفصلة لاستخدام أجهزتهم وعمليات التدريب. أصبحت حدود واجهة برمجة التطبيقات (API) أيضاً أداة للتنظيم؛ ولمنع التوليد الجماعي للمعلومات المضللة، تدرس بعض المناطق حدوداً لعدد الطلبات التي يمكن لمستخدم واحد إجراؤها لنموذج توليدي. يؤثر هذا على كيفية بناء المطورين للتطبيقات التي تعتمد على هذه النماذج، حيث يجب عليهم الآن مراعاة هذه الحدود في كودهم ونماذج أعمالهم. التخزين المحلي عامل رئيسي آخر؛ فغالباً ما تتطلب القوانين بقاء بيانات المواطنين ضمن حدود جغرافية معينة، مما يعني أن الشركات لا يمكنها ببساطة استخدام سحابة مركزية لمعالجة البيانات من كل مكان، بل يجب عليها بناء وصيانة مراكز بيانات محلية. تشمل المتطلبات التقنية ما يلي:
- وضع علامة مائية إلزامية على مستوى API لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
- متطلبات إقامة البيانات التي تفرض المعالجة والتخزين المحلي.
- تسجيل الحوسبة لأي تدريب نموذج يتجاوز عتبة 10 مرفوعاً للقوة 26 من عمليات الفاصلة العائمة.
- طبقات القابلية للتفسير التي تسمح بالتدقيق البشري لأوزان النموذج ومسارات القرار.
تتغير أيضاً سير عمل التكامل؛ إذ يجب على المطورين الآن بناء فحوصات السلامة في كل مرحلة من مراحل خط الأنابيب. إذا كنت تبني أداة تستخدم API تابع لجهة خارجية، فأنت الآن مسؤول عن كيفية تعامل هذا الـ API مع البيانات. يجب عليك التأكد من أن تكاملك لا يتجاوز مرشحات السلامة التي وضعها المزود. قسم “المهووسين” في القانون هو المكان الذي تُخاض فيه المعارك الحقيقية؛ فهو يتعلق بزمن الاستجابة، وإقامة البيانات، ورياضيات أوزان النماذج. هذه هي التفاصيل التي تحدد ما إذا كان المنتج قابلاً للاستمرار أو ما إذا كان سيُدفن تحت وطأة متطلبات الامتثال الخاصة به. يمكنك العثور على مزيد من التفاصيل حول هذه التحولات التقنية في أحدث التقارير الإخبارية المتعلقة بسياسة التكنولوجيا. بالنسبة لأولئك الذين يرغبون في البقاء في صدارة هذه التغييرات، فإن متابعة أحدث التطورات في تنظيم الذكاء الاصطناعي أمر ضروري. تعقيد هذه القواعد يعني أن دور المطور أصبح يتعلق بالقانون بقدر ما يتعلق بالكود.
الكود غير المكتمل
محاولة السيطرة على الذكاء الاصطناعي هي عمل قيد التنفيذ. نحن ننتقل من فترة الحرية الكاملة إلى فترة النمو المُدار. القواعد المكتوبة اليوم ستشكل تكنولوجيا العقد القادم، ومع ذلك، فإن سرعة البرمجيات تتفوق دائماً على سرعة التشريع. بحلول الوقت الذي يتم فيه تمرير قانون ما، غالباً ما تكون التكنولوجيا قد انتقلت إلى شيء جديد. هذا يتركنا مع سؤال حي سيجعل هذا الموضوع يتطور باستمرار: هل يمكن للعملية الديمقراطية أن تكون سريعة بما يكفي لتنظيم ذكاء يعيد كتابة نفسه؟ في الوقت الحالي، ينصب التركيز على الشفافية والمساءلة. نحن نحاول ضمان بقاء البشر مسؤولين عن الآلات التي بنوها. ما إذا كانت هذه القواعد ستجعل الذكاء الاصطناعي أكثر أماناً أو مجرد أكثر تعقيداً، فهذا ما ستكشفه الأيام. اليقين الوحيد هو أن عصر الخوارزمية غير المنظمة قد انتهى. هذه هي حقيقة عام 2024 وما بعده.
ملاحظة المحرر: لقد أنشأنا هذا الموقع كمركز إخباري وإرشادي متعدد اللغات للذكاء الاصطناعي للأشخاص الذين ليسوا خبراء في الكمبيوتر، ولكنهم ما زالوا يرغبون في فهم الذكاء الاصطناعي، واستخدامه بثقة أكبر، ومتابعة المستقبل الذي بدأ بالفعل في الوصول.
هل وجدت خطأ أو شيئًا يحتاج إلى تصحيح؟ أخبرنا.