أكبر الأسئلة الأخلاقية التي لا تزال الذكاء الاصطناعي يواجهها
وعدت وادي السيليكون بأن الذكاء الاصطناعي سيحل أصعب مشاكل البشرية. وبدلاً من ذلك، خلقت هذه التكنولوجيا مجموعة جديدة من نقاط الاحتكاك التي لا يمكن لأي قدر من الكود إصلاحها. نحن نتجاوز مرحلة الانبهار وندخل في فترة المساءلة الجادة. القضية الجوهرية ليست تمرد الآلات في المستقبل، بل الواقع الحالي لكيفية بناء هذه الأنظمة ونشرها. يعتمد كل نموذج لغوي كبير على أساس من العمالة البشرية والبيانات المجمعة. وهذا يخلق صراعاً جوهرياً بين الشركات التي تبني الأدوات والأشخاص الذين تدعم أعمالهم هذه الأدوات. يتساءل المنظمون في أوروبا والولايات المتحدة الآن عن المسؤول عندما يرتكب نظام ما خطأً يدمر حياة شخص. لا تزال الإجابة غير واضحة لأن الأطر القانونية لم تُصمم لبرمجيات تتصرف بهذا المستوى من الاستقلالية. نحن نشهد تحولاً في التركيز من ما يمكن للتكنولوجيا فعله إلى ما يجب السماح لها بفعله في الحياة العامة.
احتكاك اتخاذ القرار الآلي
في جوهره، الذكاء الاصطناعي الحديث هو محرك تنبؤ. إنه لا يفهم الحقيقة أو الأخلاق، بل يحسب احتمالية الكلمة أو البكسل التالي بناءً على مجموعات بيانات ضخمة. هذا النقص في الفهم المتأصل يخلق فجوة بين مخرجات الآلة ومتطلبات العدالة البشرية. عندما يستخدم بنك خوارزمية لتحديد الجدارة الائتمانية، قد يحدد النظام أنماطاً ترتبط بالعرق أو الرمز البريدي. ليس لأن الآلة واعية، بل لأن البيانات التاريخية التي تدربت عليها تحتوي على تلك التحيزات. غالباً ما تخفي الشركات هذه العمليات خلف أسرار تجارية، مما يجعل من المستحيل على المتقدم المرفوض معرفة سبب رفضه. هذا النقص في الشفافية هو السمة المميزة لعصر الأتمتة الحالي، وغالباً ما يُطلق عليه مشكلة الصندوق الأسود.
الواقع التقني هو أن هذه النماذج يتم تدريبها على الإنترنت المفتوح، وهو مستودع للمعرفة البشرية والتحيز البشري في آن واحد. يحاول المطورون تصفية هذه البيانات، لكن النطاق يجعل التنقيح المثالي مستحيلاً. عندما نتحدث عن أخلاقيات الذكاء الاصطناعي، فنحن نتحدث في الواقع عن كيفية تعاملنا مع الأخطاء التي تنتجها هذه الأنظمة حتماً. هناك توتر متزايد بين سرعة النشر والحاجة إلى الأمان. تشعر العديد من الشركات بالضغط لإصدار منتجات قبل فهمها بالكامل لتجنب خسارة حصتها في السوق. وهذا يخلق وضعاً يصبح فيه الجمهور مجموعة من