التطور السريع للذكاء الاصطناعي.. صداع برأس الجهات التنظيمية

Clock
%d8%a7%d9%84%d8%aa%d8%b7%d9%88%d8%b1 %d8%a7%d9%84%d8%b3%d8%b1%d9%8a%d8%b9 %d9%84%d9%84%d8%b0%d9%83%d8%a7%d8%a1 %d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a %d8%b5%d8%af%d8%a7%d8%b9 %d8%a8

تواجه الجهات التنظيمية حول العالم تحديات كبيرة في مواكبة تطورات الذكاء الاصطناعي، حيث تسعى إلى وضع أطر قانونية فعالة. مثال ذلك هو قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يتكون من 144 صفحة ويعكس الجهد المبذول في هذا المجال. ومع ذلك، يبدو أن القواعد التنظيمية لا تتماشى مع السرعة الهائلة لتطور التكنولوجيا.

وسط هذه المعوقات، تتبنى الحكومات نهجًا يقوم على تصنيف المخاطر. على سبيل المثال، يتم تصنيف التطبيقات بناءً على مستوى المخاطر المترتبة على استخدامها. بينما توجد تطبيقات ذات مخاطر منخفضة مثل المرشحات للإيميل العشوائي، فإن تلك المتعلقة بالتحكم السلوكي تتطلب تشديد اللوائح.

بالإضافة إلى ذلك، يواجه المشرعون صعوبة في تحديد المخاطر المنهجية للذكاء الاصطناعي. إذ يعتبر الأداء الحوسبي مؤشراً غير ثابت، ويمكن أن يتعرض للتغيرات السريعة. مع غياب قوانين شاملة، تتسابق دول مثل الولايات المتحدة والاتحاد الأوروبي لإيجاد حلول فعالة، وهناك أيضًا جهات دولية تسعى لتوحيد الجهود لوضع معايير مشتركة.

وفقًا للدكتور أحمد بانافع من جامعة سان خوسيه، يحتاج تنظيم الذكاء الاصطناعي إلى توازن بين الابتكار وحقوق الأفراد. كما يُعد التعاون بين الحكومات والقطاع الخاص أمرًا ضروريًا لضمان إطار تنظيمي فعّال. بينما يشير الخبير التقني محمد الحارثي إلى اختلاف القدرات التنظيمية حسب الدولة، مؤكدًا على ضرورة تحديث القوانين الحالية لضمان الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي.


عدد المصادر التي تم تحليلها: 5
المصدر الرئيسي : سكاي نيوز عربية
post-id: f8b9e129-bcbf-443b-ab15-41587f1c7685