باحثون وخبراء يدعون إلى وضع قواعد عالمية للذكاء الاصطناعي
طالب عدد من الباحثين والمديرين التنفيذيين في مجال الذكاء الاصطناعي بوضع إطار تنظيمي عالمي يهدف إلى فرض قيود على استخدام هذه التقنية، وذلك لتجنب آثارها السلبية المحتملة على البشرية. وقد تم نشر هذا النداء في بداية الجمعية العامة للأمم المتحدة في نيويورك، حيث أشار الموقِّعون إلى الفوائد العديدة التي يمكن أن يحملها الذكاء الاصطناعي، إلا أن مساره الحالي يحمل مخاطر غير مسبوقة.
ودعا الموقعون إلى ضرورة التعاون بين الدول من أجل التوصل إلى اتفاقات دولية تحدد الخطوط الحمراء لاستخدام الذكاء الاصطناعي، وتفرض قيوداً على الجهات الفاعلة في هذا المجال. كما أكدوا أهمية تقديم “ضمانات بالحد الأدنى” التي توافق عليها الحكومات للتعامل مع أكثر المخاطر إلحاحًا.
تقف وراء هذه المبادرة منظمات متعددة، من بينها المركز الفرنسي للأمان في الذكاء الاصطناعي و”ذي فيوتشر سوسايتي”، بالإضافة إلى 20 منظمة شريكة. ونبه الموقّعون إلى أن الذكاء الاصطناعي قد يتفوق قريبًا على القدرات البشرية، مما قد يزيد من المخاطر المتعلقة بالأوبئة وانتشار المعلومات المضللة.
ومن أبرز الشخصيات المُوقِّعة على هذا النداء، جيسون كلينتون، كبير مسؤولي الأمن المعلوماتي في شركة “أنثروبيك”، وعدد من موظفي شركة “ديب مايند” وشركة “أوبن إيه آي”، بالإضافة إلى الحائز على جائزة نوبل في الفيزياء جيفري هينتون، والأستاذ يوشوا بينجيو.
تسعى العديد من الجهات في هذا المجال إلى تطوير الذكاء الاصطناعي العام، الذي يعادل القدرات الفكرية البشرية، وذلك في سياق ضرورة وضع قواعد تنظيمية أسوة بالمبادرات السابقة لتقليل المخاطر المرتبطة بالتكنولوجيا.
عدد المصادر التي تم تحليلها: 6
المصدر الرئيسي : Skynews ![]()
معرف النشر: ECON-230925-600

