25h Misc Category

دراسة تحذر من خطر الذكاء الاصطناعي.. ” سيتحكم بالبشر”

%d8%af%d8%b1%d8%a7%d8%b3%d8%a9 %d8%aa%d8%ad%d8%b0%d8%b1 %d9%85%d9%86 %d8%ae%d8%b7%d8%b1 %d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1 %d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a %d8%b3%d9%8a

حُثّت شركات الذكاء الاصطناعي على إعادة تقييم حسابات السلامة التي استند إليها أول اختبار نووي لروبرت أوبنهايمر قبل إطلاق أنظمتها فائقة القدرة. فقد صرّح ماكس تيجمارك، خبير بارز في مجال سلامة الذكاء الاصطناعي، بأنه أجرى حسابات مشابهة للتي قام بها الفيزيائي الأميركي آرثر كومبتون قبل اختبار ترينيتي، ووجد احتمالا بنسبة 90% أن يُشكّل الذكاء الاصطناعي المتطور تهديدا وجوديا.

في ورقة بحثية نشرها تيجمارك وثلاثة من طلابه في معهد ماساتشوستس للتكنولوجيا، أوصى الباحثون بحساب “ثابت كومبتون”، الذي يُعرّف في الورقة بأنه احتمال خروج ذكاء اصطناعي فائق القدرة عن السيطرة البشرية.

صرّح تيجمارك بأنه ينبغي على شركات الذكاء الاصطناعي أن تتحمل مسؤولية الحساب الدقيق لما إذا كان الذكاء الاصطناعي الفائق سيفلت من السيطرة البشرية. وأضاف: “على الشركات التي تُطوّر الذكاء الفائق أن تحسب أيضا ثابت كومبتون، وهو احتمال فقدان السيطرة عليه”. وأكد أنه “لا يكفي القول إننا نشعر بالرضا، بل ينبغي عليهم حساب النسبة المئوية”.

وأكد تيجمارك أن اتفقا على حساب ثابت كومبتون بين الشركات سيسهم في خلق “الإرادة السياسية” اللازمة لوضع أنظمة سلامة عالمية للذكاء الاصطناعي.

يُذكر أن تيجمارك، أستاذ الفيزياء وباحث في الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، هو أيضاً أحد مؤسسي معهد مستقبل الحياة، وهي منظمة غير ربحية تدعم التطوير الآمن للذكاء الاصطناعي. وقد نشر رسالة مفتوحة في عام 2023 دعا فيها إلى التوقف مؤقتا عن بناء أنظمة ذكاء اصطناعي قوية، ووقّع الرسالة أكثر من 33000 شخص، بينهم إيلون ماسك وستيف وزنياك.

وحذرت الرسالة من أن مختبرات الذكاء الاصطناعي عالقة في “سباق خارج عن السيطرة” لنشر “عقول رقمية أكثر قوة” لا يمكن لأحد “فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق”.



عدد المصادر التي تم تحليلها: 1
المصدر الرئيسي : دبي – العربية.نت Alarabiya Logo
post-id: bac07840-3bc0-4894-97ee-41528b4de800