أجرت جوجل تعديلًا كبيرًا على مبادئها الخاصة بالذكاء الاصطناعي، حيث ألغت تعهداتها السابقة بعدم استخدام هذه التكنولوجيا في تطوير الأسلحة أو أنظمة المراقبة. وفقًا لصحيفة واشنطن بوست، لم تعد المبادئ المُعدّلة تتضمن قسم “التطبيقات التي لن نسعى إليها”، الذي كان ينص بوضوح على عدم تطوير أدوات الذكاء الاصطناعي لأغراض عسكرية.
بدلاً من ذلك، أدخلت جوجل جزءًا جديدًا بعنوان “التطوير والتوظيف المسؤول”، الذي يؤكد على أهمية الإشراف البشري والإجراءات التقييمية لضمان توافق التكنولوجيا مع القيم العالمية. حتى وقت قريب، كانت سياسة جوجل تمنع بوضوح استخدام الذكاء الاصطناعي في الأسلحة، ولكن التحديث الجديد يفتح المجال أمام استخدامات أوسع في هذا المجال.
وجاء هذا التغيير بعد جدل طويل داخل الشركة بشأن علاقتها بالجهات العسكرية. ففي عام 2018، بعد احتجاجات من موظفيها، قررت جوجل عدم تجديد عقدها مع وزارة الدفاع الأمريكية. لكن في السنوات الأخيرة، بدأت جوجل بالسعي للحصول على عقود عسكرية مجددًا، بما في ذلك التعاون مع وزارة الدفاع الإسرائيلية.
من خلال هذا التعديل، تسعى جوجل لتولي دور أكبر في تطوير تقنيات الذكاء الاصطناعي للأغراض العسكرية، مما يثير مخاوف بشأن الأخلاقيات وتأثير هذه التكنولوجيا على الحريات والخصوصية. إن دخول جوجل إلى هذا المجال قد يكون له تداعيات كبيرة ويحتاج إلى مراقبة دقيقة لضمان استخدامات تتماشى مع القيم الإنسانية.
عدد المصادر التي تم تحليلها: 6
المصدر الرئيسي : aitnews.com محمد فارس
post-id: 0ea72e82-ef50-4ff8-929a-4f25de6fc4af