تكنولوجيا

أستاذ في جامعة ستانفورد يواجه اتهامات باستخدام الذكاء الاصطناعي في شهادة مزيفة

%d8%a3%d8%b3%d8%aa%d8%a7%d8%b0 %d9%81%d9%8a %d8%ac%d8%a7%d9%85%d8%b9%d8%a9 %d8%b3%d8%aa%d8%a7%d9%86%d9%81%d9%88%d8%b1%d8%af %d9%8a%d9%88%d8%a7%d8%ac%d9%87 %d8%a7%d8%aa%d9%87%d8%a7%d9%85%d8%a7%d8%aa

تواجه جامعة ستانفورد جدلاً حول أستاذها جيف هانكوك، الذي تم اتهامه باستخدام الذكاء الاصطناعي لإنتاج مراجع مزيفة في شهادته كخبير في قضية قانونية تتعلق بالتزييف العميق في ولاية مينيسوتا. وتهدف الشهادة إلى استكشاف تأثير التزييف العميق على السلوك السياسي، لكن المدّعين اكتشفوا أن بعضها مُستند إلى مراجع غير موجودة، مما أثار تساؤلات حول مصداقيتها.

هذه القضية تُبرز المخاوف المرتبطة باستخدام نماذج الذكاء الاصطناعي في الأوساط الأكاديمية والقانونية. يُعرف بعضها بـ”هلوسات الذكاء الاصطناعي”، حيث تنتج النماذج معلومات تبدو دقيقة لكنها خاطئة. في سياق القضايا القانونية، يُطلب من المحاكم تقييم موثوقية أبرز الشهادات، وفي حالة هانكوك، قد تؤدي هذه الاكتشافات إلى استبعاد شهادته.

إن استخدام الذكاء الاصطناعي في مجالات حساسة يتطلب معيارًا قويًا للشفافية والمساءلة. ينادي الخبراء بضرورة الإفصاح عن المنهجيات المستخدمة، وإقامة إرشادات أخلاقية صارمة لتجنب التداعيات السلبية على نزاهة الأبحاث القانونية والأكاديمية.

تحذر قضية هانكوك من أهمية التعامل المسؤول مع أدوات الذكاء الاصطناعي، خاصة في المجالات المهنية. إن الحفاظ على الدقة والمصداقية هو أمر حيوي لتفادي فقدان الثقة العامة. يجب أن تكون هناك آليات واضحة وفعالة لضمان الاستخدام الأخلاقي لتلك التكنولوجيا، بما يساهم في تعزيز المعايير المهنية بدلاً من تقويضها.



عدد المصادر التي تم تحليلها: 7
المصدر الرئيسي : رافي برازي
post-id: 033ecd87-6163-46a6-8d68-39bcbdc9e423

1 دقيقة و 1 ثانية قراءة