الاتحاد الأوروبي يحدد مبادئ لتوجيه نماذج الذكاء الاصطناعي ذات المخاطر النظامية

0
45
صورة ارشيفية
صورة ارشيفية

البلجيكية | أويس يوسف

في خطوة تهدف إلى تعزيز الامتثال لقانون الذكاء الاصطناعي الأوروبي، كشفت المفوضية الأوروبية يوم الجمعة عن مبادئ توجيهية جديدة موجهة لنماذج الذكاء الاصطناعي التي تم تصنيفها على أنها ذات “مخاطر نظامية”. تأتي هذه الخطوة في ظل انتقادات من شركات تكنولوجيا كبرى بشأن الأعباء التنظيمية المترتبة على القانون الجديد.

تشمل هذه المبادئ إلزامات صارمة تتعلق بتقييم المخاطر، وإجراء اختبارات مقاومة (أو اختبارات معادية)، والإبلاغ عن الحوادث الكبرى، وضمان حماية قوية للأمن السيبراني. كما يتوجب على النماذج الأساسية (مثل نماذج OpenAI، Google، Meta، Anthropic، وMistral) توفير درجة عالية من الشفافية، عبر توثيق تقني مفصل وسياسات حقوق نشر، إضافة إلى كشف المحتوى المستخدم في التدريب.

وحددت المفوضية موعدًا نهائيًا حتى 2 أغسطس 2026 لتلتزم هذه النماذج بالتشريعات، على أن تفرض غرامات قد تصل إلى 35 مليون يورو أو 7٪ من الإيرادات العالمية في حال المخالفة.

وقالت هينا فيركونين، مسؤولة التكنولوجيا في الاتحاد الأوروبي: هذه المبادئ تساعد على تطبيق قانون الذكاء الاصطناعي بسلاسة وكفاءة، مع حماية الحقوق والمجتمع.

تهدف الخطوة إلى الموازنة بين تشجيع الابتكار في الذكاء الاصطناعي وضمان استخدام مسؤول وآمن للتقنية في أوروبا.

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا