الهيئة العامة للبيانات والذكاء الاصطناعي "سدايا" تطلق مسودة "سياسة الذكاء الاصطناعي المسؤول" لوضع مبادئ وتوجهات ومتطلبات تنظيمية لاستخدام التقنية بشكل آمن وأخلاقي، بهدف تعزيز الثقة ودعم الابتكار المسؤول.
تهدف السياسة الجديدة، التي نشرت الهيئة مسودتها على منصة "استطلاع" لاستطلاع آراء العموم، إلى تحقيق توازن دقيق بين تبني تقنيات الذكاء الاصطناعي وابتكارها واستخدامها بمسؤولية. تسعى السياسة لرفع مستوى الجاهزية لمواجهة المخاطر الحرجة والعالية، وتوضيح الأدوار والمسؤوليات في كل مرحلة من مراحل دورة حياة أنظمة الذكاء الاصطناعي، بما يضمن حماية الأفراد والمجتمع والقيم الوطنية.
ترتكز السياسة على سبعة مبادئ أخلاقية أساسية: النزاهة والإنصاف لضمان خلو الأنظمة من التحيز والتمييز؛ الخصوصية والأمن لحماية بيانات الأفراد وتطبيق أعلى معايير الأمن السيبراني؛ الإنسانية لخدمة الإنسان واحترام كرامته وحقوقه؛ المنافع الاجتماعية والبيئية لتسخير التقنية للتنمية المستدامة؛ السلامة والموثوقية لضمان أنظمة آمنة وقابلة للاختبار؛ الشفافية والقابلية للتفسير لتوضيح آلية عمل الأنظمة؛ وأخيرًا، المساءلة والمسؤولية لتحميل جميع الأطراف مسؤولية نتائج الأنظمة.
تتضمن السياسة حوافز لتشجيع التطوير والابتكار في مجال الذكاء الاصطناعي، مع التركيز على البيئة التنظيمية الممكنة والمحفزة، ودعم التبني المسؤول في القطاعين العام والخاص، وتعزيز السيادة الرقمية من خلال الابتكار المحلي. كما تشمل آليات لتسجيل الشركات ومنح شهادات أخلاقيات الذكاء الاصطناعي للمنتجات، وتصنيف الأنظمة عالية المخاطر في بيئة تنظيمية تجريبية.
في المقابل، تحذر السياسة من ممارسات الاستخدام غير المسؤول، مثل نشر المحتوى المضلل، والتأثير غير المشروع على الرأي العام، وإنتاج محتوى يضر بسمعة الأفراد أو يهدد الأمن العام، واستخدام تقنيات مثل "التزييف العميق" دون إفصاح. وتؤكد على ضرورة التحقق من موثوقية المصادر، والإفصاح عن المحتوى المنتج بتقنيات الذكاء الاصطناعي، وتحديد مصفوفة واضحة للأدوار والمسؤوليات.
تحدد السياسة التزامات واضحة للمطورين، تشمل بناء الأنظمة وفق مبادئ الخصوصية والشفافية والسلامة، والتحقق من الامتثال لضوابط السيادة الوطنية للبيانات، والحد من التحيز، وضمان الإشراف البشري المستمر. كما تلزم المستخدمين وصناع المحتوى بعدم نشر المحتوى المضلل، والإبلاغ عن استخدام تقنيات الذكاء الاصطناعي، وحماية بيانات الأطفال. وتفرض على الجهات الحكومية إنشاء مكاتب مختصة بالذكاء الاصطناعي للإشراف على الامتثال، وتوفير بنية تحتية آمنة، والالتزام بالتشريعات.


