علوم وتقنيات

عرض الكل

وثيقة “مبادئ التزييف العميق”.. الصادرة من سدايا تعزز الاستخدام المسؤول للذكاء الاصطناعي

🗓 مايو 8, 2026 ⏱ 1 دقيقة قراءة

برزت تقنيات “التزييف العميق” بوصفها إحدى أكثر التقنيات تأثيرًا على المشهد الرقمي عالميًا، لما تتيحه من قدرة عالية على إنتاج محتوى صوتي ومرئي يبدو واقعيًا بصورة يصعب تمييزها عن الحقيقة، الأمر الذي فتح المجال أمام استخدامات متعددة تحمل في طياتها فرصًا واسعة ومخاطر متزايدة في الوقت ذاته.
وتناولت وثيقة “مبادئ التزييف العميق” التي أصدرتها الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا”، مفهوم التزييف العميق بوصفه وسائط اصطناعية يتم إنتاجها عبر تقنيات التعلم العميق للتلاعب بالمحتوى الرقمي، سواء كان صوتًا أو صورة أو فيديو، بما يجعل اكتشاف التلاعب أكثر تعقيدًا مع تطور أدوات الذكاء الاصطناعي وانتشارها على نطاق واسع.
وأوضحت الوثيقة أن هذه التقنيات، رغم ما تحمله من تطبيقات إيجابية في مجالات التعليم، والرعاية الصحية، والترفيه، والتسويق، وصناعة المحتوى، قد تُستخدم بصورة خبيثة في عمليات الاحتيال، أو انتحال الشخصيات، أو نشر المعلومات المضللة، أو التأثير على الرأي العام، أو الإضرار بخصوصية الأفراد وسمعتهم، وهو ما يستدعي تطوير أطر أخلاقية وتنظيمية تعزز الاستخدام المسؤول للتقنيات الحديثة.
وبيّنت الوثيقة أن من أخطر الممارسات المرتبطة بالتزييف العميق استخدام تقنيات تقليد الأصوات والوجوه في عمليات الاحتيال المالي أو التلاعب بالمحتوى أو التضليل الإعلامي، مشيرة إلى أن بعض العمليات الاحتيالية أصبحت تعتمد على انتحال شخصيات تنفيذية أو عامة عبر مكالمات فيديو أو تسجيلات صوتية مزيفة يصعب كشفها بالوسائل التقليدية.
وتطرقت الوثيقة إلى الآثار الاجتماعية والإنسانية المرتبطة بإساءة استخدام هذه التقنيات، مشددة على ضرورة التزام مطوري تقنيات التزييف العميق وصنّاع المحتوى بالمعايير الأخلاقية والتنظيمية، من خلال حماية البيانات الشخصية، والحصول على الموافقات اللازمة قبل استخدام الصور أو الأصوات أو البيانات، إضافة إلى تطبيق تدابير تقنية تسهم في الحد من إساءة الاستخدام، مثل العلامات المائية الرقمية، وتقنيات التحقق من المصدر، وأنظمة الحوكمة والرقابة المستمرة.
ويمكن للراغبين والمهتمين الاطلاع على وثيقة مبادئ التزييف العميق من خلال الرابط التالي: https://sdaia.gov.sa/ar/SDAIA/about/Files/File0001.pdf