تحذيرات من المقاطع المزيّفة ودعوات للتثبّت قبل النشر

فتاوى مزوّرة... عبر «الذكاء الاصطناعي»

14 أكتوبر 2023 10:00 م
حذّر خبراء تكنولوجيا من «الاستخدامات السيئة لتقنيات الذكاء الاصطناعي»، لافتين إلى أن «البعض يستخدم هذه التقنيات في التدليس على رجال الدين وكبار العلماء، لنشر فتاوى مزوّرة غير صحيحة».
ودعا الخبراء إلى ضرورة العودة إلى الجهات الرسمية في حال الشك، معتبرين الأمر شائكاً وحسّاساً، ولا ينطبق فقط على علماء الدين، بل يشمل السياسيين وصنّاع الرأي وغيرهم.
وفي الإطار القانوني، رأى الخبراء ضرورة إجراء تعديل تشريعي للتعامل مع جريمة تزييف الأصوات، ومواكبة كل تقنيات الذكاء الاصطناعي.
الرشيدي: التحقق والعودة للجهات الرسمية... في حال الشك

شدّد رئيس لجنة الأمن السيبراني في اتحاد الإعلام الإلكتروني الكويتي محمد الرشيدي لـ«الراي»، على «ضرورة الاعتماد على المواقع الرسمية في حال الرغبة في البحث عن أيّ فتوى، وعدم نشر أو تداول أي مقطع غير موثوق وغير معروف مصدره».
ودعا الرشيدي إلى «التحقق والعودة إلى الجهات الرسمية في حال الشك في أي فتوى دينية»، محذراً من الانسياق وراء المقاطع المزيّفة التي يمكنها إحداث الكثير من الفتن في حال عدم التنبه لها.
معرفي: نحتاج تعديلاً تشريعياً لمواكبة تقنيات الذكاء الاصطناعي

قانونياً، قالت المحامية نيفين معرفي لـ«الراي»، «دائماً ما ننصح بعدم وضع الصور الشخصية في وسائل التواصل الاجتماعي، خصوصاً بالنسبة للبنات حتى لا يتم استخدام هذه الصور في فيديوهات ملفقة للتشهير».
ودعت إلى «تعديل تشريعي للتعامل مع جريمة تزييف الأصوات، ومواكبة كل تقنيات الذكاء الاصطناعي، خصوصاً أننا نحن مجتمعات شرقية لديها عادات وتقاليد»، لافتة إلى أن «البعض يستغل التكنولوجيا في إحداث دمار في المجتمعات والأسر، الأمر الذي قد ينتج عنه جرائم عنف وقتل، ولذا يجب التأكد والتحري قبل إحداث أي ردة فعل».
الأستاذ: موضوع شائك وحسّاس... ولا ينطبق فقط على علماء الدين

قال خبير أمن المعلومات المهندس ناصر الأستاذ لـ«الراي»، إن «هذا الموضوع شائك وحسّاس، ولا ينطبق فقط على علماء الدين، بل ينسحب أيضاً على السياسيين والمشاهير والمؤثرين في المجالات كافة»، موضحاً أن «هذه التقنية تُسمى التزييف العميق، وتستوجب الرجوع للشخص الذي ظهر في الفيديو. حيث يمكن كشف هذا التلاعب عن طريق تحليل الصوت ومحتوى الكلام عبر تقنيات التثبت».
وأشار إلى أن «للذكاء الإصطناعي فوائد جمة، لكن الأمر لا يخلو من سوء استخدام يستوجب التأكد من بصمة الصوت».
«غوغل» حذّرت ودعت لضرورة وضع ضوابط
رئيس شركة «غوغل» سوندر بيشاي، دعا في وقت سابق، رغم امتلاك شركته لمنصة لتطوير الذكاء الاصطناعي، إلى «وضع ضوابط قانونية لتكنولوجيا الذكاء الاصطناعي»، محذراً من «إمكانية اختلاق فيديوهات متقنة التزوير يتم استخدام وجوه أشخاص حقيقيين فيها، من دون إذنهم ولا حتى علمهم».
وشدّد على ضرورة أن «يكون هناك عقوبات لمَنْ يختلق فيديوهات متقنة التزوير تستخدم للإضرار بالمجتمع»، لافتاً إلى أن «أي شخص تعامل مع الذكاء الاصطناعي لفترة من الوقت يدرك تماماً أنه أمر مختلف عن كل ما سبق من تكنولوجيا، لذلك يجب وضع لوائح وقواعد مجتمعية، للتفكير في كيفية استخدام هذه التكنولوجيا».