دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي
آخر تحديث GMT01:47:48
 العرب اليوم -

دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي

الذكاء الاصطناعي
أبوظبي - العرب اليوم

كشفت ورقة بحثية من كلية الإمارات للتكنولوجيا عن أبرز مخاطر التزييف العميق عبر تكنولوجيا الذكاء الاصطناعي، وأبرزها تزييف الحقائق وقال دكتور معين صالح الميتمي، في ورقته البحثية لدى كلية الإمارات للتكنولوجيا، إن المقصود بالتزييف العميق (Deepfake) هو دمج صور أي شخص حقيقي لإنتاج مقاطع فيديو بشكل تقني محترف باستخدام شخصية مصطنعة ويتم استخدام تقنيات ذكية عالية الدقة في وسائل إعلام اصطناعية؛ تتمثل هذه التقنيات بمزج التعلم الذكي مع الذكاء الاصطناعي، حيث يتم تعليم برنامج الكمبيوتر بعد ذلك كيفية تقليد تعابير وجه الشخص وسلوكياته وصوته وتصريفاته.

وأضاف: "باستخدام خوارزميات معينة، يتم التلاعب الرقمي للصوت والصورة والمؤثرات البصرية والخروج بمحتوى مزيف يحاكي ويشابه إلى درجة كبيرة جداً الشخصية الحقيقية المستهدفة" وتابع: "هذا ما يجعل من الصعب اكتشاف التزييف عند إطلاق هذا المحتوى الاصطناعي على شبكة الإنترنت وعبر وسائل الإعلام ومواقع التواصل الاجتماعي المختلفة، ويستمر هذا المحتوى بحصد نسب كبيرة من المشاهدات والمشاركات بالملايين حتى بعد اكتشاف التزييف من قبل المتخصصين المحترفين" وعن مخاطر التزييف العميق يقول الميتمي إن التزييف العميق صعب الاكتشاف وسوف يؤثر على ثقة الجمهور بمصادر المعلومات الخاصة بالفيديو وتثير الشكوك حول مدى التزييف الذي طرأ على المحتوى.

ويمكن التطرق إلى بعض المخاطر التي تنشأ عن التزييف العميق فيما يلي : يمكن استخدام هذه التقنية لإحداث تأثيرات سياسية واقتصادية ودينية واجتماعية انتشار هذه التقنية قد يؤدي إلى زيادة الجرائم المفتعلة وخاصة تلك المتعلقة بالحروب الميدانية وبالخيانة الجنسية تحويل اتجاهات الرأي العام نحو قضايا معينة قد تكون سبباً لبعض المنظمات الإرهابية لتبرير إرهابها على المجتمعات انتحال هوية أشخاص آخرين بهدف التشويه أو التزوير أو الاختلاس أو الابتزاز

ويقول الباحث: "في الحقيقة إن إعداد أي فيديو بتقنية التزييف العميق Deepfake يعتمد بشكل أساسي على كمية الصور والفيديوهات المتوفرة عن الشخصية المستهدفة، فكلما كان هناك عدد كبير من الفيديوهات على شبكة الإنترنت أمكن القيام بعملية التزييف العميق".

استخدام التزييف العميق مع الممثل الأمريكي توم كروز

وعلى سبيل المثال ظهرت مقاطع فيديو بتاريخ 22/2/2021 حتى 13/3/2021 للممثل الأمريكي توم كروز حيث قام المبرمج كرس أومي Chris Ume وهو فنان مؤثرات بصرية من بلجيكا مع أحد الممثلين الشبيهين بالممثل الأمريكي توم كروز بأداء حركات ومواقف مختلفة وفق سيناريوم تمثيلي معين مما يسمح له بالتقاط زوايا متعددة وتقليد سلوكه وأنماط حديثه، ونقل الشبكات العصابية لوجه توم كروز المشفرة وتطبيقها على وجه الممثل الشبيه بحرفية عالية الدقة ثم نشره عبر تطبيق تيك توك على حساب "deeptomcruise" الخاص به وعند عرض الفيلم أو مجموعة المقاطع الفيديو أحدثت ضجه كبيرة على وسائل التواصل الاجتماعي وشاهدها الملايين من المستخدمين ، كما تداولتها على القنوات الفضائية التلفزيونية العالمية.

قد يهمك أيضــــــــــــــــًا :

“أوبو” تطلق 3 هواتف بالذكاء الاصطناعي وتدعم الجيل الخامس

فحص متطور للعين يكشف عن الطفل المُعرّض للإصابة بالتوحد

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي



نجوى كرم تتألق في إطلالات باللون الأحمر القوي

القاهرة ـ العرب اليوم

GMT 20:07 2024 الإثنين ,22 إبريل / نيسان

سماع دوي انفجار في رفح جنوب قطاع غزة

GMT 08:56 2024 الثلاثاء ,23 إبريل / نيسان

شهيد في غارة إسرائيلية استهدفت سيارة جنوب لبنان

GMT 16:30 2024 الإثنين ,22 إبريل / نيسان

رئيس الإمارات يستقبل سلطان عمان في أبوظبي

GMT 10:12 2024 الثلاثاء ,23 إبريل / نيسان

219 مستوطنا إسرائيليا يقتحمون المسجد الأقصى

GMT 18:53 2024 الإثنين ,22 إبريل / نيسان

اعتقال 3 ألمان للاشتباه في تجسسهم لصالح الصين
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab