دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي
آخر تحديث GMT10:08:46
 العرب اليوم -

دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

تقنيات الذكاء الاصطناعي
القاهرة - العرب اليوم

أكدت دار الافتاء أنه لا يجوز شرعًا استخدام تقنية (DeepFake: التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص باستخدام الذكاء الاصطناعي. وقالت دار الإفتاء إن هذه التقنية تستخدم للتزييف وإظهار الأشخاص وكأنهم يفعلون أو يقولون ما لم يفعلوه ولم يقولوه في الحقيقة، مؤكدة أن في ذلك "كذِبا وغشا وإخبارا بخلاف الواقع". وتابعت الدار: "الإسلام إذ حث على الابتكار والاختراع فقد جعله ليس مقصودا لذاته، بل هو وسيلة لتحقيق غرض ما لذا أحاط الإسلام الابتكاراتِ العلمية بسياجٍ أخلاقي يقوم على أساس التقويم والإصلاح وعدم إلحاق الضرر بالنفس أو الإضرار بالغير".

وأشارت إلى أنه: "فمتى كان الشيء الـمخترع وسيلة لأمر مشروعٍ أخذ حكم المشروعية، ومتى كان وسيلة لأمر منهي عنه أخذ حكمه أيضا".د وأكدت أن اختلاق هذه المقاطع بهذه التقنية فيه قصد الإضرار بالغير، وهو أمر منهي عنه في حديث النبي صلى الله وعليه وآله وسلم: "لَا ضرر ولَا ضرار"، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المزاح والترفيه. وهو أيضا جريمة قانونية يعاقب عليها وفق القانون رقم (175) لسنة 2018، الخاص بـ"مكافحة جرائم تقنية المعلومات"، فقد جرم المشرع المصري في هذا القانون نشر المعلومات المضللة والمنحرفة، وأَودع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.

 قد يهمك أيضــــــــــــــــًا :

دار الإفتاء المصرية تحسم الجدل حول نسبة الربح المسموح بها شرعًا

دار الإفتاء المصرية تؤكد أن الشريعة أعطت للمرأة الحق في الخلع من زوجها إذا كرهت الحياة معه

 
arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي



الأسود يُهيمن على إطلالات ياسمين صبري في 2024

القاهرة ـ العرب اليوم

GMT 04:57 2025 الجمعة ,03 كانون الثاني / يناير

زيلينسكي يتهم الغرب باستخدام الأوكرانيين كعمالة رخيصة
 العرب اليوم - زيلينسكي يتهم الغرب باستخدام الأوكرانيين كعمالة رخيصة

GMT 05:19 2025 الخميس ,02 كانون الثاني / يناير

جنوب السودان يثبت سعر الفائدة عند 15%

GMT 19:57 2025 الأربعاء ,01 كانون الثاني / يناير

دراسة حديثة تكشف علاقة الكوابيس الليلية بالخرف

GMT 09:06 2025 الخميس ,02 كانون الثاني / يناير

القضية والمسألة

GMT 09:43 2025 الأربعاء ,01 كانون الثاني / يناير

استعادة ثورة السوريين عام 1925

GMT 09:18 2025 الأربعاء ,01 كانون الثاني / يناير

الكتاتيب ودور الأزهر!

GMT 10:15 2025 الأربعاء ,01 كانون الثاني / يناير

لماذا ينضم الناس إلى الأحزاب؟

GMT 18:11 2025 الأربعاء ,01 كانون الثاني / يناير

النصر يعلن رسميا رحيل الإيفواي فوفانا إلى رين الفرنسي

GMT 18:23 2025 الأربعاء ,01 كانون الثاني / يناير

حنبعل المجبري يتلقى أسوأ بطاقة حمراء في 2025

GMT 21:51 2025 الأربعاء ,01 كانون الثاني / يناير

انفجار سيارة أمام فندق ترامب في لاس فيغاس

GMT 22:28 2025 الأربعاء ,01 كانون الثاني / يناير

27 شهيدا في غزة ومياه الأمطار تغمر 1500 خيمة للنازحين

GMT 19:32 2025 الأربعاء ,01 كانون الثاني / يناير

صاعقة تضرب مبنى الكونغرس الأميركي ليلة رأس السنة

GMT 10:06 2025 الأربعاء ,01 كانون الثاني / يناير

صلاح 9 أم 10 من 10؟

GMT 08:43 2025 الخميس ,02 كانون الثاني / يناير

باكايوكو بديل مُحتمل لـ محمد صلاح في ليفربول
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab