ميتا تضع علامات لتحديد محتوى الذكاء الاصطناعي
آخر تحديث GMT22:13:03
 العرب اليوم -

ميتا تضع علامات لتحديد "محتوى الذكاء الاصطناعي"

 العرب اليوم -

 العرب اليوم - ميتا تضع علامات لتحديد "محتوى الذكاء الاصطناعي"

مجموعة ميتا المالكة لشركة فيسبوك
واشنطن ـ العرب اليوم

تعتزم شركة ميتا الأميركية العملاقة وضع تصنيف خاص للتعرف إلى الأصوات والصور ومقاطع الفيديو الناتجة من الذكاء الاصطناعي على شبكاتها الاجتماعية اعتباراً من مايو المقبل، وفق رسالة نُشرت عبر مدونة الجمعة.

وأوضحت مونيكا بيكرت، نائبة الرئيس المسؤولة عن سياسات المحتوى في الشركة الأم لفيسبوك وإنستغرام وواتساب وثريدز، "نخطط للبدء في تصنيف المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي في مايو 2024"، لافتة إلى أن علامة "Made with AI" ("صُنع باستخدام الذكاء الاصطناعي") ستوضع "على عدد أكبر من محتويات الفيديو والصوت والصور" مقارنة بالسابق.

وأشارت إلى أن المجموعة ستضع هذه العلامات على منصاتها عند رصد "مؤشرات إلى صور بالذكاء الاصطناعي بما يتوافق مع المعايير المعمول بها في القطاع"، أو إذا ما "أشار أشخاص إلى أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي".

وأعلنت المجموعة الأميركية أنها ستغيّر الطريقة التي تعالج بها المحتوى المعدل بواسطة الذكاء الاصطناعي، وذلك بعد التشاور مع مجلسها الإشرافي، معتبرة أن "الشفافية وإضافة عناصر أكثر لتوضيح السياق أصبحتا تشكّلان أفضل طريقة لمعالجة المحتوى الخاضع للتلاعب"، "من أجل تجنب مخاطر وضع قيود لا طائل منها على حرية التعبير".
أخبار ذات صلة
متجر آبل
بعد آيفون.. ما هو الاختراع الذكي الذي يطبخ في مختبرات آبل؟
الذكاء الاصطناعي
الذكاء الاصطناعي يدبّر مقابلات مع الموتى.. ويهدد بها الأحياء

وباتت ميتا تفضّل إضافة "علامات وعناصر من السياق" إلى هذا النوع من المحتوى، بدلاً من إزالته كما كانت تفعل حتى الآن.

ومع ذلك، أوضحت ميتا أنها ستواصل إزالة أي محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعي، إذا ما كان يتعارض مع قواعدها "ضد التدخل في العملية الانتخابية أو التخويف أو المضايقة أو العنف أو أي سياسة أخرى مدرجة في معايير مجتمعنا".

وتعتمد المجموعة أيضاً على شبكتها المكونة من "حوالى 100 مدقق حقائق مستقل" لتحديد المحتوى "الخاطئ أو المضلل" الذي ينتجه الذكاء الاصطناعي.

وأعلنت الشركة الأم لفيسبوك في فبراير الماضي رغبتها في تصنيف أي صورة يتم إنشاؤها بواسطة الذكاء الاصطناعي، وهو قرار اتُّخذ على خلفية الحرب ضد المعلومات المضللة.

وقد تعهدت شركات تكنولوجيا عملاقة أخرى مثل مايكروسوفت وغوغل وأوبن إيه آي اتخاذ إجراءات مماثلة.

قد يهمك أيضــــــــــــــــًا :

عطل مفاجئ يضرب فيسبوك وانستغرام وماسنجر حول العالم

 

إتاحة ربط حساب فيسبوك بعدة بروفايلات

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

ميتا تضع علامات لتحديد محتوى الذكاء الاصطناعي ميتا تضع علامات لتحديد محتوى الذكاء الاصطناعي



GMT 02:27 2024 الجمعة ,22 تشرين الثاني / نوفمبر

روسيا تغرم جوجل 3.8 مليون روبل لعدم إزالة محتوى محظور

GMT 04:22 2024 الثلاثاء ,19 تشرين الثاني / نوفمبر

الصين تطور صاروخًا فضائيًا قابلًا لإعادة الاستخدام

GMT 03:24 2024 الجمعة ,15 تشرين الثاني / نوفمبر

آبل تطور حزاما لساعاتها الذكية بمواصفات خاصة

إطلالات هند صبري مصدر إلهام للمرأة العصرية الأنيقة

القاهرة ـ العرب اليوم

GMT 22:13 2024 الأحد ,24 تشرين الثاني / نوفمبر

تعليق التدريس الحضوري في بيروت ومحيطها حتى نهاية العام
 العرب اليوم - تعليق التدريس الحضوري في بيروت ومحيطها حتى نهاية العام

GMT 21:25 2024 الأحد ,24 تشرين الثاني / نوفمبر

هوكشتاين يُهدّد بالانسحاب من الوساطة بين إسرائيل ولبنان
 العرب اليوم - هوكشتاين يُهدّد بالانسحاب من الوساطة بين إسرائيل ولبنان

GMT 15:41 2024 السبت ,23 تشرين الثاني / نوفمبر

ميرهان حسين تكشف مفاجأة عن أعمالها المقبلة
 العرب اليوم - ميرهان حسين تكشف مفاجأة عن أعمالها المقبلة

GMT 08:50 2024 الأحد ,24 تشرين الثاني / نوفمبر

انطلاق الدورة الثانية من مهرجان الشارقة للسيارات القديمة
 العرب اليوم - انطلاق الدورة الثانية من مهرجان الشارقة للسيارات القديمة

GMT 14:30 2024 السبت ,23 تشرين الثاني / نوفمبر

نائبة الرئيس الفلبيني تتفق مع قاتل مأجور لاغتياله وزوجته
 العرب اليوم - نائبة الرئيس الفلبيني تتفق مع قاتل مأجور لاغتياله وزوجته

GMT 09:46 2024 الخميس ,21 تشرين الثاني / نوفمبر

الفستق يتمتع بتأثير إيجابي على صحة العين ويحافظ على البصر

GMT 07:23 2024 السبت ,23 تشرين الثاني / نوفمبر

"فولكس فاغن" تتمسك بخطط إغلاق مصانعها في ألمانيا

GMT 06:42 2024 السبت ,23 تشرين الثاني / نوفمبر

إيران ولبنان.. في انتظار لحظة الحقيقة!

GMT 15:39 2024 السبت ,23 تشرين الثاني / نوفمبر

رانيا يوسف تخوض تحديا جديدا في مشوارها الفني

GMT 15:41 2024 السبت ,23 تشرين الثاني / نوفمبر

ميرهان حسين تكشف مفاجأة عن أعمالها المقبلة

GMT 14:30 2024 السبت ,23 تشرين الثاني / نوفمبر

نائبة الرئيس الفلبيني تتفق مع قاتل مأجور لاغتياله وزوجته

GMT 08:18 2024 الأحد ,24 تشرين الثاني / نوفمبر

الجيش الإسرائيلي يعلن اعتراض مسيّرة قبالة سواحل حيفا

GMT 17:41 2024 السبت ,23 تشرين الثاني / نوفمبر

حماس تعلن مقتل رهينة بقصف إسرائيلي شمالي غزة

GMT 08:28 2024 الأحد ,24 تشرين الثاني / نوفمبر

واتساب يحول الرسائل الصوتية إلى نصوص بلغات منها العربية

GMT 08:16 2024 الأحد ,24 تشرين الثاني / نوفمبر

"حزب الله" يعلن استهداف قوات إسرائيلية في الخيام والمطلة

GMT 08:32 2024 الخميس ,21 تشرين الثاني / نوفمبر

إطلالات هند صبري مصدر إلهام للمرأة العصرية الأنيقة

GMT 22:49 2024 السبت ,23 تشرين الثاني / نوفمبر

غارة إسرائيلية على معبر حدودي بين سوريا ولبنان

GMT 17:46 2024 السبت ,23 تشرين الثاني / نوفمبر

الشيوخ الأميركي يطالب بايدن بوقف حرب السودان

GMT 23:03 2024 السبت ,23 تشرين الثاني / نوفمبر

الملكة كاميلا تكسر قاعدة ملكية والأميرة آن تنقذها
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab