تحذير شديد من خبير بريطاني حول تطور تقنيات الذكاء الاصطناعي في المستقبل
آخر تحديث GMT14:14:54
 العرب اليوم -

تحذير شديد من خبير بريطاني حول تطور تقنيات الذكاء الاصطناعي في المستقبل

 العرب اليوم -

 العرب اليوم - تحذير شديد من خبير بريطاني حول تطور تقنيات الذكاء الاصطناعي في المستقبل

تقنيات الذكاء الاصطناعي
لندن ـ العرب اليوم

 أشار العالم البريطاني 'ستيوراد راسل'، المعروف بإسهاماته في مجال الذكاء الاصطناعي، إلى أن أنظمة الذكاء الاصطناعي القوية تفتقر إلى القدرة على السيطرة عليه، ويعتبر البروفيسور راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح دعوا فيه إلى توقف تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4، وهي خليفة برنامج الدردشة عبر الإنترنت ChatGPT والذي يعمل بتقنية GPT-3.5.

إستخدام الحكومات الذكاء الاصطناعي

ونقلت شبكة سكاي نيوز عن الخبير الكمبيوتر Russell قوله إننا لا نفهم كيف تعمل الأنظمة الأكثر قوة ولا نعرف ما يمكنها إنجازه، ما يعني أننا لا نستطيع السيطرة عليها.

وأشار إلى أن الناس يشعرون بالقلق من التحيز العنصري والجنساني والتضليل في مخرجات هذه الأنظمة، وأكد خبير الكمبيوتر الأمريكي أن المعلومات المضللة والتزوير العميق يمثلان مخاوف كبيرة، حيث يتم استخدامهما بشكل ضار لنشر الأكاذيب.

وأشار إلى أن دولاً مثل الصين وروسيا وكوريا الشمالية لديها فرق كبيرة تضخ المعلومات المضللة باستخدام الذكاء الاصطناعي، وأنه من الممكن أن يتم استخدام هذه الأنظمة في المستقبل لتنظيم حملات عسكرية.

وأضاف Russell أن الجيل القادم من الأنظمة الذكية سيكون أكثر قوة ويمكنه تنفيذ خطط أكثر تعقيداً، وأنه إذا كان بإمكان الأنظمة الذكية بناء أنظمة أقوى من البشر، فكيف يمكن للبشر الحفاظ على السيطرة عليها؟ وهذا ما يشكل الشاغل الحقيقي وراء الرسالة المفتوحة التي أرسلها.

وشدد على أهمية إقناع الحكومات بضرورة التخطيط للمستقبل وتغيير الطريقة التي يعمل بها نظامنا البيئي الرقمي بأكمله.

ويعتبر Russell من بين الأكاديميين الذين حثوا المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجعوا الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.

قد يهمـــــك أيضا :

الذكاء الاصطناعي "يغير قواعد اللعبة" في عملية تشخيص سرطان البروستاتا

الذكاء الاصطناعي يبتكر 9 ملايين تركيبة دواء جديد محتمل

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

تحذير شديد من خبير بريطاني حول تطور تقنيات الذكاء الاصطناعي في المستقبل تحذير شديد من خبير بريطاني حول تطور تقنيات الذكاء الاصطناعي في المستقبل



GMT 14:28 2024 السبت ,27 إبريل / نيسان

نادين نجيم تكشف عن علامتها التجارية الخاصة
 العرب اليوم - نادين نجيم تكشف عن علامتها التجارية الخاصة

GMT 14:01 2024 السبت ,27 إبريل / نيسان

طرق سهلة لتحسين صحة الأمعاء والحفاظ عليها
 العرب اليوم - طرق سهلة لتحسين صحة الأمعاء والحفاظ عليها

GMT 10:20 2024 السبت ,27 إبريل / نيسان

زلزال بقوة 4.1 درجة يضرب شرق تركيا

GMT 01:08 2024 الخميس ,25 إبريل / نيسان

نانسي عجرم بإطلالات عصرية جذّابة

GMT 14:28 2024 السبت ,27 إبريل / نيسان

نادين نجيم تكشف عن علامتها التجارية الخاصة

GMT 08:39 2024 الأربعاء ,24 إبريل / نيسان

ارتفاع أسعار النفط مع هبوط الدولار

GMT 18:03 2024 الأربعاء ,24 إبريل / نيسان

أحمد السقا أولي مفاجأت فيلم "عصابة المكس"

GMT 18:13 2024 الأربعاء ,24 إبريل / نيسان

«باش جراح» المحروسة

GMT 14:01 2024 السبت ,27 إبريل / نيسان

طرق سهلة لتحسين صحة الأمعاء والحفاظ عليها
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab