صناع الذكاء الاصطناعي يحذرون من أن تقنيتهم `` معرضة لخطر الانقراض ''

ويدعو أولئك الذين يقودون ثورة الذكاء الاصطناعي أيضًا إلى وضع لوائح وإجراء مقارنات مع الأوبئة والحرب النووية.

** استعدوا لأنفسكم: الذكاء الاصطناعي يمكن أن يؤدي إلى انقراض الجنس البشري. **

يوم الثلاثاء ، أصدر المئات من قادة صناعة الذكاء الاصطناعي والباحثين ؛ بما في ذلك المديرين التنفيذيين من Microsoft و Google و OpenAI ، تحذيرات واقعية. يزعمون أن تقنية الذكاء الاصطناعي التي يصممونها يمكن أن تشكل يومًا ما تهديدًا حقيقيًا وقائمًا للوجود البشري. بالإضافة إلى أهوال الأوبئة والحرب النووية ، فإنهم يرون أن الذكاء الاصطناعي يمثل خطرًا على المجتمع بدرجة مماثلة.

في رسالة نشرها مركز أمان الذكاء الاصطناعي ، قدم خبراء الذكاء الاصطناعي هذا البيان الموجز: "يجب مقارنة التخفيف من خطر انقراض الذكاء الاصطناعي بالمخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية. معًا كأولوية عالمية".

هذا كل شيء ، هذا ما يقولون.

المصدر: مركز أمن الذكاء الاصطناعي

ووصف البيان الذكاء الاصطناعي بأنه تهديد وشيك أشبه بكارثة نووية أو جائحة عالمي. لكن الموقعين ، سحرة صناعة التكنولوجيا ، فشلوا في توسيع تحذيراتهم المشؤومة.

كيف بالضبط من المفترض أن ينخفض سيناريو يوم القيامة هذا؟ متى يجب تحديد التقويمات الخاصة بنا لظهور الروبوتات التي لدينا؟ لماذا يخون اختراع ابتكار بشري مثل الذكاء الاصطناعي خالقه؟ كان صمت مهندسي الذكاء الاصطناعي مدويًا ، ولم يقدموا إجابات.

في الواقع ، لا يقدم قادة الصناعة هؤلاء معلومات أكثر من روبوت الدردشة مع الردود الجاهزة. في عالم التهديدات العالمية ، يبدو أن الذكاء الاصطناعي قد قفز في الطابور ، وهزم تغير المناخ ، والصراع الجيوسياسي ، وحتى عمليات البحث عن كلمات مفتاحية غوغل غزو أجنبي.

يبحث Google عن الذكاء الاصطناعي مقارنة بالقضايا العالمية الأخرى مثل الحروب والغزوات الفضائية وتغير المناخ. الصورة: جوجل

ومن المثير للاهتمام أن الشركات تميل إلى الدعوة إلى التنظيم عندما يكون ذلك في مصلحتها. يمكن النظر إلى هذا على أنه طريقتهم في قول "نريد أن نكون جزءًا من صنع هذه اللوائح" ، على غرار الثعلب في بيت الدجاج الذي يطالب بقواعد جديدة.

تجدر الإشارة أيضًا إلى أن الرئيس التنفيذي لشركة OpenAI Sam Altman كان يضغط من أجل التنظيم الأمريكي. ومع ذلك ، فقد هدد بمغادرة أوروبا إذا استمر السياسيون في القارة في محاولة تنظيم الذكاء الاصطناعي. وقال التمان في اجتماع للجنة في يونيفرسيتي كوليدج لندن "سنحاول الامتثال". "إذا استطعنا الامتثال ، فسنقوم بذلك. وإذا لم نتمكن من ذلك ، فسنوقف العمليات."

لكي نكون منصفين ، قام بتغيير لحنه بعد بضعة أيام وقال إن OpenAI ليس لديها خطط لمغادرة أوروبا. بالطبع ، جاء ذلك بعد أن أتيحت له الفرصة لمناقشة المسألة مع المنظمين خلال "أسبوع مثمر للغاية".

** الذكاء الاصطناعي محفوف بالمخاطر ، لكن هل يمثل ذلك خطورة كبيرة؟ **

لم يتجاهل الخبراء الأضرار المحتملة للذكاء الاصطناعي. دعا خطاب مفتوح سابق وقعه 31810 من المدافعين إلى وقف تدريب نماذج الذكاء الاصطناعي القوية ، بما في ذلك Elon Musk و Steve Wozniak و Yuval Harari و Andrew Yang.

وجاء في الرسالة: "يجب أن تضمن هذه البروتوكولات بما لا يدع مجالاً للشك أن الأنظمة التي تمتثل لها آمنة" ، موضحةً أن "هذا لا يعني ضمناً وقفًا عامًا لتطوير الذكاء الاصطناعي لنماذج الصندوق الأسود ذات القدرات الناشئة ، فقط أن السباق الخطير إلى العودة إلى السباق الأكبر الذي لا يمكن التنبؤ به ".

تمت مناقشة مشكلة AI Foom المحتملة (حيث يكون الذكاء الاصطناعي قادرًا على تحسين أنظمته الخاصة ، وزيادة قدراته بما يتجاوز الذكاء البشري) لسنوات. ومع ذلك ، فإن وتيرة التغيير السريعة اليوم ، إلى جانب التغطية الإعلامية المكثفة ، جعلت هذا النقاش في دائرة الضوء العالمية.

المصدر: Columbia Journalism Review

أثار هذا وجهات نظر مختلفة حول كيفية تأثير الذكاء الاصطناعي على مستقبل التفاعل الاجتماعي.

يتصور البعض حقبة مثالية حيث يتفاعل الذكاء الاصطناعي مع البشر ويسود التقدم التكنولوجي. يجادل آخرون بأن البشر سوف يتكيفون مع الذكاء الاصطناعي ، ويخلقون وظائف جديدة حول التكنولوجيا ، على غرار نمو الوظائف الذي أعقب اختراع السيارة. ومع ذلك ، يصر آخرون على أن هناك فرصة جيدة لأن ينضج الذكاء الاصطناعي ويصبح خارج السيطرة ، مما يشكل تهديدًا حقيقيًا للبشرية.

حتى ذلك الحين ، العمل كالمعتاد في عالم الذكاء الاصطناعي. راقب ChatGPT أو Bard أو Siri الخاص بك ، فقد يحتاجون فقط إلى تحديث برنامج للسيطرة على العالم. لكن في الوقت الحالي ، يبدو أن أكبر تهديد للبشرية ليس اختراعاتنا بل هديتنا اللامحدودة للمبالغة.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت