التوقيع المشترك للعمالقة الثلاثة! وصدرت رسالة مفتوحة أخرى بعنوان "احذروا الذكاء الاصطناعي ، دافعوا عن الإنسانية"

"يجب أن يكون التخفيف من مخاطر انقراض الذكاء الاصطناعي أولوية عالمية مثل إدارة المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية."

** بقلم: VickyXiao، Juny **

** المصدر: نجوم السيليكون **

منذ أن اكتسح الذكاء الاصطناعي التوليدي كل مجال تقريبًا بهذه الوتيرة السريعة ، أصبح الخوف من تحدي الذكاء الاصطناعي للبشر حقيقيًا بشكل متزايد.

في المرة الأخيرة ، أصدر ماسك خطابًا مفتوحًا يدعو إلى تعليق تدريب نموذج الذكاء الاصطناعي الكبير لمدة نصف عام وتعزيز الإشراف على تكنولوجيا الذكاء الاصطناعي على مجتمع أبحاث الذكاء الاصطناعي وقادة الصناعة ، داعيًا جميع المعامل حول العالم إلى تعليق تطوير نماذج ذكاء اصطناعي أقوى ، مع فترة تعليق لا تقل عن 6 أشهر. ولكن اتضح أنه اشترى بالفعل 10000 وحدة معالجة رسومات (GPU) لتويتر للترويج لمشروع ذكاء اصطناعي جديد تمامًا ، ومن المحتمل جدًا أنه يقوم بتطوير نموذج لغته الكبيرة.

ولكن هذه المرة ، تم إصدار رسالة مفتوحة أخرى تحث الناس على الانتباه إلى التهديد الذي يشكله الذكاء الاصطناعي مرة أخرى. الأمر الأكثر لفتًا للانتباه من المرة الأخيرة هو أن العمالقة الثلاثة الحاليين في مجال الذكاء الاصطناعي التوليدي: OpenAI و DeepMind (التابعة لشركة Google) و Anthropic قد انضموا إليهم جميعًا.

بيان 22 كلمة ، 350 توقيع

البيان الصادر عن مركز أمان الذكاء الاصطناعي ، وهو منظمة غير ربحية مقرها سان فرانسيسكو ، هو تحذير جديد لما يعتقدون أنه تهديد وجودي للبشرية يمثله الذكاء الاصطناعي. العبارة بأكملها تتكون من 22 كلمة فقط - نعم ، تقرأ ذلك بشكل صحيح ، 22 كلمة فقط ، والمحتوى الكامل هو كما يلي:

** يجب أن يكون التخفيف من مخاطر انقراض الذكاء الاصطناعي أولوية عالمية إلى جانب إدارة المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية. **

على الرغم من أن نظرية تهديد الذكاء الاصطناعي ليست جديدة ، إلا أنها المرة الأولى التي تتم فيها مقارنتها علنًا بعوامل الأزمة مثل "الحرب النووية" و "الوباء" التي تعرض البشرية جمعاء للخطر.

الجزء الثانوي من البيان أطول بكثير من محتوى البيان.

بالإضافة إلى سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، وديميس هاسابيس ، الرئيس التنفيذي لشركة DeepMind ، وداريو أمود ، الرئيس التنفيذي لشركة Anthropic ، انضم أيضًا أكثر من 350 باحثًا ومهندسًا ورائد أعمال في مجال الذكاء الاصطناعي ، بما في ذلك "AI Big Three" الذين فازوا في السابق بجائزة جائزة تورينج "اثنان من جيفري هينتون ويوشوا بنجيو ، لكن يان ليكون ، الذي فاز بالجائزة معهم ويشغل حاليًا منصب كبير علماء الذكاء الاصطناعي في Meta ، الشركة الأم لـ Facebook ، لم يوقع بعد.

بالإضافة إلى ذلك ، ظهر العلماء الصينيون أيضًا في القائمة ، بما في ذلك Zeng Yi ، مدير مركز أبحاث أخلاقيات الذكاء الاصطناعي والحوكمة في معهد الأتمتة التابع لأكاديمية العلوم الصينية ، و Zhan Xianyuan ، الأستاذ المشارك في جامعة Tsinghua.

يمكن الاطلاع على القائمة الكاملة للتوقيعات هنا:

قال هندريكس ، المدير التنفيذي لمركز أمن الذكاء الاصطناعي ، ناشر البيان ، إن البيان مقتضب ولم يتطرق عمدا إلى أي طرق محتملة للتخفيف من تهديد الذكاء الاصطناعي من أجل تجنب الخلاف. قال هندريكس: "لم نرغب في الضغط من أجل حافظة ضخمة من 30 تدخلاً محتملاً". "عندما يحدث ذلك ، فإنه يضعف الرسالة".

نسخة محسنة من خطاب المسك المفتوح

يمكن اعتبار هذه الرسالة المفتوحة على أنها نسخة محسنة و "نظيفة" من خطاب ماسك المفتوح في وقت سابق من هذا العام.

في السابق ، انضم ماسك إلى أكثر من ألف من قادة الصناعة والأوساط الأكاديمية لإصدار إعلان مشترك على الموقع الإلكتروني لمعهد "Future of Life Institute". تنقل الرسالة المفتوحة بشكل أساسي جانبين من المعلومات: أحدهما هو التحذير من التهديد المحتمل للذكاء الاصطناعي للمجتمع البشري ، ويتطلب التعليق الفوري لتدريب أي نظام ذكاء اصطناعي أقوى من GPT-4 ، مع فترة زمنية تبلغ في 6 أشهر على الأقل. والثاني هو دعوة كامل مجال الذكاء الاصطناعي وصانعي السياسات إلى تصميم نظام حوكمة شامل للذكاء الاصطناعي بشكل مشترك للإشراف على تطوير تكنولوجيا الذكاء الاصطناعي ومراجعتها.

تم انتقاد الرسالة في ذلك الوقت على مستويات متعددة. ليس فقط لأنه تم الكشف عن ماسك على أنه "لا يتحدث عن فنون الدفاع عن النفس" ، بينما دعا علنًا إلى تعليق أبحاث الذكاء الاصطناعي ، فقد روج سراً لمشروع ذكاء اصطناعي جديد تمامًا وانتزع بعض المواهب الفنية من Google و OpenAI ، ولكن أيضًا بسبب اقتراح " تعليق التطوير "لم يكن ممكنا ولا يحل المشكلة.

على سبيل المثال ، عندما فاز بجائزة Turing Award مع Yoshua Bengio ، أوضح Yann LeCun ، أحد "الثلاثة الكبار" في الذكاء الاصطناعي ، في ذلك الوقت أنه لا يتفق مع وجهة نظر الرسالة ولم يوقع هو - هي.

ومع ذلك ، لم يوقع Yann LeCun أيضًا على هذه الرسالة المفتوحة الجديدة والأكثر غموضًا.

نشر Wu Enda ، الباحث المعروف في مجال الذكاء الاصطناعي ومؤسس Landing AI ، أيضًا على LinkedIn في ذلك الوقت أن فكرة تعليق تدريب الذكاء الاصطناعي لمدة 6 أشهر فكرة سيئة وغير واقعية.

قال إن الطريقة الوحيدة لتعليق أبحاث الصناعة حول التدريب على الذكاء الاصطناعي هي التدخل الحكومي ، لكن مطالبة الحكومة بتعليق التقنيات الناشئة التي لا يفهمونها هو أمر مناهض للمنافسة ومن الواضح أنه ليس حلاً جيدًا. واعترف بأن الذكاء الاصطناعي المسؤول مهم وأن الذكاء الاصطناعي ينطوي على مخاطر ، ولكن لا يُنصح باتباع نهج واحد يناسب الجميع. ما هو أكثر أهمية في الوقت الحالي هو أنه يجب على جميع الأطراف زيادة الاستثمار في مجال أمن الذكاء الاصطناعي أثناء تطوير تقنية الذكاء الاصطناعي ، والتعاون في صياغة اللوائح المتعلقة بالشفافية والتدقيق.

حتى أن سام التمان صرح بشكل مباشر عندما استجوبه الكونجرس الأمريكي أن إطار دعوة ماسك كان خاطئًا ، وأن تعليق الموعد لا معنى له. قال: "نتوقف لمدة ستة أشهر ، ثم ماذا بعد؟ نتوقف لمدة ستة أشهر أخرى؟"

ولكن مثل أندرو نج ، كان سام ألتمان من أكثر المدافعين صراحة عن المزيد من التنظيم الحكومي للذكاء الاصطناعي.

حتى أنه قدم توصيات تنظيمية إلى حكومة الولايات المتحدة في جلسة الاستماع ، حيث طلب من الحكومة تشكيل وكالة حكومية جديدة مسؤولة عن إصدار التراخيص لنماذج الذكاء الاصطناعي واسعة النطاق. إذا كان نموذج الشركة لا يفي بالمعايير الحكومية ، فيمكن للوكالة إلغاء ترخيص الشركة .

في الأسبوع الماضي ، انضم أيضًا إلى العديد من المسؤولين التنفيذيين الآخرين في OpenAI للدعوة إلى إنشاء منظمة دولية مماثلة للوكالة الدولية للطاقة الذرية لتنظيم الذكاء الاصطناعي ، ودعا إلى التعاون بين مطوري الذكاء الاصطناعي الدوليين الرائدين.

صوت الخصم

مثل خطاب Musk المفتوح ، يعتمد هذا الخطاب الأخير أيضًا على افتراض أن أنظمة الذكاء الاصطناعي ستتحسن بسرعة ، لكن البشر لن يتحكموا بشكل كامل في تشغيلهم الآمن.

يشير العديد من الخبراء إلى أن التحسينات السريعة في أنظمة مثل النماذج اللغوية الكبيرة يمكن التنبؤ بها. بمجرد أن تصل أنظمة الذكاء الاصطناعي إلى مستوى معين من التطور ، فقد يفقد البشر السيطرة على سلوكهم. قال توبي أورد ، الباحث في جامعة أكسفورد ، إنه مثلما يأمل الناس أن تعترف شركات التبغ الكبرى بأن منتجاتها ستتسبب في مخاطر صحية خطيرة في وقت مبكر وتبدأ في مناقشة كيفية الحد من هذه المخاطر ، فإن قادة الذكاء الاصطناعي يفعلون ذلك الآن.

لكن هناك أيضًا الكثير ممن يشككون في هذه التوقعات. وأشاروا إلى أن أنظمة الذكاء الاصطناعي لا يمكنها حتى التعامل مع المهام العادية نسبيًا ، مثل قيادة السيارة. على الرغم من سنوات من الجهد واستثمار عشرات المليارات من الدولارات في هذا المجال البحثي ، لا تزال السيارات ذاتية القيادة بعيدة عن الواقع. إذا لم يستطع الذكاء الاصطناعي حتى مواجهة هذا التحدي ، كما يقول المشككون ، فما هي فرصة التكنولوجيا لتشكل تهديدًا في السنوات القادمة؟

انتقل Yann LeCun إلى Twitter للتعبير عن رفضه لهذا القلق ، قائلاً إن الذكاء الاصطناعي الخارق ليس على رأس قائمة أزمة انقراض البشر على الإطلاق - ويرجع ذلك أساسًا إلى عدم وجوده بعد. "قبل أن نتمكن من تصميم الذكاء الاصطناعي على مستوى الكلاب (ناهيك عن الذكاء الاصطناعي على مستوى الإنسان) ، من السابق لأوانه تمامًا مناقشة كيفية جعله أكثر أمانًا."

يبدو Wu Enda أكثر تفاؤلاً بشأن الذكاء الاصطناعي. وقال إنه في نظره ، فإن العوامل التي من شأنها أن تسبب أزمات بقاء لمعظم البشر ، بما في ذلك الأوبئة وتغير المناخ والكويكبات وما إلى ذلك ، سيكون الذكاء الاصطناعي بدلاً من ذلك حلاً رئيسياً لهذه الأزمات. إذا أريد للبشرية أن تعيش وتزدهر في الألف عام القادمة ، فإن الذكاء الاصطناعي يحتاج إلى التطور بشكل أسرع وليس أبطأ.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت