الرأي | السيف ذو الحدين للذكاء الاصطناعي العام: التحكم في التنمية وتجنب الأزمات

المؤلف: Hu Yi

المصدر: الورقة

* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *

في الآونة الأخيرة ، نشر سيباستيان بوبيك ، رئيس مجموعة نظرية التعلم الآلي في معهد أبحاث Microsoft Redmond ، جنبًا إلى جنب مع Li Yuanzhi ، الحائز على جائزة Sloan Research لعام 2023 ، بحثًا شديد القلق. يبلغ طول الورقة ، التي تحمل عنوان "شرارة الذكاء الاصطناعي العام: التجارب المبكرة باستخدام GPT-4" ، 154 صفحة. وجد بعض الأشخاص الجيدين من شفرة مصدر LaTex أن العنوان الأصلي كان في الواقع "First Contact with AGI".

يمثل نشر هذه الورقة علامة بارزة في مجال أبحاث الذكاء الاصطناعي. يوفر رؤى قيمة حول فهمنا العميق لتطوير وتطبيق الذكاء العام الاصطناعي (AGI). في الوقت نفسه ، يسلط العنوان الأصلي للورقة ، "الاتصال الأول مع الذكاء الاصطناعي العام" ، الضوء أيضًا على أهمية وتطلعات الاستكشاف نحو الذكاء الاصطناعي العام.

قرأت بصبر النسخة المترجمة من هذه الورقة. لأكون صريحا ، أنا أفهم النصف ونصف الآخر لا يفهم ، ولا أعرف ما الذي يحدث. اسمحوا لي أولاً أن أقدم الاقتراح الأساسي لهذه الورقة: يقدم GPT-4 شكلاً من أشكال الذكاء العام ، مما يؤدي إلى ازدهار شرارة الذكاء الاصطناعي العام. يتجلى ذلك في قدراته العقلية الأساسية (مثل التفكير والإبداع والاستنتاج) ، ومجموعة الموضوعات التي يكتسب فيها الخبرة (مثل الأدب والطب والترميز) ، ومجموعة متنوعة من المهام التي يمكن أن يؤديها (مثل ممارسة الألعاب ، واستخدام الأدوات ، وشرح نفسك ، وما إلى ذلك).

بعد قراءة هذا المقال ، قمت بمراجعة مقالتي "المستقبل يمكن توقعه - لوحة الذكاء الاصطناعي: دع الجميع يصبح فنانًا". سألت نفسي سؤالاً: هل كان تصنيف النماذج الكبيرة مثل ChatGPT ضيقًا بعض الشيء في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي (AIGC) من قبل؟ كما ذكرت ورقة أبحاث Microsoft ، فإن GPT-4 ليس في الواقع مجرد AIGC ، إنه أشبه بالنموذج الأولي للذكاء الاصطناعي العام.

قبل أن أشرح ما يعنيه الذكاء الاصطناعي العام ، دعني أخبر قراء عمود "المستقبل المتوقع" في الصحيفة بالكلمات الثلاث ANI و AGI و ASI.

ينقسم الذكاء الاصطناعي (AI) عادة إلى ثلاثة مستويات:

① ضعف الذكاء الاصطناعي (الذكاء الاصطناعي الضيق ، ANI) ؛

② الذكاء الاصطناعي العام (AGI) ؛

③ الذكاء الاصطناعي الخارق (ASI).

بعد ذلك ، سوف أعرض بإيجاز الاختلافات والتطوير في هذه المستويات الثلاثة.

** ① ضعف الذكاء الاصطناعي (ANI): **

يعد الذكاء الاصطناعي الضعيف إلى حد بعيد الشكل الأكثر شيوعًا للذكاء الاصطناعي. يركز على أداء مهمة واحدة أو حل مشكلة في مجال معين. على سبيل المثال ، التعرف على الصور والتعرف على الكلام والترجمة الآلية وما إلى ذلك. قد تكون هذه الأنظمة الذكية أفضل من البشر في مهام معينة ، لكنها لا تعمل إلا في نطاق محدود ولا يمكنها التعامل مع المشكلات التي لم يتم تصميمها لحلها. هناك العديد من المنتجات والخدمات الذكية في السوق اليوم ، مثل المساعد الافتراضي (Siri ، Microsoft Xiaoice ، وما إلى ذلك) ، ومكبرات الصوت الذكية (Tmall Genie ، و Xiaoai Speaker ، وما إلى ذلك) و AlphaGo ، وكلها تنتمي إلى فئة الضعفاء الذكاء الاصطناعي. محدودية الذكاء الاصطناعي الضعيف هو أنه يفتقر إلى الفهم الشامل والقدرة على الحكم ، ويمكنه فقط أداء مهام محددة بشكل جيد.

مع التطوير المستمر للبيانات الضخمة والخوارزميات وقوة الحوسبة ، يتغلغل الذكاء الاصطناعي الضعيف تدريجياً في جميع مجالات حياتنا اليومية. في مجالات التمويل والرعاية الطبية والتعليم والترفيه وما إلى ذلك ، شهدنا العديد من حالات التطبيق الناجحة.

** ② الذكاء الاصطناعي العام (AGI): **

يشير الذكاء الاصطناعي العام ، المعروف أيضًا باسم الذكاء الاصطناعي القوي ، إلى الذكاء الاصطناعي الذي يتمتع بنفس ذكاء البشر ويمكنه أداء جميع السلوكيات الذكية للإنسان العادي. وهذا يعني أن الذكاء الاصطناعي العام يمكن أن يتعلم ويفهم ويتكيف ويحل المشكلات في مختلف المجالات تمامًا مثل البشر. على عكس ANI ، يمكن للذكاء الاصطناعي العام أن يكمل بشكل مستقل مجموعة متنوعة من المهام ، لا يقتصر فقط على مجال معين. في الوقت الحالي ، يُعتقد عمومًا أن الذكاء الاصطناعي العام لم يتحقق بعد ، لكن العديد من شركات التكنولوجيا والعلماء يعملون بجد للاقتراب من هذا الهدف.

** ③ الذكاء الاصطناعي الفائق (ASI): **

يشير الذكاء الاصطناعي الفائق إلى نظام ذكاء اصطناعي يفوق بكثير الذكاء البشري في مختلف المجالات. لا يمكنها فقط إكمال المهام المختلفة التي يمكن للبشر إكمالها ، بل يمكنها أيضًا تجاوز البشر من حيث الإبداع والقدرة على اتخاذ القرار وسرعة التعلم. قد يؤدي ظهور ASI إلى العديد من الاختراقات التكنولوجية غير المسبوقة والتغيرات الاجتماعية ، ويحل المشكلات الصعبة التي لا يستطيع البشر حلها.

ومع ذلك ، فإن ASI تجلب معها أيضًا مجموعة من المخاطر المحتملة. على سبيل المثال ، قد يؤدي ذلك إلى فقدان القيمة الإنسانية والكرامة ، ويؤدي إلى إساءة استخدام الذكاء الاصطناعي وإساءة استخدامه ، وقد يؤدي حتى إلى تمرد الذكاء الاصطناعي وقضايا أخرى.

اتضح أننا كنا نعتقد دائمًا أن تقنية الذكاء الاصطناعي ، من الذكاء الاصطناعي الضعيف إلى الذكاء الاصطناعي العام إلى الذكاء الاصطناعي الفائق ، سوف تمر بعملية تطوير طويلة ومعقدة. في هذه العملية ، لدينا الوقت الكافي للقيام بالعديد من الاستعدادات ، بدءًا من القوانين واللوائح وحتى الإعداد النفسي لكل فرد. ومع ذلك ، لدي شعور قوي مؤخرًا بأننا قد لا نزال على بعد خطوات قليلة من امتلاك الذكاء الاصطناعي العام ، وقد يستغرق الأمر 20 عامًا فقط أو أقل. إذا قال البعض إن العملية ستستغرق من 5 إلى 10 سنوات فقط ، فلن أستبعدها تمامًا.

ذكرت شركة OpenAI في "التخطيط والتوقعات إلى AGI": "تمتلك الذكاء الاصطناعي العام القدرة على تقديم إمكانات جديدة مذهلة للجميع. يمكننا تخيل عالم يمكننا فيه جميعًا الحصول على أي مساعدة تقريبًا في المهام الإدراكية ، مما يوفر قوة مضاعفة هائلة للإنسان الذكاء والإبداع ".

ومع ذلك ، تؤكد هذه الخطة على عملية "الانتقال التدريجي" ، بدلاً من المبالغة في التأكيد على القدرات القوية للذكاء الاصطناعي العام. "إعطاء الناس وصانعي السياسات والمؤسسات الوقت لفهم ما يجري ، وتجربة حسن وسيئ هذه الأنظمة بأنفسهم ، وتعديل اقتصادنا ، ووضع اللوائح التنظيمية".

في رأيي ، الرسالة الأساسية التي ينقلها هذا المقطع هي أن التكنولوجيا المؤدية إلى الذكاء الاصطناعي العام موجودة بالفعل. ومع ذلك ، من أجل السماح للمجتمع البشري بإجراء عملية التكيف ، تعمل OpenAI عن عمد على إبطاء وتيرة التقدم التكنولوجي. إنهم يعتزمون تحقيق التوازن بين التقدم التكنولوجي واستعداد المجتمع البشري ، وإتاحة المزيد من الوقت لمناقشات التكيف القانوني والأخلاقي والاجتماعي ، واتخاذ التدابير اللازمة للتعامل مع التحديات التي قد تنشأ.

هناك جملة كهذه في "انتصار كونفوشيوس - جي جنرال غزو Zhuanyu": "فم النمر خرج من العقرب". الآن ، خرجت جميع أنواع GPTs ، مثل النمور ، من القفص. وكما قال يوفال نوح هراري ، مؤلف كتاب "نبذة تاريخية عن المستقبل": الذكاء الاصطناعي يتقن اللغة بقدرة تفوق المستوى البشري العادي. من خلال إتقان اللغة ، يمتلك الذكاء الاصطناعي بالفعل القدرة على إنشاء علاقات حميمة مع مئات الملايين من الأشخاص على نطاق واسع ، ويمسك بمفتاح غزو نظام الحضارة الإنسانية. وحذر من أن الاختلاف الأكبر بين الأسلحة النووية والذكاء الاصطناعي هو أن الأسلحة النووية لا يمكنها صنع أسلحة نووية أكثر قوة. لكن ** يمكن للذكاء الاصطناعي أن ينتج ذكاءً اصطناعيًا أكثر قوة ، لذلك نحن بحاجة إلى التصرف بسرعة قبل أن يخرج الذكاء الاصطناعي عن السيطرة. **

في 22 مارس ، أصدر معهد مستقبل الحياة (مستقبل الحياة) خطابًا مفتوحًا إلى المجتمع بأسره بعنوان "تعليق أبحاث الذكاء الاصطناعي العملاقة: رسالة مفتوحة" ، داعيًا جميع مختبرات الذكاء الاصطناعي إلى التعليق الفوري لمقارنة GPT- 4 تدريب على أنظمة ذكاء اصطناعي أكثر قوة مع توقف مؤقت لمدة 6 أشهر على الأقل. قال لاندون كلاين ، مدير السياسة الأمريكية في معهد مستقبل الحياة: "نحن نرى اللحظة الحالية على أنها أقرب إلى بداية العصر النووي ..." وقد حظيت هذه الرسالة المفتوحة بدعم أكثر من ألف شخص ، بمن فيهم إيلون. Musk (مؤسس Tesla) ، Sam Altman (OpenAI CEO) ، Joshua Bengio (الفائز بجائزة Turing لعام 2018) وغيرهم من المشاهير.

إذا أدرك الكثير من الناس أننا على وشك الدخول في عصر "الانتشار النووي للذكاء الاصطناعي" ، فإننا نحتاج حقًا إلى استكشاف إمكانية. هذا الاحتمال هو إنشاء منظمة دولية شبيهة بالوكالة الدولية للطاقة الذرية ، هدفها الإشراف على جميع شركات الذكاء الاصطناعي ، بناءً على عدد وحدات معالجة الرسومات التي تستخدمها واستهلاك الطاقة ومؤشرات أخرى. تخضع الأنظمة التي تتجاوز حدود القدرة للمراجعة. من خلال المنظمات الدولية مثل هذه ، يمكننا العمل معًا لضمان أن تعود تقنيات الذكاء الاصطناعي بالفائدة على البشرية ، بدلاً من الأضرار المحتملة.

يدعو بعض العلماء إلى أنه عند التقدم في البحث والتطبيق للذكاء الاصطناعي ، من الضروري تجنب قدرة نظام الذكاء الاصطناعي على تجاوز سيطرة الإنسان. لقد صنعوا عددًا من الاستعارات لوصف الكارثة التي كانت تتكشف ، بما في ذلك "حاول طفل يبلغ من العمر 10 سنوات لعب الشطرنج مع Stockfish 15" ، و "حاول القرن الحادي عشر محاربة القرن الحادي والعشرين" ، و "حاول أسترالوبيثكس محاربة الإنسان العاقل ". يريد هؤلاء العلماء أن نتوقف عن تخيل الذكاء الاصطناعي العام على أنه "مفكر جامد يعيش على الإنترنت." بدلاً من ذلك ، تخيلهم كحضارة فضائية كاملة تفكر أسرع مليون مرة من البشر. كل ما في الأمر أنهم كانوا محصورين في البداية على أجهزة الكمبيوتر.

ومع ذلك ، فإن بعض العلماء متفائلون. من وجهة نظرهم ، يجب أن يستمر تطوير وأبحاث الذكاء الاصطناعي في تعزيز التقدم العلمي والابتكار التكنولوجي. قارنوا ذلك في العصر الذي ولدت فيه السيارة ، إذا اقترح السائق إيقاف السائق عن القيادة لمدة 6 أشهر. إذا نظرنا إلى الوراء الآن ، هل هذا سلوك فرس النبي يتصرف مثل عربة؟ وهم يعتقدون أنه من خلال نهج بحثي شفاف وخاضع للمساءلة ، يمكن معالجة المشكلات الأساسية وضمان إمكانية التحكم في تقنيات الذكاء الاصطناعي. علاوة على ذلك ، من خلال التجريب والممارسة المستمرة يمكننا فهم التحديات التي قد يجلبها الذكاء الاصطناعي والاستجابة لها بشكل أفضل.

أصدرت منظمة الصحة العالمية (WHO) مؤخرًا تحذيرًا بشأن الجمع بين الذكاء الاصطناعي والرعاية الصحية العامة. وأشاروا إلى أن الاعتماد على البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في اتخاذ القرار يمكن أن يكون عرضة لخطر التحيز أو إساءة الاستخدام. في بيان ، قالت منظمة الصحة العالمية إنه من الأهمية بمكان تقييم مخاطر استخدام نماذج اللغة الكبيرة التوليدية (LLMs) مثل ChatGPT لحماية وتعزيز رفاهية الإنسان. ويشددون على ضرورة اتخاذ خطوات لضمان الدقة والموثوقية والحياد في استخدام هذه التقنيات لحماية المصلحة العامة والنهوض بالمجال الطبي.

اتخذت العديد من الدول بالفعل خطوات لتنظيم مجال الذكاء الاصطناعي. في 31 مارس ، أعلنت وكالة حماية البيانات الشخصية الإيطالية أنه سيتم حظر استخدام ChatGPT مؤقتًا من الآن فصاعدًا. في الوقت نفسه ، يعمل مسؤولو الاتحاد الأوروبي أيضًا على مشروع قانون جديد يسمى "قانون الذكاء الاصطناعي (قانون الذكاء الاصطناعي)" ، والذي يتضمن: حظر استخدام خدمات ذكاء اصطناعي محددة وصياغة معايير قانونية ذات صلة.

أصدرت وزارة التجارة الأمريكية إشعارًا لالتماس التعليقات العامة ، بما في ذلك: ما إذا كانت نماذج الذكاء الاصطناعي الجديدة التي تشكل خطرًا بالضرر تحتاج إلى المراجعة قبل إصدارها. في الوقت نفسه ، وعدت وزارة التجارة أيضًا بمكافحة منتجات الذكاء الاصطناعي الضارة التي تنتهك الحقوق المدنية وقوانين حماية المستهلك.

في 16 مايو ، شارك الرئيس التنفيذي لشركة OpenAI والمؤسس المشارك Sam Altman في جلسة الاستماع في الكونجرس الأمريكي لأول مرة ، حيث تحدث عن المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي. واعترف أنه مع تقدم الذكاء الاصطناعي ، هناك قلق وقلق بشأن الكيفية التي سيغير بها الطريقة التي نعيش بها. ولهذه الغاية ، يعتقد أن تدخل الحكومة يمكن أن يمنع الذكاء الاصطناعي من "التكرار الذاتي الوحشي والتسلل الذاتي". اقترح إنشاء هيئة تنظيمية جديدة تمامًا من شأنها تنفيذ الضمانات اللازمة وإصدار التراخيص لأنظمة الذكاء الاصطناعي ، مع صلاحية إلغاءها.

في جلسة الاستماع ، سُئل ألتمان عن أكبر مخاوفه بشأن إمكانات الذكاء الاصطناعي. ولم يخض في التفاصيل ، واكتفى بالقول "إذا حدث خطأ في هذه التكنولوجيا ، فقد تكون خاطئة جدًا" وقد "تسبب ضررًا كبيرًا للعالم" .

قبل جلسة الاستماع هذه ، جذبت الإجراءات التنظيمية والرقابية الصينية في مجال الذكاء الاصطناعي أيضًا اهتمامًا واسع النطاق. في 11 أبريل ، من أجل تعزيز التطور الصحي والتطبيق القياسي لتكنولوجيا الذكاء الاصطناعي التوليدية ، وفقًا لـ "قانون أمن الشبكات لجمهورية الصين الشعبية" والقوانين واللوائح الأخرى ، صاغت إدارة الفضاء الإلكتروني في الصين "الإدارة تدابير لخدمات الذكاء الاصطناعي التوليدية (مسودة للتعليق) "". يوضح هذا النهج موقف الدعم والتشجيع لصناعة الذكاء الاصطناعي التوليدي ، على سبيل المثال ، "تدعم الدولة الابتكار المستقل والترويج والتطبيق والتعاون الدولي للتقنيات الأساسية مثل خوارزميات وأطر الذكاء الاصطناعي ، وتشجع على تبني الأولوية للاعتماد على الذكاء الاصطناعي. برامج وأدوات آمنة وموثوقة. وموارد الحوسبة والبيانات ".

تتطلب مسودة الرأي أن يعكس المحتوى الناتج عن الذكاء الاصطناعي التوليدي القيم الأساسية للاشتراكية ، ويجب ألا يحتوي على تقويض لسلطة الدولة ، والإطاحة بالنظام الاشتراكي ، والتحريض على تقسيم البلاد ، وتقويض الوحدة الوطنية ، وتعزيز الإرهاب ، التطرف ، والترويج للكراهية العرقية ، والتمييز العرقي ، والعنف ، والمعلومات الفاحشة والإباحية ، والمعلومات الكاذبة ، والمحتوى الذي قد يعطل النظام الاقتصادي والاجتماعي. تتطلب مسودة الرأي أيضًا من الموردين الإعلان عن تقييمات السلامة ، واتخاذ تدابير لمنع التمييز ، واحترام حقوق الخصوصية.

تذكرنا الإجراءات الجماعية التي اتخذتها هذه الدول بأن التطور الحالي للذكاء الاصطناعي يجلب فرصًا وتحديات كبيرة. نحن بحاجة ماسة إلى إرشادات وأنظمة أخلاقية واضحة لضمان الاستخدام السليم والشفافية لتقنيات الذكاء الاصطناعي. سنواجه سلسلة من الأسئلة المهمة: كيف نضمن خصوصية البيانات وأمنها؟ كيف نتعامل مع التحيز الخوارزمي والظلم؟ كيف نضمن الشفافية وإمكانية الشرح لعملية اتخاذ القرار بالذكاء الاصطناعي؟ يجب الرد على هذه القضايا من خلال لوائح ومؤسسات واضحة.

بينما أكتب هذا ، تقفز أفكاري بشكل غير مفهوم إلى الفقرة الأولى من القصيدة بعنوان "The Long Season" في الدراما المحلية الشهيرة "The Long Season":

قال: فرقعة أصابعك

دعونا نكسر أصابعنا

الأشياء البعيدة ستتحطم

الناس أمامي لا يعرفون ذلك بعد

هنا ، أريد أن أقدم توقعًا جريئًا: عندما يأتي عام 2024 ونحدد كلمة 2023 في العام ، ستكون ChatGPT واحدة من أفضل عشر كلمات ساخنة ، وقد تصبح حتى كلمة العام أو شخص العام .

دعنا نقسم كلمة "AI". إذا كان الحرف A يرمز إلى Angel (Angel) ، فيمكنني حينئذٍ أن أمثل الشيطان (إبليس). اليوم ، تتطور تكنولوجيا الذكاء الاصطناعي بسرعة ، مما يدل على وجود علاقة تكافلية مذهلة بين "الملائكة والشياطين". في مواجهة هذا الواقع ، نحتاج إلى اتخاذ إجراءات لتحقيق هدف - "دعونا نتمتع بحصاد ذهبي طويل من الذكاء الاصطناعي ، بدلاً من الوقوع في شتاء بارد غير مستعدين".

** (المؤلف Hu Yi ، عامل البيانات الضخمة الذي يحب تخيل المستقبل.) **

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت