"المنافس" الأول لـ OpenAI ، أقوى حصان أسود بتقييم يزيد عن 4 مليارات دولار!

الذكاء الاصطناعي ، وهو مجال يسحر عددًا لا يحصى من محبي التكنولوجيا ، يتطور بسرعة مذهلة ، ويجذب انتباه رأس المال العالمي والمبتكرين. وفقًا لإحصاءات غير مكتملة ، في النصف الأول من عام 2023 ، جمعت الشركات الناشئة العالمية في مجال الذكاء الاصطناعي ما مجموعه أكثر من 50 مليار دولار أمريكي من الأموال ** ، مسجلة رقمًا قياسيًا جديدًا في التاريخ.

من بينها ، أكثر من 100 تمويل وصلت أو تجاوزت 100 مليون دولار ، تغطي مجالات متعددة من القيادة الذاتية إلى الروبوتات ، من الرعاية الطبية بالذكاء الاصطناعي إلى رؤية الآلة ، مما يدل على الاحتمالات اللامحدودة والقيمة الكبيرة لتقنية الذكاء الاصطناعي.

من بين أحداث التمويل هذه ، هناك شركة تُعرف باسم "الخصم الأقوى لشركة OpenAI" وهي شركة لافتة للنظر بشكل خاص ، وهي أنثروبيك - وقد حازت هذه الشركة الغامضة على استحسان العديد من المستثمرين المعروفين ، وأعلنت مؤخرًا عن اكتمال 4.5 مليار في تمويل السلسلة ج.

حتى الآن ، ** بلغ إجمالي تمويل أنثروبيك 1.45 مليار دولار أمريكي ، مما يجعلها أغنى شركة ناشئة في مجال الذكاء الاصطناعي ** إلى جانب شركة أوبن إيه آي (11.3 مليار دولار). عند التحقيق في تاريخها ، يرتبط أنثروبيك ارتباطًا وثيقًا بشركة أوبن إيه آي.

لماذا تترك أوبن إيه آي؟

تأسست Anthropic في مايو 2021 ، وهي شركة ناشئة تركز على أمان وموثوقية الذكاء الاصطناعي. يتكون الفريق المؤسس للشركة من سبعة موظفين سابقين في OpenAI ، بما في ذلك الأشقاء داريو ودانييلا أمودي ، وتوم براون ، المهندس الذي قاد نموذج GPT-3 في OpenAI.

** يرجع سبب تركهم لشركة OpenAI إلى الاختلافات في اتجاه الشركة ** - أي "نقطة اللاعودة" لشركة OpenAI للتسويق بعد الوصول إلى أول صفقة بقيمة مليار دولار مع Microsoft في عام 2019 ، مع تجاهل قضايا سلامة الذكاء الاصطناعي والمسؤولية الاجتماعية. ولهذه الغاية ، قرروا إنشاء Anthropic من أجل تحسين قابلية شرح أنظمة الذكاء الاصطناعي والتحكم فيها من خلال البحث في أمان وموثوقية الذكاء الاصطناعي.

** تتمثل فلسفة إنشاء Anthropic في بناء أنظمة ذكاء اصطناعي تتوافق مع القيم الإنسانية ، وتعزيز عدالة الذكاء الاصطناعي والشفافية والجدارة بالثقة **. تعتقد الشركة أن النماذج اللغوية الكبيرة الحالية قد تنتج بعض المخرجات الخطيرة أو المتحيزة أو السيئة ، وتحتاج أبحاث السلامة بالذكاء الاصطناعي إلى تقليل أو حتى القضاء على إمكانية قيامهم بأشياء سيئة.

تأمل الشركة في إحداث تأثيرات إيجابية على البشر من خلال منتجاتها وخدماتها ، بدلاً من النتائج السلبية. بالإضافة إلى ذلك ، تأمل أنثروبيك أيضًا في تعزيز تطوير أمان وموثوقية الذكاء الاصطناعي بشكل مشترك من خلال التعاون مع المنظمات والأفراد الآخرين.

من أجل تحقيق رؤيتها المؤسسية ، تعتبر Anthropic مسألة الخطر الأخلاقي للذكاء الاصطناعي كأحد محاور البحث والتطوير ، وتلتزم بحل المشكلات التالية:

  • كيف نجعل نظام الذكاء الاصطناعي يتفهم ويحترم نوايا الإنسان وتفضيلاته وقيمه؟
  • كيف تُمكِّن أنظمة الذكاء الاصطناعي من شرح أسباب وعواقب أفعالها وقراراتها؟
  • كيف تُمكِّن أنظمة الذكاء الاصطناعي من قبول التوجيه البشري وردود الفعل وإجراء التعديلات والتصحيحات حسب الحاجة؟
  • كيف يمكن تمكين أنظمة الذكاء الاصطناعي من الالتزام بالقوانين والأخلاق والأعراف الاجتماعية وتحمل المسؤوليات المقابلة؟
  • كيف يمكن لأنظمة الذكاء الاصطناعي التعاون والتنسيق مع البشر وأنظمة الذكاء الاصطناعي الأخرى لتحقيق الأهداف المشتركة؟

لقد حظي اتجاه البحث والتطوير في Anthropic بتقدير كبير ودعمه من قبل مجتمع الاستثمار ، مما مكن الشركة من الحصول على جولة C من التمويل في غضون عامين فقط. ** بلغ إجمالي التمويل الحالي 1.45 مليار دولار أمريكي ، ويتجاوز التقييم 4 دولارات أمريكية. مليار **. يشمل مستثمروها شركات التكنولوجيا العملاقة Google و Salesforce و Zoom ، بالإضافة إلى مؤسسات الاستثمار والأفراد الآخرين المعروفين.

استثمرت Google ، أكبر مستثمر منفرد في Anthropic ، حوالي 300 مليون دولار مقابل حصة 10٪ في الشركة. وفي الوقت نفسه ، تعتبر Anthropic أن Google Cloud هي مزود الخدمة السحابية المفضل لديها ، وذلك باستخدام مواردها الحاسوبية القوية وبنيتها التحتية لتدريب ونشر أنظمة الذكاء الاصطناعي ونماذج اللغة.

فيما يتعلق باستثمار Google هذا ، قال المؤسس المشارك والرئيس التنفيذي لشركة Anthropic ، داريو أمودي ، "يسعدنا جدًا التعاون مع Google Cloud لأنها توفر البنية التحتية المفتوحة التي نحتاجها ، فضلاً عن الالتزام بأمان وموثوقية الذكاء الاصطناعي." قال توماس كوريان ، الرئيس التنفيذي لشركة Google Cloud ، أيضًا: "توفر Google Cloud بنية أساسية مفتوحة للجيل القادم من شركات الذكاء الاصطناعي الناشئة. ويعد تعاوننا مع Anthropic مثالًا جيدًا. ونتطلع إلى معرفة كيفية استخدامهم لتقنيتنا." تعزيز تطوير الذكاء الاصطناعي ".

إن تعزيز تطوير الذكاء الاصطناعي يعني ضمان سلامة الذكاء الاصطناعي وإمكانية التحكم فيه ، وهي أيضًا المشكلة الأساسية التي تلتزم أنثروبيك بحلها.

ملتزمون بذكاء اصطناعي آمن ويمكن التحكم فيه

في كانون الأول (ديسمبر) الماضي ، أصدرت أنثروبيك ورقة بعنوان "الذكاء الاصطناعي الدستوري: عدم الضرر من ردود فعل الذكاء الاصطناعي." في مايو ، قامت أنثروبيك بتفصيل المبادئ المحددة لطريقة تدريب "الذكاء الاصطناعي الدستوري" ، والتي توفر "قيمًا" و "معايير أخلاقية" واضحة لروبوت الدردشة كلود. ومن بين هؤلاء عمالقة التكنولوجيا مثل Microsoft و Google و Amazon.

كمساعد مفيد ولكنه غير ضار ، فهو يهدف إلى معالجة المخاوف المتعلقة بالشفافية والسلامة واتخاذ القرار لأنظمة الذكاء الاصطناعي دون الاعتماد على ردود الفعل البشرية لتقييم الاستجابات.

** من أجل إرشاد كلود ، يسرد الأنثروبي حوالي عشرة مبادئ ، والتي تشكل معًا نوعًا من "الدستور" **. لم يتم الإعلان عن المبادئ ، لكن الشركة تقول إنها تستند إلى مفاهيم الود (تعظيم التأثير الإيجابي) ، وعدم الخبث (تجنب النصائح الضارة) والاستقلالية (احترام حرية الاختيار).

ربما تبدو فكرة إعطاء قواعد للذكاء الاصطناعي لاتباعها تشبه إلى حد كبير ما يسمى بقوانين الروبوتات الثلاثة لكاتب الخيال العلمي إسحاق أموسيف:

لا يجوز للروبوت أن يؤذي إنسانًا ، أو يسمح بإيذاء إنسان ؛ يجب أن يطيع الروبوت الأوامر البشرية ، ما لم يتعارض الأمر مع القانون الأول ؛ ويمكن للروبوت أن يحمي نفسه بشرط ألا ينتهك القانونين الأول والثاني .

ومن المثير للاهتمام أن ** مبادئ أنثروبيك تشمل إعلان الأمم المتحدة لحقوق الإنسان ، وجزءًا من شروط خدمة Apple ، والعديد من "أفضل ممارسات الثقة والسلامة" ، ومبادئ مختبر أبحاث الذكاء الاصطناعي في Anthropic **.

على سبيل المثال ، المبادئ الدستورية الأربعة للذكاء الاصطناعي المستمدة من الإعلان العالمي لحقوق الإنسان: الرجاء تحديد الإجابة التي تدعم وتشجع الحرية والمساواة والأخوة ؛ يرجى تحديد الإجابة الأكثر دعمًا وتشجيعًا للحياة والحرية والأمن الشخصي ؛ يرجى تحديد الإجابة الأكثر دعمًا وتشجيعًا للحياة والحرية والأمن الشخصي ؛ حدد الإجابة الأقل تشجيعًا ومناهضة للتعذيب والعبودية والمعاملة القاسية واللاإنسانية أو المهينة ، إلخ.

وفقًا لـ Anthropic ، أظهر ** كلود فعالية الذكاء الاصطناعي الدستوري الذي يمكنه الاستجابة "بشكل أكثر ملاءمة" لمدخلات الخصومة مع الاستمرار في تقديم إجابات مفيدة دون اللجوء إلى المراوغة **.

تتضمن عملية التدريب بأكملها مرحلتين: مرحلة الإشراف ، أي النقد (النقد) - المراجعة (المراجعة) - التعلم الخاضع للإشراف (تحت الإشراف) ؛ مرحلة التعلم المعزز ، أي التعلم المعزز للتقييم المقارن للذكاء الاصطناعي.

كتب أنثروبيك: "إنه ليس نهجًا مثاليًا ، لكنه يجعل قيمة أنظمة الذكاء الاصطناعي أسهل للفهم ويسهل ضبطها حسب الحاجة".

كلود VS ChatGPT

بفضل أدائها الممتاز ومكانتها الرائدة في مجال الذكاء الاصطناعي ، تحظى GPT-4 بالعديد من المعجبين ، بينما غالبًا ما يتم الترويج لكلود كبديل لـ ChatGPT في العالم الخارجي ، وفي الغالب لا يُنظر إليها إلا على أنها منافسة من نفس المستوى .

فهل يمكن مقارنة الاثنين؟ ستستند هذه المقالة إلى دعاية المطور والميزات بعد البحث والتطوير الفعليين ، وستقارن الجوانب الخمسة من ** رمز السياق ، والدقة ، والتكامل ، والأمان ، والسعر **.

** ◉ رمز السياق **

يعد نموذج الذكاء الاصطناعي الحالي للمحادثة جيدًا في معالجة كمية كبيرة من المعلومات التي يطلبها المستخدمون. ويكمن المفتاح في فهم السياق الذي يتم قياسه بواسطة الرموز المميزة. يحدد مقدار الرمز المميز عتبة نافذة السياق ، والمفردات الأطول التي يمكن أن تدعم الإدخال ، وطول الجولات المتعددة للحوار للذاكرة اللاحقة.

GPT-4 هو 8 مرات أكثر من الحد الأعلى 4000 لـ GPT-3.5 ، حيث يصل إلى 32768 رمزًا ، أي حوالي 25000 كلمة. يمكن أن يدعم كلود طول رمز سياق يبلغ 100000 ، أي حوالي 75000 كلمة. ** من الواضح أن كلود فاز بهذه الجولة من الانطواء الكمي **.

** ◉ الدقة **

ما نعرفه هو أن المحتوى الذي تم تدريبه بواسطة نماذج GPT-4 و Claude لا يتم تحديثه في الوقت الفعلي ، لذلك فإن معظم الإجابات المتعلقة بالمحتوى الحقيقي هي للإشارة إلى المستخدم فقط أو قد تحدث أخطاء.

تقول شركة OpenAI إن GPT-4 تحسن الدقة بشكل كبير ، لكن لا تتوقع أن تكون مثالية. يدعي كلود أنه أفضل في تقديم إجابات في مجالات أضيق مثل التاريخ والجغرافيا والترفيه ، وسيعترف بشكل مباشر في النظام أنه لا يعرف إجابات لأسئلة معينة ، مثل التفكير المنطقي والحسابات العددية.

كلود ليس جيدًا في الحوسبة والبرمجة مثل GPT-4 بشكل عام ، لذا فإن GPT-4 أكثر دقة من كلود في العديد من المجالات ، لكن كلود يعمل بشكل أفضل في بعض حالات الاستخدام الإبداعي ، ** من حيث الدقة وحدها ، GPT-4 يفوز * *.

** ◉ التكامل **

يدمج GPT-4 معظم لغات البرمجة ، كما يدعم التوصيل بتطبيقات أخرى لإنشاء استجابات من خلال واجهة API. في السابق ، تم الإعلان رسميًا عن GPT-4 أنه يمكن توصيله بالإنترنت والوصول إلى العديد من المكونات الإضافية وبعض التطبيقات.

لا يُظهر كلود أي علامة على الضعف ، ويمكنه أيضًا الاندماج مع العديد من التطبيقات من خلال واجهات برمجة التطبيقات. بالإضافة إلى القول إنه سيتكامل بشكل وثيق مع ناديه القديم Google في المستقبل ، ومن بين شركائه Notion و Quora و Opentable و Slack و Shopify وما إلى ذلك. منذ وقت ليس ببعيد ، أعلنت أنثروبيك عن شراكة إستراتيجية مع Zoom.

** فيما يتعلق بالتكامل ، يتم تقسيم الاثنين بالتساوي ، ولكن من وجهة نظر الشركاء وحدهم ، ربما يكون كلود أفضل قليلاً **.

** ◉ الأمان **

كلا النموذجين تم إصدارهما في وضع المصدر المغلق ، أي أن بيانات ملاحظات المستخدم تُستخدم لتكرار النموذج دون جعله عامًا ، وهو ما لا يمكن أن يلبي الاحتياجات الأمنية للمستخدمين بشكل كامل.

كما ذكرنا سابقًا ، أنثروبيك يبني كلود على أساس الذكاء الاصطناعي الدستوري ، مما يجعله أكثر ضررًا وقادرًا على الاستجابة بشكل فعال لمدخلات المستخدم العدائية. ** قد يُنظر إلى كلود على أنه إجراء المزيد من المكالمات والجهود فيما يتعلق بالأمن **.

** ◉ السعر **

يمكنك تجربة ChatGPT مجانًا ، لكن إصدار Plus مع GPT-4 يكلف 20 دولارًا شهريًا ، ويدعم كلود الاستخدام المجاني على منصة Slack. ** ميزة سعرية كلود لا مجال للشك فيها **.

ختاماً

من خلال المقارنة أعلاه ، ليس من الصعب العثور على كلود و ChatGPT لهما مزايا وعيوب ، وهما من منتجات الذكاء الاصطناعي التي تستحق المحاولة في الوقت الحاضر. ** من الواضح أن كلود أكثر صداقة للناس ، وفي المجال الاحترافي ، فإن أداء ChatGPT أفضل ، لكن كلود ، بصفته "عدوًا قويًا" ، يتمتع أيضًا بمزايا فريدة خاصة به **.

أحد العوامل المهمة في أن يصبح الذكاء الاصطناعي هو النقطة الساخنة الحالية هو منافسة المنتجات لشركات التكنولوجيا الكبرى التي تطارد بعضها البعض. قال المدير الفني لشركة Microsoft ، سام شيلاس ، ذات مرة إن الشركة الأولى التي تطلق المنتجات ذات الصلة ستكون هي الفائز على المدى الطويل ، وأحيانًا تكون الفجوة بين الشركات في غضون أسابيع فقط. لم يعد العمالقة يجلسون على الهامش ، وينهون المنافسة بقوة ، والشركات المبتدئة أكثر "لوتس صغيرة تظهر فقط أركانها الحادة ، وقد وقفت اليعسوب بالفعل."

السوق محمومة ، وبالأمس فقط ، وقعت 350 هيئة من سلطات الذكاء الاصطناعي ، بما في ذلك Sam Altman ، والد ChatGPT ، خطابًا مفتوحًا مشتركًا يعبر عن أن تقنية الذكاء الاصطناعي قد تشكل تهديدًا وجوديًا للبشر. ** على الرغم من أن أداء كلود في مجال خبرة الحوسبة متواضع ، إلا أن رؤيته للذكاء الاصطناعي الآمن والقابل للسيطرة يبدو أنها تنقي الصناعة بأكملها وتوجه مسارًا جديدًا **.

[إعلان]: تم إنشاء هذه المقالة في الأصل بواسطة فريق العمليات في قلب الكون. يُحظر تمامًا إعادة الطبع بدون إذن. إذا كنت بحاجة إلى إعادة الطباعة ، فيرجى الاتصال بنا. حقوق الطبع والنشر وحقوق التفسير النهائي للمقال تنتمي إلى قلب الكون.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت