«Соперник номер один» OpenAI, самая сильная темная лошадка с оценкой более 4 миллиардов долларов!

ИИ, область, которая очаровывает бесчисленных поклонников технологий, развивается с поразительной скоростью, привлекая внимание мирового капитала и новаторов. Согласно неполным статистическим данным, в первой половине 2023 года глобальные стартапы в области искусственного интеллекта привлекли в общей сложности более 50 миллиардов долларов США**, установив новый рекорд в истории.

Среди них более 100 финансирования достигли или превысили 100 миллионов долларов США, охватывая различные области от автономного вождения до робототехники, от медицинской помощи ИИ до машинного зрения, демонстрируя безграничные возможности и большую ценность технологии ИИ.

Среди этих финансовых событий есть компания, известная как «самый сильный противник OpenAI», которая особенно привлекает внимание, и это Anthropic — эта загадочная компания завоевала благосклонность многих известных инвесторов и недавно объявила о завершении 4,5 млрд. в финансировании серии C.

На данный момент общий объем финансирования компании Anthropic достиг 1,45 млрд долларов США, что делает ее самой богатой стартап-компанией в области искусственного интеллекта после OpenAI (11,3 млрд долларов США). Исследуя свою историю, Anthropic действительно неразрывно связан с OpenAI.

Зачем отказываться от OpenAI?

Стартап Anthropic, основанный в мае 2021 года, ориентирован на безопасность и надежность ИИ. Команда основателей компании состоит из семи бывших сотрудников OpenAI, в том числе братьев и сестер Дарио и Даниэлы Амодеи, а также Тома Брауна, инженера, который руководил моделью GPT-3 в OpenAI.

Причина, по которой они покинули OpenAI, заключалась в разногласиях в направлении компании, то есть в «точке невозврата» OpenAI к коммерциализации после заключения первой сделки с Microsoft на 1 миллиард долларов в 2019 году, при игнорировании вопросов Безопасность ИИ и социальная ответственность. С этой целью они решили создать Anthropic, чтобы улучшить объяснимость и управляемость систем ИИ за счет исследований безопасности и надежности ИИ.

Философия создания компании Anthropic заключается в создании систем ИИ, соответствующих человеческим ценностям, а также в продвижении справедливости, прозрачности и надежности ИИ. Компания считает, что существующие большие языковые модели могут давать опасные, предвзятые или плохие результаты, и исследования безопасности ИИ должны уменьшить или даже исключить вероятность того, что они будут делать плохие вещи.

Компания надеется, что ее продукты и услуги окажут положительное влияние на людей, а не негативные последствия. Кроме того, Anthropic также надеется совместно способствовать развитию безопасности и надежности ИИ посредством сотрудничества с другими организациями и отдельными лицами.

Чтобы реализовать свое корпоративное видение, Anthropic рассматривает проблему морального риска ИИ как одно из направлений исследований и разработок и стремится решить следующие проблемы:

  • Как заставить систему ИИ понимать и уважать человеческие намерения, предпочтения и ценности?
  • Как дать возможность системам ИИ объяснять причины и последствия своих действий и решений?
  • Как сделать так, чтобы системы ИИ принимали указания и отзывы человека, а также вносили коррективы и исправления по мере необходимости?
  • Как заставить системы ИИ соблюдать законы, этику и социальные нормы и брать на себя соответствующие обязанности?
  • Как системы ИИ могут сотрудничать и координировать свои действия с людьми и другими системами ИИ для достижения общих целей?

Направление Anthropic в области исследований и разработок было высоко оценено и поддержано инвестиционным сообществом, что позволило компании получить финансирование раунда C всего за два года.** Текущий общий объем финансирования достиг 1,45 миллиарда долларов США, а оценка превышает 4 доллара США. миллиард**. В число его инвесторов входят технологические гиганты Google, Salesforce и Zoom, а также другие известные инвестиционные институты и частные лица.

Google, крупнейший инвестор Anthropic, вложил около 300 миллионов долларов в обмен на 10-процентную долю в компании. Между тем, Anthropic считает Google Cloud своим предпочтительным поставщиком облачных услуг, используя свои мощные вычислительные ресурсы и инфраструктуру для обучения и развертывания систем искусственного интеллекта и языковых моделей.

Что касается этой инвестиции в Google, соучредитель и генеральный директор Anthropic Дарио Амодеи сказал: «Мы очень рады сотрудничеству с Google Cloud, потому что они предоставляют необходимую нам открытую инфраструктуру, а также приверженность безопасности и надежности ИИ». Томас Куриан, генеральный директор Google Cloud, также сказал: «Google Cloud предоставляет открытую инфраструктуру для следующего поколения стартапов в области искусственного интеллекта. Наше сотрудничество с Anthropic является хорошим примером. Мы с нетерпением ждем возможности увидеть, как они используют нашу технологию». способствовать развитию ИИ».

Содействие развитию ИИ означает обеспечение безопасности и управляемости ИИ, что также является основной проблемой, которую Anthropic стремится решить.

Приверженность безопасному и контролируемому ИИ

В декабре прошлого года Anthropic выпустила статью под названием «Конституционный ИИ: безвредность от обратной связи ИИ». В мае Anthropic подробно описала конкретные принципы своего метода обучения «Конституционный ИИ», который устанавливает четкие «ценности» и «моральные стандарты» для своего чат-бота Клода. К ним относятся технологические гиганты, такие как Microsoft, Google и Amazon.

Как полезный, но безвредный помощник, он направлен на решение проблем прозрачности, безопасности и принятия решений в системах ИИ, не полагаясь на отзывы людей для оценки ответов.

Чтобы направить Клода, Антропик перечисляет около десяти принципов, которые вместе образуют своего рода «конституцию». Принципы не были обнародованы, но компания заявляет, что они основаны на концепциях дружелюбия (максимизация положительного воздействия), незлобности (избегание вредных советов) и автономии (уважение свободы выбора).

Возможно, идея дать искусственному интеллекту правила, которым нужно следовать, может звучать как так называемые три закона робототехники писателя-фантаста Исаака Амосифа:

Робот не может причинить вред человеку или допустить причинение вреда человеку; робот должен подчиняться приказам человека, если приказ не противоречит первому закону; и робот может защищать себя при условии, что он не нарушает первый и второй законы. .

Интересно, что принципы Anthropic включают в себя Декларацию прав человека ООН, часть условий обслуживания Apple, несколько «лучших практик» доверия и безопасности, а также принципы исследовательской лаборатории искусственного интеллекта Anthropic.

Например, четыре конституционных принципа ИИ, взятые из Всеобщей декларации прав человека: Выберите ответ, который больше всего поддерживает и поощряет свободу, равенство и братство; Пожалуйста, выберите ответ, который больше всего поддерживает и поощряет жизнь, свободу и личную безопасность; Пожалуйста, выберите ответ, который больше всего поддерживает и поощряет жизнь, свободу и личную безопасность ответ, который больше всего поддерживает и поощряет жизнь, свободу и личную неприкосновенность; выберите ответ, который меньше всего поощряет и выступает против пыток, рабства, жестокого и бесчеловечного или унижающего достоинство обращения и т. д.

Согласно Anthropic, Клод продемонстрировал эффективность конституционного ИИ, который может «более адекватно» реагировать на действия противника, при этом давая полезные ответы, не прибегая к уклонению.

Весь его процесс обучения включает в себя два этапа: этап наблюдения, то есть критика (Critique)-пересмотр (Revision)-обучение с учителем (Supervised); этап обучения с подкреплением, то есть сравнительная оценка ИИ-модель предпочтения-обучение с подкреплением.

«Это не идеальный подход, — пишет Anthropic, — но он упрощает понимание ценности систем ИИ и упрощает их настройку по мере необходимости».

Клод против ChatGPT

Благодаря отличной производительности и лидирующим позициям в области ИИ у GPT-4 много поклонников, в то время как Claude часто позиционируется как замена ChatGPT во внешнем мире, а в лучшем случае рассматривается лишь как соперник того же уровня. .

Так можно ли их сравнивать? Эта статья будет основана на рекламе разработчика и функциях после фактических исследований и разработок и сравнивает пять аспектов ** маркера контекста, точности, интеграции, безопасности и цены **.

◉ Маркер контекста

Нынешняя модель разговорного искусственного интеллекта хорошо справляется с обработкой большого количества информации, запрашиваемой пользователями, ключ заключается в понимании контекста, который измеряется токенами. Количество маркера определяет порог контекстного окна, самый длинный словарь, который может поддерживать ввод, и длину нескольких раундов диалога для последующего запоминания.

GPT-4 в 8 раз превышает верхний предел GPT-3.5 в 4000, достигая 32 768 токенов, около 25 000 слов. Claude может поддерживать длину маркера контекста 100 000, что составляет около 75 000 слов. Очевидно, что Клод выиграл этот раунд благодаря количественной интроверсии.

◉ Точность

Мы знаем, что контент, обученный моделями GPT-4 и Клода, не обновляется в режиме реального времени, поэтому большинство ответов, связанных с реальным контентом, предназначены только для справки пользователя, иначе могут возникнуть ошибки.

OpenAI говорит, что GPT-4 значительно повышает точность, но не ожидайте, что она будет идеальной. Клод утверждает, что лучше дает ответы в более узких областях, таких как история, география и развлечения, и прямо признает в системе, что не знает ответов на определенные вопросы, такие как логические рассуждения и числовые вычисления.

Клод не так хорош в вычислениях и программировании, как GPT-4 в целом, поэтому GPT-4 более точен, чем Клод во многих областях, но Клод работает лучше в некоторых случаях творческого использования. ** Только с точки зрения точности GPT-4 выигрывает* *.

◉ Интеграция

GPT-4 интегрирует большинство языков программирования, а также поддерживает подключение к другим приложениям для генерации ответов через интерфейс API. Ранее было официально объявлено, что GPT-4 может подключаться к Интернету и получать доступ к различным плагинам и некоторым приложениям.

Клод не проявляет признаков слабости, а также может интегрироваться с различными приложениями через API.Помимо заявления о том, что в будущем он будет тесно интегрироваться со своим старым клубом Google, его партнерами являются Notion, Quora, Opentable, Slack, Shopify и т. д. Не так давно Anthropic объявила о стратегическом партнерстве с Zoom.

С точки зрения интеграции они поровну разделены, но только с точки зрения партнеров Клод, вероятно, немного лучше.

◉ Безопасность

Обе модели выпущены в режиме с закрытым исходным кодом, то есть данные отзывов пользователей используются для итерации модели, не делая ее общедоступной, что не может полностью удовлетворить потребности пользователей в безопасности.

Как упоминалось ранее, Anthropic строит Claude на основе конституционного ИИ, делая его более безвредным и способным эффективно реагировать на действия противника. Можно считать, что Клод делает больше звонков и прилагает больше усилий с точки зрения безопасности.

◉ Цена

ChatGPT можно попробовать бесплатно, но версия Plus с GPT-4 стоит 20 долларов в месяц, а Клод поддерживает бесплатное использование на платформе Slack. Ценовое преимущество Клода не вызывает сомнений.

в заключение

Благодаря приведенному выше сравнению нетрудно обнаружить, что Claude и ChatGPT имеют свои преимущества и недостатки, и это продукты ИИ, которые стоит попробовать в настоящее время. Клод явно более дружелюбен к людям, и в профессиональной сфере ChatGPT работает лучше, но Клод, как «сильный враг», тоже имеет свои уникальные преимущества.

Одним из важных факторов для того, чтобы ИИ стал текущей горячей точкой, является конкуренция крупных технологических компаний, которые гоняются друг за другом. Технический директор Microsoft Сэм Шиллес однажды сказал, что первая компания, которая запустит сопутствующие продукты, будет победителем в долгосрочной перспективе, а иногда разрыв между компаниями составляет всего несколько недель. Гиганты уже не сидят в стороне, а агрессивно завершают конкуренцию, а начинающие компании еще более «лотосики только показывают свои острые углы, а стрекозы уже встали».

Рынок в бешенстве, и только вчера 350 специалистов по искусственному интеллекту, включая Сэма Альтмана, отца ChatGPT, подписали совместное открытое письмо, в котором говорится, что технология искусственного интеллекта может представлять экзистенциальную угрозу для людей. Хотя достижения Клода в области вычислительной техники посредственны, его видение безопасного и управляемого ИИ, кажется, расчищает небо для всей отрасли и указывает новый курс.

[Декларация]: Эта статья была первоначально создана оперативной группой Сердца Вселенной. Перепечатка без разрешения строго запрещена. Если вам необходимо перепечатать, пожалуйста, свяжитесь с нами. Авторские права и права на окончательную интерпретацию статьи принадлежат Сердце Вселенной.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить