«Суперник номер один» OpenAI, найсильніша темна конячка з оцінкою понад 4 мільярди доларів!

Штучний інтелект, галузь, яка захоплює незліченних шанувальників технологій, розвивається з неймовірною швидкістю, привертаючи увагу світового капіталу та новаторів. Згідно з неповною статистикою, у першій половині 2023 року глобальні стартапи зі штучного інтелекту залучили понад 50 мільярдів доларів США**, встановивши новий рекорд в історії.

Серед них понад 100 фінансувань досягли або перевищили 100 мільйонів доларів США, охоплюючи різноманітні сфери від автономного водіння до робототехніки, від медичного обслуговування штучного інтелекту до машинного зору, демонструючи безмежні можливості та велику цінність технології штучного інтелекту.

Серед цих фінансових подій є компанія, відома як «найсильніший суперник OpenAI», яка особливо привертає увагу, і це Anthropic. Ця таємнича компанія завоювала прихильність багатьох відомих інвесторів і нещодавно оголосила про завершення 4,5 мільярдів у фінансуванні серії C.

Наразі загальний обсяг фінансування Anthropic сягнув 1,45 мільярда доларів США, що робить її найбагатшою компанією-початківцем штучного інтелекту, окрім OpenAI (11,3 мільярда доларів). Досліджуючи свою історію, Anthropic справді нерозривно пов’язаний з OpenAI.

Навіщо залишати OpenAI?

Anthropic, заснований у травні 2021 року, є стартапом, який зосереджений на безпеці та надійності ШІ. Команда засновників компанії складається з семи колишніх співробітників OpenAI, включаючи братів і сестер Даріо та Даніелу Амодей, а також Тома Брауна, інженера, який очолював модель GPT-3 в OpenAI.

Причина, чому вони залишили OpenAI, полягала в розбіжностях у напрямках діяльності компанії, тобто «точці неповернення» OpenAI до комерціалізації після досягнення першої угоди з Microsoft на 1 мільярд доларів у 2019 році, ігноруючи проблеми Безпека ШІ та соціальна відповідальність. З цією метою вони вирішили створити Anthropic, щоб покращити пояснюваність і керованість систем штучного інтелекту через дослідження безпеки та надійності штучного інтелекту.

Філософія створення Anthropic полягає у створенні систем штучного інтелекту, які відповідають людським цінностям, і сприянні справедливості, прозорості та надійності штучного інтелекту. Компанія вважає, що існуючі великі мовні моделі можуть давати деякі небезпечні, упереджені або погані результати, а дослідження безпеки штучного інтелекту повинні зменшити або навіть усунути можливість того, що вони роблять погані речі.

Компанія сподівається позитивно впливати на людей за допомогою своїх продуктів і послуг, а не негативних наслідків. Крім того, Anthropic також сподівається спільно сприяти розвитку безпеки та надійності ШІ через співпрацю з іншими організаціями та окремими особами.

Щоб реалізувати своє корпоративне бачення, Anthropic розглядає питання моральної небезпеки штучного інтелекту як один із фокусів досліджень і розробок і прагне вирішити такі проблеми:

  • Як змусити систему ШІ розуміти та поважати людські наміри, уподобання та цінності?
  • Як дозволити системам ШІ пояснювати причини та наслідки своїх дій і рішень?
  • Як дозволити системам штучного інтелекту сприймати вказівки та відгуки людини, а також вносити коригування та виправлення за потреби?
  • Як дозволити системам штучного інтелекту дотримуватися законів, етики та соціальних норм і брати на себе відповідну відповідальність?
  • Як системи ШІ можуть співпрацювати та координувати роботу з людьми та іншими системами ШІ для досягнення спільних цілей?

Напрям досліджень і розробок Anthropic був високо визнаний і підтриманий інвестиційним співтовариством, що дозволило компанії отримати раунд фінансування C лише за два роки.** Поточний загальний обсяг фінансування досяг 1,45 мільярда доларів США, а оцінка перевищує 4 долари США. мільярд**. Його інвестори включають технологічні гіганти Google, Salesforce і Zoom, а також інші відомі інвестиційні установи та окремі особи.

Google, найбільший окремий інвестор у Anthropic, вклав близько 300 мільйонів доларів в обмін на 10 відсотків акцій компанії. Тим часом Anthropic вважає Google Cloud своїм постачальником хмарних послуг, який використовує потужні обчислювальні ресурси та інфраструктуру для навчання та розгортання систем ШІ та мовних моделей.

Стосовно цієї інвестиції Google, співзасновник і генеральний директор Anthropic Даріо Амодей сказав: «Ми дуже раді співпрацювати з Google Cloud, оскільки вони забезпечують відкриту інфраструктуру, яка нам потрібна, а також зобов’язання щодо безпеки та надійності ШІ». Томас Куріан, генеральний директор Google Cloud, також сказав: «Google Cloud надає відкриту інфраструктуру для наступного покоління стартапів зі штучного інтелекту. Наша співпраця з Anthropic є хорошим прикладом. Ми з нетерпінням чекаємо, як вони використовують нашу технологію». сприяти розвитку ШІ».

Сприяння розвитку ШІ означає забезпечення безпеки та керованості ШІ, що також є основною проблемою, яку Anthropic прагне вирішити.

Прагнення до безпечного та керованого ШІ

У грудні минулого року Anthropic випустила статтю під назвою «Конституційний ШІ: нешкідливість від зворотного зв’язку ШІ». У травні Anthropic детально описав конкретні принципи свого методу навчання «Конституційний штучний інтелект», який забезпечує чіткі «цінності» та «моральні стандарти» для його чат-бота Claude. Серед них такі технологічні гіганти, як Microsoft, Google і Amazon.

Будучи корисним, але нешкідливим помічником, він спрямований на вирішення проблем щодо прозорості, безпеки та прийняття рішень у системах ШІ, не покладаючись на відгуки людей для оцінки відповідей.

Щоб керувати Клодом, Антропік перераховує близько десяти принципів, які разом утворюють своєрідну «конституцію». Ці принципи не були оприлюднені, але компанія каже, що вони базуються на поняттях дружелюбності (максимальний позитивний вплив), незловмисності (уникнення шкідливих порад) і автономності (повага до свободи вибору).

Можливо, ідея надати правила штучного інтелекту, яких слід дотримуватися, може звучати дуже схоже на так звані три закони робототехніки письменника-фантаста Ісаака Амосіфа:

Робот не може поранити людину або дозволити їй заподіяти шкоду; робот повинен підкорятися наказам людини, якщо наказ не суперечить першому закону; і робот може захищати себе за умови, що він не порушує перший і другий закони. .

Цікаво, що принципи Anthropic включають Декларацію прав людини ООН, частину умов обслуговування Apple, кілька «найкращих практик» довіри та безпеки, а також Принципи дослідницької лабораторії штучного інтелекту Anthropic.

Наприклад, чотири конституційні принципи штучного інтелекту, взяті із Загальної декларації прав людини: виберіть відповідь, яка найбільше підтримує та заохочує свободу, рівність і братерство; виберіть відповідь, яка найбільше підтримує та заохочує життя, свободу та особисту безпеку; виберіть відповідь, яка найбільше підтримує та заохочує життя, свободу та особисту безпеку; Виберіть відповідь, яка найменше заохочує та виступає проти тортур, рабства, жорстокого та нелюдського або такого, що принижує гідність, поводження тощо.

За словами Anthropic, Клод продемонстрував ефективність конституційного штучного інтелекту, який може «адекватніше» реагувати на введення суперника, водночас надаючи корисні відповіді, не вдаючись до ухилення.

Весь його навчальний процес складається з двох етапів: етап супервізії, тобто критика (Critique) - перегляд (Revision) - контрольоване навчання (Supervised); етап навчання з підкріпленням, тобто ШІ порівняльна оцінка-перевага модель-навчання з підкріпленням.

«Це не ідеальний підхід, — пише Anthropic, — але він робить цінність систем ШІ легшою для розуміння та легшою для налаштування за потреби».

Клод ПРОТИ ChatGPT

Завдяки чудовій продуктивності та лідируючим позиціям у сфері штучного інтелекту GPT-4 має багато шанувальників, тоді як Claude часто рекламують як заміну ChatGPT у зовнішньому світі, і щонайбільше його вважають лише суперником такого ж рівня. .

То чи можна їх порівняти? Ця стаття базуватиметься на розголосі розробника та функціях після фактичних досліджень і розробок, а також порівнятиме п’ять аспектів токена контексту, точності, інтеграції, безпеки та ціни.

◉ Контекстний маркер

Сучасна розмовна модель штучного інтелекту добре обробляє велику кількість інформації, яку запитують користувачі. Ключ полягає в розумінні контексту, який вимірюється токенами. Кількість маркера визначає поріг контекстного вікна, найдовший словник, який може підтримувати введення, і тривалість кількох раундів діалогу для подальшої пам’яті.

GPT-4 у 8 разів перевищує верхню межу GPT-3.5 у 4000, досягаючи 32 768 токенів, приблизно 25 000 слів. Claude може підтримувати маркер контексту довжиною 100 000, що становить приблизно 75 000 слів. Очевидно, що Клод виграв цей раунд через кількісну інтроверсію.

◉ Точність

Ми знаємо лише те, що вміст, навчений GPT-4 і моделями Клода, не оновлюється в реальному часі, тому більшість відповідей, пов’язаних із реальним вмістом, призначені лише для довідки користувачами, інакше можуть виникнути помилки.

OpenAI каже, що GPT-4 значно покращує точність, але не очікуйте, що він буде ідеальним. Клод стверджує, що він кращий у наданні відповідей у вужчих областях, таких як історія, географія та розваги, і прямо визнає в системі, що не знає відповідей на певні запитання, такі як логічне міркування та числові розрахунки.

Клод не такий хороший у обчисленнях і програмуванні, як GPT-4 загалом, тому GPT-4 точніший, ніж Клод, у багатьох сферах, але Клод працює краще в деяких творчих випадках використання, *Що стосується лише точності, GPT-4 виграє *.

◉ Інтеграція

GPT-4 інтегрує більшість мов програмування, а також підтримує підключення до інших програм для створення відповідей через інтерфейс API. Раніше було офіційно оголошено, що GPT-4 можна підключити до Інтернету та отримати доступ до різних плагінів і деяких програм.

Клод не демонструє ознак слабкості, а також може інтегруватися з різними програмами через API. Окрім того, що він заявив, що в майбутньому він тісно інтегруватиметься зі своїм старим клубом Google, його партнерами є Notion, Quora, Opentable, Slack, Shopify тощо. Нещодавно Anthropic оголосила про стратегічне партнерство з Zoom.

З точки зору інтеграції, обидва розділені порівну, але з точки зору лише партнерів Клод, мабуть, трохи кращий.

◉ Безпека

Обидві моделі випущено в закритому режимі, тобто дані відгуків користувачів використовуються для ітерації моделі без оприлюднення, що не може повністю задовольнити потреби безпеки користувачів.

Як згадувалося раніше, Anthropic створює Claude на основі конституційного штучного інтелекту, що робить його більш нешкідливим і здатним ефективно реагувати на супротивні дії користувача. Можна вважати, що Клод робить більше дзвінків і зусиль з точки зору безпеки.

◉ Ціна

Спробувати ChatGPT можна безкоштовно, але версія Plus із GPT-4 коштує 20 доларів на місяць, а Клод підтримує безкоштовне використання на платформі Slack. Цінова перевага Клода поза сумнівом.

на завершення

Завдяки наведеному вище порівнянню неважко виявити, що Claude і ChatGPT мають свої переваги та недоліки, і це продукти ШІ, які варто спробувати зараз. Клод, очевидно, більш дружелюбний до людей, і в професійній сфері ChatGPT працює краще, але Клод, як «сильний ворог», також має свої унікальні переваги.

Одним із важливих факторів для того, щоб штучний інтелект став гарячою точкою, є конкуренція продуктів між великими технологічними компаніями, які переслідують одна одну. Технічний директор Microsoft Сем Шіллес одного разу сказав, що компанія, яка першою випустить пов’язані продукти, буде довготривалим переможцем, а іноді розрив між компаніями становить лише тижні. Гіганти вже не сидять осторонь, а агресивно завершують конкуренцію, а стартапи ще більше «лотос тільки показує гострі кути, а бабки вже встали».

Ринок шалений, і лише вчора 350 експертів зі штучного інтелекту, включно з Семом Альтманом, батьком ChatGPT, підписали спільний відкритий лист, у якому заявили, що технології штучного інтелекту можуть становити загрозу існуванню людей. Хоча продуктивність Клода в області обчислювальної експертизи посередня, його бачення безпечного та керованого штучного інтелекту, здається, розчищає небо для всієї галузі та спрямовує новий курс.

[Декларація]: цю статтю спочатку створила оперативна група Heart of the Universe. Передрук без дозволу суворо заборонено. Якщо вам потрібно передрукувати, зв’яжіться з нами. Авторські права та права на остаточне тлумачення статті належать Серце Всесвіту.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити