Спільний підпис трьох гігантів! Було видано ще один відкритий лист на тему «Бережіться штучного інтелекту, захистіть людство».

«Зменшення ризику зникнення штучного інтелекту має бути глобальним пріоритетом, як і управління іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Автор: VickyXiao, Джуні

Джерело: Silicon Stars

З тих пір, як генеративний штучний інтелект таким швидким темпом охопив майже всі сфери, побоювання, що штучний інтелект кине виклик людям, стає все більш реальним.

Минулого разу Маск виступив із відкритим листом із закликом призупинити на півроку навчання великої моделі штучного інтелекту та посилити нагляд за технологією штучного інтелекту дослідницькою спільнотою штучного інтелекту та лідерами галузі, закликавши всі лабораторії світу призупинити розробку сильніші моделі AI з періодом призупинення щонайменше 6 місяців. Але виявилося, що він насправді купив 10 000 графічних процесорів для Twitter, щоб просувати абсолютно новий проект ШІ, і дуже ймовірно, що він розробляє власну велику мовну модель.

Але цього разу знову вийшов відкритий лист із закликом звернути увагу на загрозу, яку представляє ШІ. Більш вражаючим, ніж минулого разу, є те, що до них приєдналися три нинішні гіганти у сфері генеративного ШІ: OpenAI, DeepMind (належить Google) і Anthropic.

Заява 22 слова, 350 підписів

Заява, опублікована некомерційною організацією Center for AI Safety із Сан-Франциско, є новим попередженням про те, що, на їхню думку, є загрозою існування людства, яку створює AI. Уся заява складається лише з 22 слів — так, ви правильно прочитали, лише 22 слова, а повний зміст такий:

**Зменшення ризику зникнення штучного інтелекту має бути глобальним пріоритетом разом із керуванням іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна. **

Хоча теорія загрози штучного інтелекту не є новою, її вперше публічно порівнюють із кризовими факторами, такими як «ядерна війна» та «пандемія», які загрожують всьому людству.

Частина автора заяви набагато довша за зміст заяви.

Крім Сема Альтмана, генерального директора OpenAI, Деміса Хассабіса, генерального директора DeepMind, і Даріо Амоде, генерального директора Anthropic, також приєдналися понад 350 провідних дослідників штучного інтелекту, інженерів і підприємців, у тому числі «велика трійка штучного інтелекту», яка колись виграла Премія Тюрінга «Два Джеффрі Хінтон і Йошуа Бенгіо, але Янн ЛеКун, який виграв нагороду разом з ними і зараз є головним науковцем зі штучного інтелекту Meta, материнської компанії Facebook, ще не підписав.

Крім того, у списку також опинилися китайські вчені, зокрема Цзен І, директор Дослідницького центру етики та управління штучним інтелектом Інституту автоматизації Академії наук Китаю, і Чжань Сяньюань, доцент Університету Цінхуа.

Повний список підписів можна переглянути тут:

Хендрікс, виконавчий директор Центру безпеки штучного інтелекту, який опублікував заяву, сказав, що заява була лаконічною та навмисно не розглядала жодних потенційних способів пом’якшити загрозу штучного інтелекту, щоб уникнути розбіжностей. «Ми не хотіли наполягати на величезному портфоліо з 30 потенційних втручань», — сказав Хендрікс. «Коли це відбувається, це розмиває повідомлення».

Розширена версія відкритого листа Маска

Цей відкритий лист можна розглядати як розширену та «чисту версію» відкритого листа Маска, надісланого раніше цього року.

Раніше Маск приєднався до понад тисячі лідерів промисловості та наукових кіл, щоб опублікувати спільне оголошення на веб-сайті «Інституту майбутнього життя». Відкритий лист в основному передає два аспекти інформації: один полягає в попередженні про потенційну загрозу штучного інтелекту для людського суспільства та вимагає негайного призупинення навчання будь-якої системи штучного інтелекту, сильнішої за GPT-4, з проміжком часу в мінімум 6 місяців. По-друге, закликати всю сферу штучного інтелекту та політиків спільно розробити комплексну систему управління штучним інтелектом для нагляду та перегляду розвитку технології штучного інтелекту.

Лист піддався критиці на багатьох рівнях. Не лише тому, що Маска викрили як «не говорив про бойові мистецтва», публічно закликаючи до призупинення досліджень штучного інтелекту, він таємно рекламував абсолютно новий проект штучного інтелекту та перехопив деяких технічних талантів із Google і OpenAI, а й тому, що пропозиція « призупинення розробки" не вдалося. Це неможливо, і це не вирішує проблему.

Наприклад, коли Янн ЛеКун, один із «Великої трійки» у сфері штучного інтелекту, отримав премію Тюрінга разом із Йошуа Бенгіо, дав зрозуміти, що він не погоджується з точкою зору листа, і не підписав його. це.

Однак Янн ЛеКун також не підписав цей новий і більш неоднозначний відкритий лист.

Ву Енда, відомий вчений у галузі штучного інтелекту та засновник Landing AI, також написав у LinkedIn у той час, що ідея призупинити навчання ШІ на 6 місяців є поганою та нереалістичною ідеєю.

Він сказав, що єдиний спосіб дійсно призупинити галузеві дослідження щодо навчання ШІ – це втручання уряду, але просити уряд призупинити нові технології, які вони не розуміють, є антиконкурентним і, очевидно, не є хорошим рішенням. Він визнав, що відповідальний штучний інтелект є важливим і що штучний інтелект дійсно має ризики, але універсальний підхід недоцільний. На даний момент важливіше те, що всі сторони повинні інвестувати більше в сферу безпеки штучного інтелекту під час розробки технології штучного інтелекту та співпрацювати для формулювання правил щодо прозорості та аудиту.

Сем Альтман навіть прямо заявив, коли його допитували в Конгресі США, що структура заклику Маска була неправильною, а призупинення дати було безглуздим. "Ми робимо паузу на шість місяців, потім що? Ми робимо паузу ще на шість місяців?", - сказав він.

Але, як і Ендрю Нґ, Сем Альтман був одним із найактивніших прихильників посилення державного регулювання ШІ.

На слуханнях він навіть надав регуляторні рекомендації уряду США, попросивши уряд створити нове державне агентство, відповідальне за видачу ліцензій на великомасштабні моделі ШІ.Якщо модель компанії не відповідає державним стандартам, агентство може відкликати ліцензію компанії. .

Минулого тижня він також приєднався до кількох інших керівників OpenAI, щоб закликати до створення міжнародної організації, схожої на Міжнародне агентство з атомної енергії для регулювання ШІ, і закликав до співпраці між провідними міжнародними розробниками ШІ.

Голос опонента

Як і відкритий лист Маска, цей останній також базується на припущенні, що системи ШІ будуть швидко вдосконалюватися, але люди не матимуть повного контролю над їх безпечною роботою.

Багато експертів зазначають, що швидкі вдосконалення таких систем, як великі мовні моделі, передбачувані. Коли системи ШІ досягають певного рівня складності, люди можуть втратити контроль над своєю поведінкою. Тобі Орд, науковець з Оксфордського університету, сказав, що подібно до того, як люди сподіваються, що великі тютюнові компанії раніше визнають, що їхня продукція спричинить серйозну небезпеку для здоров’я, і почнуть обговорювати, як обмежити цю небезпеку, лідери ШІ роблять це зараз.

Але є також багато тих, хто сумнівається в цих прогнозах. Вони зазначають, що системи штучного інтелекту не можуть виконувати навіть відносно повсякденні завдання, такі як керування автомобілем. Незважаючи на роки зусиль і десятки мільярдів доларів, інвестованих у цю область досліджень, повністю автономні транспортні засоби все ще далекі від реальності. Якщо штучний інтелект навіть не зможе впоратися з цим викликом, кажуть скептики, які шанси ця технологія матиме загрозу в найближчі кілька років?

Янн ЛеКун звернувся до Twitter, щоб висловити своє несхвалення щодо цього занепокоєння, заявивши, що штучний інтелект надлюдини взагалі не стоїть на першому місці в списку криз, пов’язаних з вимиранням людства — здебільшого тому, що його ще не існує. «Перш ніж ми зможемо розробити штучний інтелект на рівні собаки (не кажучи вже про штучний інтелект на рівні людини), передчасно обговорювати, як зробити його безпечнішим».

Ву Енда більш оптимістичний щодо ШІ. Він сказав, що на його думку, фактори, які спричинять кризи виживання для більшості людей, включаючи епідемії, зміну клімату, астероїди тощо, натомість штучний інтелект стане ключовим рішенням цих криз. Якщо людство хоче вижити й процвітати в наступні 1000 років, ШІ має розвиватися швидше, а не повільніше.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити