Ті, хто веде революцію штучного інтелекту, також закликають ввести правила, порівнюючи їх із пандеміями та ядерною війною.
** Будьте готові: штучний інтелект може призвести до зникнення людської раси. **
У вівторок сотні лідерів індустрії штучного інтелекту та дослідників, включаючи керівників Microsoft, Google і OpenAI, випустили протверезне попередження. Вони стверджують, що технологія штучного інтелекту, яку вони розробляють, одного дня може становити реальну загрозу існуванню людства. На додаток до жахів пандемій і ядерної війни, вони вважають ШІ ризиком для суспільства в подібній мірі.
У листі, опублікованому Центром безпеки штучного інтелекту, експерти з штучного інтелекту зробили таку коротку заяву: «Пом’якшення ризику зникнення штучного інтелекту слід порівнювати з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна. Разом як глобальний пріоритет».
Ось так, так кажуть.
Джерело: Центр безпеки ШІ
У заяві штучний інтелект описується як безпосередня загроза, схожа на ядерну катастрофу чи глобальну пандемію. Але підписанти, ці чарівники індустрії технологій, не змогли розширити свої зловісні застереження.
Як саме цей сценарій кінця світу має відбуватися? Коли ми повинні відзначати в наших календарях підйом наших роботів-правителів? Чому такий винахід людських інновацій, як штучний інтелект, зрадить свого творця? Мовчання цих архітекторів штучного інтелекту було гучним, і вони не дали жодної відповіді.
Насправді ці лідери галузі надають не більше інформації, ніж чат-бот із готовими відповідями. У світі глобальних загроз штучний інтелект, здається, перескочив чергу, перемігши зміну клімату, геополітичний конфлікт і навіть вторгнення інопланетян за ключовими словами Google.
Google шукає штучний інтелект у порівнянні з іншими глобальними проблемами, такими як війни, інопланетне вторгнення та зміна клімату. Зображення: Google
Цікаво, що компанії, як правило, виступають за регулювання, коли це в їхніх інтересах. Це можна розглядати як їхній спосіб сказати «ми хочемо брати участь у створенні цих правил», подібно до того, як лисиця в курнику благає про нові правила.
Варто також зазначити, що генеральний директор OpenAI Сем Альтман наполягав на регулюванні в США. Тим не менш, він погрожував покинути Європу, якщо політики на континенті продовжуватимуть намагатися регулювати ШІ. «Ми спробуємо виконати вимоги», — сказав Альтман на зустрічі в Університетському коледжі Лондона. «Якщо ми зможемо виконати вимоги, ми це зробимо. Якщо ми не зможемо, ми припинимо діяльність».
Чесно кажучи, він змінив свою мелодію через кілька днів і сказав, що OpenAI не планує залишати Європу. Звичайно, це сталося після того, як він мав можливість обговорити це питання з регуляторами під час «дуже продуктивного тижня».
**ШІ ризикований, але чи такий він великий? **
Експерти не залишили поза увагою потенційну шкоду штучного інтелекту. Попередній відкритий лист, підписаний 31 810 прихильниками, закликав до мораторію на навчання потужних моделей ШІ, включаючи Ілона Маска, Стіва Возняка, Ювала Харарі та Ендрю Янга.
«Ці протоколи повинні гарантувати, поза сумнівом, що системи, які їм відповідають, є безпечними», — йдеться в листі, уточнюючи, що «це не означає загального мораторію на розробку штучного інтелекту для моделей «чорних скриньок» із надзвичайними можливостями, лише те, що небезпечна гонка до назад у більшу непередбачувану гонку».
Потенційна проблема AI Foom (при якій AI здатний покращувати власні системи, збільшуючи свої можливості за межі людського інтелекту) обговорювалася роками. Однак сучасні швидкі темпи змін у поєднанні з широким висвітленням у засобах масової інформації призвели до того, що ці дебати привернули увагу всього світу.
Джерело: Columbia Journalism Review
Це викликало різні погляди на те, як ШІ вплине на майбутнє соціальної взаємодії.
Дехто уявляє утопічну еру, коли штучний інтелект взаємодіє з людьми, а технологічний прогрес панує. Інші стверджують, що люди адаптуються до штучного інтелекту, створюючи нові робочі місця навколо цієї технології, подібно до зростання робочих місць після винаходу автомобіля. Інші, однак, наполягають на тому, що існує велика ймовірність того, що штучний інтелект дозріє і стане неконтрольованим, створюючи реальну загрозу для людства.
До того часу у світі штучного інтелекту все як завжди. Слідкуйте за своїм ChatGPT, своїм Bard або Siri, їм може просто знадобитися оновлення програмного забезпечення, щоб керувати світом. Але наразі здається, що найбільша загроза для людства — це не наші власні винаходи, а наш безмежний дар перебільшувати.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Розробники штучного інтелекту попереджають, що їхні технології знаходяться під загрозою зникнення
Ті, хто веде революцію штучного інтелекту, також закликають ввести правила, порівнюючи їх із пандеміями та ядерною війною.
** Будьте готові: штучний інтелект може призвести до зникнення людської раси. **
У вівторок сотні лідерів індустрії штучного інтелекту та дослідників, включаючи керівників Microsoft, Google і OpenAI, випустили протверезне попередження. Вони стверджують, що технологія штучного інтелекту, яку вони розробляють, одного дня може становити реальну загрозу існуванню людства. На додаток до жахів пандемій і ядерної війни, вони вважають ШІ ризиком для суспільства в подібній мірі.
У листі, опублікованому Центром безпеки штучного інтелекту, експерти з штучного інтелекту зробили таку коротку заяву: «Пом’якшення ризику зникнення штучного інтелекту слід порівнювати з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна. Разом як глобальний пріоритет».
Ось так, так кажуть.
Джерело: Центр безпеки ШІ
У заяві штучний інтелект описується як безпосередня загроза, схожа на ядерну катастрофу чи глобальну пандемію. Але підписанти, ці чарівники індустрії технологій, не змогли розширити свої зловісні застереження.
Як саме цей сценарій кінця світу має відбуватися? Коли ми повинні відзначати в наших календарях підйом наших роботів-правителів? Чому такий винахід людських інновацій, як штучний інтелект, зрадить свого творця? Мовчання цих архітекторів штучного інтелекту було гучним, і вони не дали жодної відповіді.
Насправді ці лідери галузі надають не більше інформації, ніж чат-бот із готовими відповідями. У світі глобальних загроз штучний інтелект, здається, перескочив чергу, перемігши зміну клімату, геополітичний конфлікт і навіть вторгнення інопланетян за ключовими словами Google.
Google шукає штучний інтелект у порівнянні з іншими глобальними проблемами, такими як війни, інопланетне вторгнення та зміна клімату. Зображення: Google
Цікаво, що компанії, як правило, виступають за регулювання, коли це в їхніх інтересах. Це можна розглядати як їхній спосіб сказати «ми хочемо брати участь у створенні цих правил», подібно до того, як лисиця в курнику благає про нові правила.
Варто також зазначити, що генеральний директор OpenAI Сем Альтман наполягав на регулюванні в США. Тим не менш, він погрожував покинути Європу, якщо політики на континенті продовжуватимуть намагатися регулювати ШІ. «Ми спробуємо виконати вимоги», — сказав Альтман на зустрічі в Університетському коледжі Лондона. «Якщо ми зможемо виконати вимоги, ми це зробимо. Якщо ми не зможемо, ми припинимо діяльність».
Чесно кажучи, він змінив свою мелодію через кілька днів і сказав, що OpenAI не планує залишати Європу. Звичайно, це сталося після того, як він мав можливість обговорити це питання з регуляторами під час «дуже продуктивного тижня».
**ШІ ризикований, але чи такий він великий? **
Експерти не залишили поза увагою потенційну шкоду штучного інтелекту. Попередній відкритий лист, підписаний 31 810 прихильниками, закликав до мораторію на навчання потужних моделей ШІ, включаючи Ілона Маска, Стіва Возняка, Ювала Харарі та Ендрю Янга.
«Ці протоколи повинні гарантувати, поза сумнівом, що системи, які їм відповідають, є безпечними», — йдеться в листі, уточнюючи, що «це не означає загального мораторію на розробку штучного інтелекту для моделей «чорних скриньок» із надзвичайними можливостями, лише те, що небезпечна гонка до назад у більшу непередбачувану гонку».
Потенційна проблема AI Foom (при якій AI здатний покращувати власні системи, збільшуючи свої можливості за межі людського інтелекту) обговорювалася роками. Однак сучасні швидкі темпи змін у поєднанні з широким висвітленням у засобах масової інформації призвели до того, що ці дебати привернули увагу всього світу.
Джерело: Columbia Journalism Review
Це викликало різні погляди на те, як ШІ вплине на майбутнє соціальної взаємодії.
Дехто уявляє утопічну еру, коли штучний інтелект взаємодіє з людьми, а технологічний прогрес панує. Інші стверджують, що люди адаптуються до штучного інтелекту, створюючи нові робочі місця навколо цієї технології, подібно до зростання робочих місць після винаходу автомобіля. Інші, однак, наполягають на тому, що існує велика ймовірність того, що штучний інтелект дозріє і стане неконтрольованим, створюючи реальну загрозу для людства.
До того часу у світі штучного інтелекту все як завжди. Слідкуйте за своїм ChatGPT, своїм Bard або Siri, їм може просто знадобитися оновлення програмного забезпечення, щоб керувати світом. Але наразі здається, що найбільша загроза для людства — це не наші власні винаходи, а наш безмежний дар перебільшувати.