Мнение | Обоюдоострый меч общего искусственного интеллекта: контроль развития и предотвращение кризиса

Автор: Ху И

Источник: Бумага

Источник изображения: сгенерировано инструментом Unbounded AI

Недавно Себастьен Бубек, глава группы теории машинного обучения в Исследовательском институте Microsoft в Редмонде, вместе с Ли Юаньчжи, лауреатом премии Sloan Research Award 2023, опубликовали весьма обеспокоенную статью. Статья под названием «Искра общего искусственного интеллекта: ранние эксперименты с GPT-4» занимает 154 страницы. Некоторые хорошие люди обнаружили из исходного кода LaTex, что первоначальное название на самом деле было «Первый контакт с AGI».

Публикация этой статьи знаменует собой важную веху в области исследований искусственного интеллекта. Он дает ценную информацию о нашем глубоком понимании разработки и применения общего искусственного интеллекта (AGI). В то же время первоначальное название статьи «Первый контакт с ОИИ» также подчеркивает важность и перспективность исследований в области общего искусственного интеллекта.

Я терпеливо прочитал переведенную версию этой статьи. Честно говоря, я наполовину понимаю, наполовину не понимаю, и я не знаю, что происходит. Позвольте мне сначала представить основное предложение этой статьи: GPT-4 представляет собой форму общего интеллекта, расцветающую искру общего искусственного интеллекта. Это проявляется в его основных умственных способностях (таких как рассуждение, творчество и дедукция), диапазоне тем, в которых он приобретает опыт (таких как литература, медицина и программирование), и разнообразии задач, которые он может выполнять (таких как играть в игры, использовать инструменты, объясняться и т. д.).

Прочитав эту статью, я пересмотрел свою статью «Будущее можно ожидать |Живопись с искусственным интеллектом: пусть каждый станет художником». Я задал себе вопрос: не слишком ли узко классифицировать большие модели, такие как ChatGPT, в контенте, сгенерированном искусственным интеллектом (AIGC) раньше? Как говорится в документе Microsoft Research, GPT-4 на самом деле не просто AIGC, а скорее прототип общего искусственного интеллекта.

Прежде чем объяснить, что означает AGI, позвольте мне рассказать читателям колонки The Paper «Ожидаемое будущее» о трех словах ANI, AGI и ASI.

Искусственный интеллект (ИИ) обычно делится на три уровня:

① Слабый искусственный интеллект (Artificial Narrow Intelligence, ANI);

② Общий искусственный интеллект (AGI);

③ Искусственный сверхразум (ИСИ).

Далее я кратко представлю различия и развитие этих трех уровней.

①Слабый искусственный интеллект (ANI):

Слабый ИИ на сегодняшний день является наиболее распространенной формой ИИ. Он фокусируется на выполнении одной задачи или решении проблемы в определенной области. Например, распознавание изображений, распознавание речи, машинный перевод и т. д. Такие интеллектуальные системы могут лучше людей решать определенные задачи, но они могут работать только в ограниченной степени и не могут решать проблемы, для решения которых они не предназначены. Сегодня на рынке существует множество умных продуктов и услуг, таких как виртуальные помощники (Siri, Microsoft Xiaoice и др.), умные колонки (Tmall Genie, Xiaoai Speaker и др.) и AlphaGo, все они относятся к категории слабых искусственный интеллект. Ограничение слабого искусственного интеллекта заключается в том, что ему не хватает всестороннего понимания и способности суждения, и он может хорошо выполнять только определенные задачи.

С непрерывным развитием больших данных, алгоритмов и вычислительной мощности слабый искусственный интеллект постепенно проникает во все сферы нашей повседневной жизни. В сфере финансов, медицинского обслуживания, образования, развлечений и т. д. мы стали свидетелями многих успешных случаев применения.

②Общий искусственный интеллект (AGI):

Общий искусственный интеллект, также известный как сильный искусственный интеллект, относится к искусственному интеллекту, который имеет тот же интеллект, что и люди, и может выполнять все разумные действия нормальных людей. Это означает, что ОИИ может учиться, понимать, адаптировать и решать проблемы в различных областях так же, как и люди. В отличие от ANI, AGI может самостоятельно выполнять множество задач, не ограничиваясь только определенной областью. В настоящее время считается, что общий искусственный интеллект еще не достигнут, но многие технологические компании и ученые усердно работают, чтобы приблизиться к этой цели.

③ Сверхискусственный интеллект (ASI):

Суперискусственный интеллект относится к системе искусственного интеллекта, которая намного превосходит человеческий интеллект в различных областях. Он может не только выполнять различные задачи, которые могут выполнять люди, но и намного превосходить людей с точки зрения творчества, способности принимать решения и скорости обучения. Появление ИСИ может вызвать множество беспрецедентных технологических прорывов и социальных изменений, а также решить сложные проблемы, которые люди не могут решить.

Тем не менее, ASI также несет в себе ряд потенциальных рисков. Например, это может привести к потере человеческой ценности и достоинства, спровоцировать злоупотребления и неправомерное использование искусственного интеллекта и даже может привести к бунту искусственного интеллекта и другим проблемам.

Оказывается, мы всегда считали, что технология искусственного интеллекта, от слабого искусственного интеллекта до общего искусственного интеллекта и сверхискусственного интеллекта, пройдет долгий и сложный процесс развития. В этом процессе у нас есть достаточно времени, чтобы сделать различные приготовления, начиная от законов и правил и заканчивая психологической подготовкой каждого человека. Однако в последнее время у меня появилось сильное ощущение, что мы можем быть всего в нескольких шагах от общего искусственного интеллекта, и это может занять всего 20 лет или меньше. Если кто-то говорит, что этот процесс займет всего 5-10 лет, я бы не исключал этого полностью.

OpenAI упомянул в своем «Планировании и перспективах для AGI»: «AGI обладает потенциалом предоставить невероятные новые возможности каждому. Мы можем представить себе мир, в котором каждый из нас может получить практически любую помощь в когнитивных задачах, обеспечивая огромный множитель силы для человека. интеллект и творчество».

Однако в этом плане упор делается на процесс «постепенного перехода», а не на мощные возможности ОИИ. «Дать людям, политикам и учреждениям время, чтобы понять, что происходит, испытать на себе плюсы и минусы этих систем, настроить нашу экономику и ввести регулирование».

На мой взгляд, основное сообщение, переданное этим отрывком, заключается в том, что технология, ведущая к ОИИ, уже существует. Однако, чтобы позволить человеческому обществу пройти процесс адаптации, OpenAI намеренно замедляет темпы технического прогресса. Они намерены сбалансировать технологический прогресс и готовность человеческого общества, предоставив больше времени для обсуждений правовой, этической и социальной адаптации и приняв необходимые меры для решения проблем, которые могут возникнуть.

В «Аналектах конфуцианского завоевания Чжуаньюй генералом Цзи» есть такая фраза: «Тигриная пасть вышла из скорпиона» Теперь всякие ТШП, как и тигры, вырвались из своих клеток. Как сказал Юваль Ноа Харари, автор «Краткой истории будущего»: «Искусственный интеллект овладевает языком со способностями, превышающими средний человеческий уровень. Освоив язык, искусственный интеллект уже имеет возможность устанавливать тесные отношения с сотнями миллионов людей в больших масштабах и держит в руках ключ к вторжению в систему человеческой цивилизации. Далее он предупредил: самая большая разница между ядерным оружием и искусственным интеллектом заключается в том, что ядерное оружие не может создать более мощное ядерное оружие. Но **ИИ может создать более мощный ИИ, поэтому нам нужно действовать быстро, пока ИИ не вышел из-под контроля. **

22 марта Институт будущего жизни (Future of Life) опубликовал открытое письмо ко всему обществу под названием «Приостановка исследований гигантского искусственного интеллекта: открытое письмо», в котором призвал все лаборатории искусственного интеллекта немедленно приостановить сравнение GPT- 4 Обучение более мощным системам ИИ с паузой не менее 6 месяцев. Лэндон Кляйн, директор по политике США в Институте будущего жизни, сказал: «Мы рассматриваем текущий момент как сродни началу ядерной эры…» Это открытое письмо поддержали более тысячи человек, в том числе Илон Маск (основатель Tesla), Сэм Альтман (генеральный директор OpenAI), Джошуа Бенджио (лауреат премии Тьюринга 2018 года) и другие известные люди.

Если многие люди осознают, что мы вот-вот вступим в эру «распространения ядерного оружия ИИ», тогда нам действительно нужно изучить возможность. Эта возможность заключается в создании международной организации, аналогичной Международному агентству по атомной энергии, целью которой является надзор за всеми компаниями, занимающимися искусственным интеллектом, на основе количества используемых ими графических процессоров, энергопотребления и других показателей. Системы, которые превышают пороги возможностей, подлежат аудиту. Через подобные международные организации мы можем работать вместе, чтобы технологии ИИ приносили пользу человечеству, а не потенциальный вред.

Некоторые ученые выступают за то, чтобы при продвижении исследований и применении искусственного интеллекта необходимо избегать возможности системы искусственного интеллекта выйти за рамки человеческого контроля. Они использовали ряд метафор для описания разворачивавшейся катастрофы, в том числе «10-летний ребенок пытался играть в шахматы с вяленой рыбой 15», «11 век пытался бороться с 21 веком» и «Австралопитек пытался бороться с Homo». сапиенс». Эти ученые хотят, чтобы мы перестали представлять ИИ как «неживого мыслителя, живущего в Интернете». Вместо этого представьте их как целую инопланетную цивилизацию, думающую в миллион раз быстрее, чем люди. Просто изначально они были ограничены компьютерами.

Однако некоторые ученые настроены оптимистично. По их мнению, разработка и исследование искусственного интеллекта должны и впредь способствовать научному прогрессу и технологическим инновациям. Сравнили, что если бы в эпоху, когда зародился автомобиль, кучер предложил отстранить водителя от вождения на 6 месяцев. Оглядываясь назад, можно ли сказать, что это поведение богомола, действующего как тележка? Они считают, что с помощью прозрачного и подотчетного исследовательского подхода можно решить основные проблемы и обеспечить управляемость технологиями ИИ. Более того, именно благодаря непрерывным экспериментам и практике мы можем лучше понять и ответить на вызовы, которые может принести искусственный интеллект.

Недавно Всемирная организация здравоохранения (ВОЗ) выступила с предупреждением о сочетании искусственного интеллекта и общественного здравоохранения. Они отмечают, что использование данных, сгенерированных ИИ, для принятия решений может быть связано с риском предвзятости или неправильного использования. В заявлении ВОЗ говорится, что крайне важно оценивать риски использования генеративных больших языковых моделей (LLM), таких как ChatGPT, для защиты и улучшения благополучия человека. Они подчеркивают, что необходимы шаги для обеспечения точности, надежности и беспристрастности при использовании этих технологий для защиты общественных интересов и развития медицины.

Многие страны уже предприняли шаги по регулированию сферы искусственного интеллекта. 31 марта Итальянское агентство по защите персональных данных объявило, что с этого момента использование ChatGPT будет временно запрещено. В то же время официальные лица ЕС также работают над новым законопроектом под названием «Закон об искусственном интеллекте (Закон об ИИ)», который включает в себя: запрет на использование конкретных услуг искусственного интеллекта и формулировку соответствующих правовых норм.

Министерство торговли США выпустило уведомление, чтобы запросить комментарии общественности, в том числе: нужно ли проверять новые модели искусственного интеллекта, которые представляют риск причинения вреда, прежде чем их можно будет выпустить. В то же время Министерство торговли также пообещало принять жесткие меры в отношении вредных продуктов искусственного интеллекта, которые нарушают законы о гражданских правах и защите прав потребителей.

16 мая генеральный директор и соучредитель OpenAI Сэм Альтман впервые принял участие в слушаниях в Конгрессе США, говоря о потенциальных опасностях технологии искусственного интеллекта. Он признал, что по мере развития искусственного интеллекта возникает беспокойство и тревога по поводу того, как он изменит наш образ жизни. С этой целью он считает, что вмешательство правительства может предотвратить «дикое самовоспроизведение и самопроникновение» искусственного интеллекта. Он предложил создать совершенно новый регулирующий орган, который бы реализовывал необходимые меры безопасности и выдавал лицензии на системы ИИ с правом их отзыва.

На слушании Альтмана спросили, что его больше всего беспокоит по поводу потенциала искусственного интеллекта.Он не стал уточнять, сказав только, что «если эта технология пойдет не так, она может быть очень неправильной» и может «причинить значительный вред миру». .

До этого слушания широкое внимание также привлекали меры регулирования и контроля Китая в области искусственного интеллекта. 11 апреля в целях содействия здоровому развитию и стандартизированному применению генеративной технологии искусственного интеллекта в соответствии с «Законом о сетевой безопасности Китайской Народной Республики» и другими законами и постановлениями Управление киберпространства Китая разработало «Управление Меры для сервисов генеративного искусственного интеллекта (проект для комментариев) "". Этот подход разъясняет отношение поддержки и поощрения к индустрии генеративного искусственного интеллекта, например: «Государство поддерживает независимые инновации, продвижение и применение, а также международное сотрудничество базовых технологий, таких как алгоритмы и фреймворки искусственного интеллекта, и поощряет приоритетное принятие безопасное и надежное программное обеспечение и инструменты, вычислительные ресурсы и ресурсы данных».

Проект мнения требует, чтобы контент, генерируемый генеративным искусственным интеллектом, отражал основные ценности социализма и не содержал подрыва государственной власти, свержения социалистического строя, подстрекательства к расколу страны, подрыва национального единства, пропаганды терроризма, экстремизм, разжигание этнической ненависти, этническая дискриминация, насилие, непристойная и порнографическая информация, ложная информация и контент, который может нарушить экономический и социальный порядок. Проект мнения также требует, чтобы поставщики декларировали оценки безопасности, принимали меры по предотвращению дискриминации и уважали права на неприкосновенность частной жизни.

Коллективные меры, предпринятые этими странами, напоминают нам о том, что нынешнее развитие искусственного интеллекта несет с собой большие возможности и проблемы. Нам срочно нужны четкие этические принципы и нормы для обеспечения надлежащего использования и прозрачности технологий искусственного интеллекта. Мы столкнемся с рядом важных вопросов: как обеспечить конфиденциальность и безопасность данных? Как бороться с алгоритмической предвзятостью и несправедливостью? Как обеспечить прозрачность и объяснимость принятия решений искусственным интеллектом? На эти вопросы необходимо ответить посредством четких правил и институтов.

Когда я пишу это, мои мысли необъяснимым образом перескакивают на первый абзац стихотворения под названием «Долгий сезон» в недавней популярной отечественной драме «Долгий сезон»:

щелкни пальцами, сказал он

Давайте щелкнем пальцами

далекие вещи будут разрушены

Люди передо мной еще не знают этого

Здесь я хочу сделать смелое предсказание: когда наступит 2024 год и мы выберем слово года 2023, ChatGPT войдет в десятку самых горячих слов и, возможно, даже станет словом года или человеком года. .

Давайте разберем слово «ИИ». Если А означает Ангел (Ангел), то я могу обозначать Дьявола (Иблиса). Сегодня технологии искусственного интеллекта стремительно развиваются, демонстрируя удивительную симбиотическую связь «ангелов и демонов». Перед лицом этой реальности нам необходимо принять меры для достижения цели — «давайте наслаждаться золотым и долгим урожаем искусственного интеллекта, вместо того, чтобы впадать в холодную зиму неподготовленными».

(Автор Ху И, специалист по работе с большими данными, который любит представлять будущее.)

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить