三巨人の連名! 「AIに気をつけて人類を守れ」に関する公開書簡がまた発行されました

「AI 絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクの管理と同様に、世界的な優先事項であるべきです。」

執筆者: VickyXiao、Juny

出典: シリコンスターズ

生成 AI がほぼすべての分野に急速なペースで浸透して以来、AI が人間に挑戦するという恐怖がますます現実味を帯びてきました。

前回、マスク氏はAI大規模モデルのトレーニングを半年間停止することと、人工知能研究コミュニティや業界リーダーに対するAI技術の監督強化を求める公開書簡を発表し、世界中のすべての研究所に対し、AIの開発を一時停止するよう呼び掛けた。より強力な AI モデル、少なくとも 6 か月の停止期間付き。しかし、彼が実際にはまったく新しい AI プロジェクトを推進するために Twitter 用に 10,000 個の GPU を購入したことが判明しており、彼が独自の大規模言語モデルを開発している可能性が非常に高いです。

しかし今回、AIによる脅威への注意を促す公開書簡が再び発行された。前回よりも印象的なのは、OpenAI、DeepMind(Google所属)、Anthropicという、現在の生成AI分野の3大巨頭が揃って加わったことだ。

22 ワードの声明、350 の署名

サンフランシスコに本拠を置く非営利団体、Center for AI Safety が発表したこの声明は、AI によってもたらされる人類の実存的脅威であると彼らが信じていることについて新たに警告するものである。ステートメント全体はわずか 22 ワードです。はい、そのとおりです。わずか 22 ワードで、完全な内容は次のとおりです。

**AI 絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクの管理と同様に、世界的な優先事項である必要があります。 **

AI脅威論は新しいものではないが、全人類を危険にさらす「核戦争」や「パンデミック」などの危機要因と公的に比較されたのは初めてである。

声明の署名部分は、声明の内容よりもはるかに長いです。

OpenAIのCEOであるサム・アルトマン氏、DeepMindのCEOであるデミス・ハサビス氏、AnthropicのCEOであるダリオ・アモード氏に加えて、かつて世界大会で優勝した「AIビッグスリー」を含む350人以上のトップAI研究者、エンジニア、起業家も参加している。チューリング賞にはジェフリー・ヒントン氏とヨシュア・ベンジオ氏の2人が名を連ねたが、彼らとともに受賞し、現在フェイスブックの親会社メタ社のチーフAIサイエンティストを務めるヤン・ルカン氏はまだ署名していない。

さらに、中国科学院オートメーション研究所人工知能倫理・ガバナンス研究センター所長の曽毅氏や清華大学准教授の章賢源氏など、中国の学者もリストに名を連ねた。

署名の完全なリストはここで参照できます。

この声明を発表したAIセキュリティセンターのエグゼクティブディレクター、ヘンドリックス氏は、声明は簡潔であり、意見の相違を避けるために人工知能の脅威を軽減する潜在的な方法については意図的に言及していないと述べた。 「私たちは30の潜在的な介入からなる巨大なポートフォリオを推進したくなかった」とヘンドリックス氏は語った。 「そうなると、メッセージが薄れてしまいます。」

マスク氏の公開書簡の強化版

この公開書簡は、今年初めのマスク氏の公開書簡を強化した「クリーンバージョン」と見ることができる。

以前、マスク氏は産学界の1000人以上のリーダーらと共同で「Future of Life Institute」のウェブサイト上で共同発表を行った。この公開書簡は主に情報の 2 つの側面を伝えています。1 つは人間社会に対する人工知能の潜在的な脅威について警告するもので、GPT-4 よりも強力な人工知能システムの訓練を 10 秒の期間で即時中止することを要求しています。少なくとも6か月。 2つ目は、人工知能の分野全体と政策立案者に、人工知能技術の開発を監督およびレビューするための包括的な人工知能ガバナンスシステムを共同設計するよう呼びかけることです。

この書簡は当時、さまざまなレベルで批判された。マスク氏が「武道について話していない」と暴露され、AI研究の中止を公に要求しながら、密かに新しいAIプロジェクトを推進し、GoogleとOpenAIから技術的才能の一部を引き抜いたためだけでなく、「」という提案があったためでもある。開発を一時停止しました」は実行不可能であり、問題は解決されません。

たとえば、人工知能分野の「ビッグ 3」の 1 人であるヤン・ルカン氏は、ヨシュア・ベンジオ氏とともにチューリング賞を受賞した際、書簡の観点に同意せず、署名しなかったことを当時明らかにした。それ。

しかし、ヤン・ルカン氏も、この新たな、より曖昧な公開書簡に署名しなかった。

人工知能の分野で著名な学者であり、Landing AI の創設者であるウー・エンダ氏も、当時、AI トレーニングを 6 か月間停止するという考えは悪い、非現実的な考えであると LinkedIn に投稿しました。

同氏は、AIトレーニングに関する業界の研究を実際に中止する唯一の方法は政府の介入であるが、理解していない新興技術の中止を政府に求めるのは反競争的であり、明らかに良い解決策ではないと述べた。同氏は、責任ある AI が重要であり、AI にはリスクがあるものの、画一的なアプローチはお勧めできないことを認めました。現時点でより重要なことは、すべての関係者が AI 技術の開発中に人工知能のセキュリティ分野にさらに投資し、透明性と監査に関する規制を策定するために協力する必要があることです。

サム・アルトマン氏は、米国議会の質問を受けた際、マスク氏の電話会談の枠組みは間違っており、日程の中止は無意味だと直接述べさえした。 「私たちは6か月間休止します。それでどうなるのですか?さらに6か月間休止しますか?」と彼は言いました。

しかし、アンドリュー・ンと同様に、サム・アルトマンも政府によるAI規制の強化を最も声高に主張している人物の1人である。

同氏は公聴会で米国政府に対して規制に関する勧告も行い、大規模なAIモデルのライセンス発行を担当する新たな政府機関の設立を政府に求め、企業のモデルが政府の基準を満たしていない場合、同政府機関は企業のライセンスを取り消すことができると述べた。 。

同氏は先週、他のOpenAI幹部数名とともに、AIを規制するための国際原子力機関に似た国際組織の設立を呼びかけ、国際的な主要な人工知能開発者間の協力を呼びかけた。

相手の声

マスク氏の公開書簡と同様、この最新の書簡も、AIシステムは急速に改良されるが、人間はその安全な動作を完全に制御することはできないという前提に基づいている。

多くの専門家は、大規模な言語モデルなどのシステムの急速な改善は予測可能であると指摘しています。 AI システムがある程度の洗練度に達すると、人間は自らの行動を制御できなくなる可能性があります。オックスフォード大学の学者トビー・オード氏は、大手タバコ会社が自社製品が深刻な健康被害を引き起こす可能性を早期に認め、その危険性を制限する方法について議論し始めることを人々が期待しているのと同じように、AIのリーダーたちは今そうしていると述べた。

しかし、これらの予測を疑う人もたくさんいます。彼らは、AI システムは車の運転などの比較的日常的なタスクさえ処理できないと指摘しています。この研究分野には長年の努力と数百億ドルの投資にもかかわらず、完全自動運転車は依然として現実には程遠いです。 AIがこの課題にさえ対処できないとしたら、今後数年間でそのテクノロジーが脅威となる可能性はどのくらいあるだろうか、と懐疑論者は言う。

ヤン・ルカン氏はツイッターでこの懸念への不支持を表明し、超人的なAIは人類滅亡の危機リストのトップには全く入っていない――主にAIがまだ存在していないからだ、と述べた。 「犬レベルのAI(ましてや人間レベルのAI)を設計する前に、それをより安全にする方法を議論するのは完全に時期尚早です。」

Wu Enda 氏は AI についてはより楽観的です。同氏の目から見ると、伝染病、気候変動、小惑星など、ほとんどの人類にとって生存の危機を引き起こす要因はAIであるが、代わりにAIがこれらの危機に対する重要な解決策になるだろうと述べた。人類が次の 1,000 年に生き残り、繁栄するためには、AI の開発は遅くなるのではなく、より速く行われる必要があります。

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGate.ioアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)