🔥 距離 Gate.io WCTC S7 正式開賽僅剩 7 天
世界加密貨幣交易大賽即將開啓,總獎池高達 $5,000,000
👉🏻 立即報名:https://gate.io/competition/wctc/s7?pid=APP&c=moments_gatePost&ch=druYjDaF
報名參賽,不僅有機會贏取高達百萬美元的個人獎勵,更有 Gate.io 專屬週邊大禮等你來拿
全球頂尖交易員正在集結,一場交易盛宴即將開啓
🔗 活動詳情: https://www.gate.io/announcements/article/44440
三大巨頭聯合署名!又一封「警惕AI、保衛人類」的公開信發出
撰文:VickyXiao、Juny
來源:矽星人
自從生成式AI 以勢如破竹的速度席捲幾乎每一個領域,AI 挑戰人類的擔憂也越來越真實。
上次,馬斯克就人工智能研究界和產業界的大佬們一起發布了一篇呼籲暫停半年AI 大模型訓練、加強AI 技術監管的公開信,呼籲全球所有實驗室暫停比更強的AI 模型研發,暫停時間至少為6 個月。但結果被人扒出其實他為Twitter 購買了1 萬個GPU 用於推進一個全新的AI 項目,極有可能正在開發自家的大語言模型。
但這一次,又一封呼籲人們要重視AI 帶來威脅的公開信又發出。比上一次更引人注目的是,目前生成式AI 領域鼎立的三大巨頭: OpenAI 、DeepMind(隸屬於Google)、Anthropic 都加入其中。
22 字聲明,350 人簽名
這份聲明由總部位於舊金山的非營利組織AI 安全中心發布,就他們認為AI 對人類構成的生存威脅發出了新的警告。整份聲明才22 個字——對,你沒看錯,才22 個字,全部內容如下:
**減輕AI 滅絕的風險,應該與管控流行病和核戰爭等其他社會級規模的風險一樣,成為一項全球優先事項。 **
儘管AI 威脅論並不新鮮,但如此直白地把它和「核戰爭」、「大流行病」等危害全體人類的危機因素列在一起公開作比較,還是屬於首次。
聲明的署名部分比聲明的內容長得多。
除去OpenAI 首席執行官Sam Altman、DeepMind 首席執行官Demis Hassabis 和Anthropic 首席執行官Dario Amode 以外,超過350 名頂級AI 研究人員、工程師和創業者也加入其中,包括曾經獲得圖靈獎的“AI 三巨頭”之二Geoffrey Hinton 和Yoshua Bengio,但另一位和他們一起獲獎的、現任Facebook 母公司Meta 首席AI 科學家的Yann LeCun 尚未簽名。
此外,名單裡還出現了中國學者的身影,包括中國科學院的自動化研究所人工智能倫理與治理研究中心主任曾毅,清華大學副教授詹仙園等。
完整簽名名單,可以在這裡進行查看:
聲明發布者AI 安全中心的執行主任Hendrycks 表示,這一份聲明很簡潔,特意沒有提出任何減輕人工智能威脅的潛在方法,就是為了避免分歧。 「我們不想推動包含30 種潛在干預措施的龐大措施組合,」Hendrycks 說。 「當這種情況發生時,它會淡化信息。」
馬斯克公開信的加強版
這封公開信可以看做是今年早些時候馬斯克公開信的加強版和「清白版」。
此前,馬斯克聯合超過千名產業界和學術界的大佬們在「生命未來研究所(Future of Life Institute)」網站上發布聯名公告。公開信中主要傳達了兩個方面的信息:一是警告人工智能存在對人類社會的潛在威脅,要求立刻暫停任何比GPT-4 更強大的人工智能係統的訓練,時間跨度至少6 個月。二是呼籲整個人工智能領域以及政策制定者們,要共同設計一套全面的人工智能治理系統,對人工智能技術的發展進行監督和審查。
這封信當時在多個層面受到批評。不僅因為馬斯克被爆出「不講武德」,一邊公開呼籲暫停AI 研究,一邊偷偷推進一個全新的AI 項目,並挖走了一些Google 和OpenAI 的技術人才,還因為「暫停開發」的建議並不可行,而且也並不能解決問題。
比如當年跟Yoshua Bengio 一起獲得圖靈獎,人工智能「三巨頭」之一的Yann LeCun 當時就明確表示他並不同意這封信的觀點,也沒有簽名。
不過,此次這封全新的更為含糊的公開信,Yann LeCun 同樣沒有簽名。
人工智能領域的著名學者、Landing AI 的創始人吳恩達當時也在LinkedIn 上發文表示,認為全面暫停AI 訓練6 個月的想法是一個糟糕、不切實際的想法。
他表示能夠真正讓整個行業都暫停研究AI 訓練的唯一辦法是政府的介入,但讓政府暫停他們不了解的新興技術是反競爭的,顯然也不是一個很好的解決辦法。他承認負責任的AI 很重要、AI 確實也有風險,但一刀切的方式不可取。當前更重要的是各方要在發展AI 技術的同時更多的投資於人工智能的安全領域,並且配合製定圍繞透明度和審計的法規。
Sam Altman 更是在接受美國國會質詢的時候就直接表示,馬斯克這個呼籲的框架是錯誤的,日期上的暫停毫無意義。 「我們暫停6 個月,然後呢?我們再暫停6 個月?」他說。
但和吳恩達一樣,Sam Altman 一直也是要求政府加強對AI 監管的最積極的呼籲者。
他甚至在聽證會上向美國政府提出了監管建議,要求政府組建一個新的政府機構,負責為大型AI 模型頒發許可,如果有公司模型不符合政府標準,該機構可以撤銷該公司的許可證。
上週,他還聯合了另外幾位OpenAI 的高管,呼籲建立類似國際原子能機構的國際組織來監管AI,號召國際間領先的人工智能開發商展開合作。
反對者的聲音
和馬斯克的公開信一樣,這封最新的公開信同樣基於AI 系統能力會迅速提高、但人類沒法完全控制其安全運行的假設。
許多專家指出,大型語言模型等系統的迅速改進是可以預見的。一旦人工智能係統達到一定的複雜程度,人類就可能無法控制它們的行為。來自牛津大學的學者Toby Ord 就表示,正如人們希望大煙草公司能夠早一點承認他們的產品會帶來嚴重的健康危害、並開始討論怎麼限制這些危害一樣,現在AI 的領袖們正在這麼做。
但也有不少人人懷疑這些預測。他們指出人工智能係統甚至無法處理相對平凡的任務,例如駕駛汽車等。儘管在這一研究領域付出了多年的努力並投入了數百億美元,但全自動駕駛汽車仍遠未成為現實。懷疑論者說,如果人工智能連這一挑戰都無法應對,那麼在未來幾年,這項技術有什麼機會造成威脅?
Yann LeCun 就在Twitter 上表達了對這一擔憂的反對,他表示,超人AI 完全不在人類滅絕危機的名單前面——主要因為它現在還不存在。 「在我們可以設計出狗這個級別的AI(更不用說人類級別的AI 了)之前,討論如何讓它更安全完全為時過早。」
而吳恩達對於AI 持有更加樂觀的態度。他稱他眼裡會對大部分人類造成生存危機的因素,包括流行病、氣候變化、小行星等,AI 反而會是這些危機的關鍵解決辦法。如果人類想要在未來1000 年生存並發展,那就需要讓AI 更快發展,而不是更慢。