人工智能製造商警告他們的技術存在“滅絕的風險”

領導人工智能革命的人們也在呼籲制定法規,將其與流行病和核戰爭進行比較。

**振作起來:人工智能可能導致人類滅絕。 **

週二,數百名人工智能行業領袖和研究人員;包括來自微軟、谷歌和OpenAI 的高管發出了一個發人深省的警告。他們聲稱,他們正在設計的人工智能技術有朝一日可能會對人類的生存構成真實而現實的威脅。除了流行病和核戰爭的恐怖之外,他們還認為人工智能是一種類似程度的社會風險。

在人工智能安全中心(Center for AI Safety) 發表的一封信中,人工智能專家提出了這一簡潔明了的聲明:“減輕人工智能滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”

就是這樣,他們就是這麼說的。

資料來源:人工智能安全中心

該聲明將人工智能描述為迫在眉睫的威脅,類似於核災難或全球流行病。但簽署人,這些技術行業的奇才,未能擴大他們不祥的警告。

這種末日情景究竟應該如何下降?我們應該什麼時候標記我們的日曆以迎接我們的機器人霸主的崛起?為什麼人工智能這種人類創新的發明會背叛它的創造者?這些人工智能架構師的沉默是響亮的,他們沒有給出任何答案。

事實上,這些行業領導者提供的信息並不比帶有預設回复的聊天機器人多。在全球威脅領域,人工智能似乎突然插隊,戰勝了氣候變化、地緣政治衝突,甚至是外星人入侵的谷歌關鍵詞搜索。

與戰爭、外星人入侵和氣候變化等其他全球問題相比,谷歌搜索人工智能。圖片:谷歌

有趣的是,當法規符合他們的利益時,公司往往會提倡法規。這可以被視為他們表達“我們希望參與製定這些法規”的方式,這類似於狐狸在雞舍中請求新規則。

同樣值得注意的是,OpenAI 的首席執行官Sam Altman 一直在推動美國的監管。儘管如此,如果歐洲大陸的政客繼續試圖監管人工智能,他仍威脅要離開歐洲。 “我們會努力遵守,” Altman在倫敦大學學院的一個小組會議上說。 “如果我們能遵守,我們會的。如果做不到,我們將停止運營。”

公平地說,幾天后他又改口說OpenAI 沒有離開歐洲的計劃。當然,這是在他有機會在“非常富有成效的一周”中與監管機構討論這個問題之後發生的。

**人工智能有風險,但風險有那麼大嗎? **

專家們並未忽視人工智能的潛在危害。此前一封由31,810 名代言人簽署的公開信呼籲暫停強大的AI 模型的訓練,其中包括Elon Musk、Steve Wozniak、Yuval Harari 和Andrew Yang。

信中說:“這些協議應確保遵守它們的系統是安全的,無可置疑,”並澄清說,“這並不意味著總體上暫停AI 開發具有緊急功能的黑盒模型,只是從危險的競賽中倒退到更大的不可預測的競賽中。”

潛在的AI Foom問題(其中AI 能夠改進自己的系統,將其能力提高到超越人類智能的程度)已經討論了多年。然而,當今快速的變化步伐,加上媒體的大量報導,使這場辯論成為全球關注的焦點。

資料來源:Columbia Journalism Review

這引發了關於AI將如何影響社交互動的未來的不同觀點。

一些人設想了一個烏托邦式的時代,人工智能與人類互動,技術進步至高無上。其他人則認為人類將適應人工智能,圍繞該技術創造新的就業機會,類似於汽車發明後的就業增長。然而其他人堅持認為,人工智能很有可能會成熟並變得無法控制,從而對人類構成真正的威脅。

在那之前,人工智能世界一切如常。密切關注你的ChatGPT、你的Bard 或你的Siri,它們可能只需要一次軟件更新就可以統治世界。但就目前而言,人類最大的威脅似乎不是我們自己的發明,而是我們無限的誇張天賦。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate.io APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)