Chat GPT開發商 Open AI和 Google DeepMind 的現任和前任員工警告稱,不受監管的人工智能 ( AI ) 是危險的,可能導致“人類滅絕”。自己創建人工智能的公司辯稱,他們無法獨自解決問題,應該對舉報人采取保護措施,以便分擔風險擔憂。
據華爾街日報( WSJ)和路透社4日(當地時間)報道,Open AI和谷歌旗下DeepMind的約10名現任和前任員工今天發表聯合聲明,引發人們對一種名為AI的新技術可能帶來的風險的擔憂。
“最了解尖端人工智能系統如何工作以及部署這些系統的相關風險的人無法暢所欲言,”Open AI前員工威廉·桑德斯 (William Saunders) 在聲明中透露了自己的真實姓名。除了 Saunders 之外,還有 6 名前 Open AI 員工和 4 名現任 Open AI員工,以及 1 名前 DeepMind 員工和現任 DeepMind 員工,其中 6 名簽署者要求匿名。他們在一份聲明中指出, “與人工智能相關的風險包括加深現有的不平等、操縱和錯誤信息,以及失去對自主人工智能系統的控制,可能導致人類滅絕。”
據報道,在某些情況下,包括 Open AI在內的多家公司的人工智能程序創建的照片中包含與投票相關的錯誤信息。據透露,由于定制化的公司治理結構,與人工智能相關的風險管理很難帶來改變,例如公司內部的報告。他們表示,“人工智能公司由于其追求利潤的目標而缺乏適當的監管,僅靠內部監管體系無法解決問題。人工智能公司擁有有關各類風險水平的大量非公開信息,但其中一些信息是”。
與政府和民間社會分享這些信息的義務很弱,我不相信這些信息會自愿分享,”他辯稱。他們還批評人工智能公司通過過多的保密協議來阻止提出相關擔憂或批評。 “由于與公司簽訂了廣泛的保密協議,我們無法表達我們的擔憂,”他們表示,“一般舉報人保護的重點是不當行為,考慮到整個行業類似案件的歷史,我們中的一些人可能對此感到擔憂。 “我們擔心各種形式的報復,”他強調。因此, 禁止簽訂禁止誹謗或批評公司風險相關問題的協議建立向獨立組織提出風險相關問題的匿名程序禁止對公開分享風險相關問題的現任或前任員工進行報復信息等敦促。
此外,《華爾街日報》報道稱,知名人工智能專家也支持這封信。主要人物包括人工智能科學家斯圖爾特·拉塞爾 (Stuart Russell) 、因其早期開創性研究而被稱為“人工智能教父”的約書亞·本吉奧 (Joshua Bengio)和杰弗里·辛頓 (Jeffrey Hinton)。 Hinton去年離開谷歌,更自由地談論人工智能技術的風險。據《華爾街日報》報道,一些人工智能研究人員認為,人工智能技術可能會失控,變得像流行病或核戰爭一樣危險,盡管這些擔憂的強度較低,但許多專家認為應該加強對人工智能的監管。
引領生成式人工智能市場的Open AI在回應這一聲明時表示,它同意政府監管是必要的。 Open AI發言人表示:“我們對提供最強大、最安全的人工智能系統的記錄感到自豪,我們相信應對風險的科學方法。” “鑒于這項技術的重要性,我們認為嚴格的辯論很重要。 “我們同意并將繼續與世界各地的政府、民間社會和其他社區合作。”
