5月3日消息,據(jù)外電報道,微軟的一份新報告概述了該公司去年為發(fā)布負責任的人工智能平臺所采取的步驟。
在主要涵蓋 2023 年的《負責任的人工智能透明度報告》中,微軟宣揚了其在安全部署人工智能產(chǎn)品方面取得的成就。
年度人工智能透明度報告是該公司去年7月與白宮簽署自愿協(xié)議后做出的承諾之一。微軟和其他公司承諾建立負責任的人工智能系統(tǒng)并致力于安全。
微軟在報告中表示,它在過去一年中創(chuàng)建了 30 個負責任的人工智能工具,擴大了負責任的人工智能團隊,并要求開發(fā)生成式人工智能應用程序的團隊在整個開發(fā)周期中衡量和繪制風險。
該公司指出,它在其圖像生成平臺中添加了內(nèi)容憑證,該平臺在照片上添加水印,將其標記為由人工智能模型制作。
該公司表示,它為 Azure AI 客戶提供了檢測仇恨言論、性內(nèi)容和自殘等問題內(nèi)容的工具,以及評估安全風險的工具。這包括新的越獄檢測方法,該方法于今年 3 月進行了擴展,包括間接提示注入,其中惡意指令是人工智能模型攝取的數(shù)據(jù)的一部分。
它還正在擴大其紅隊工作,包括故意嘗試繞過其人工智能模型中的安全功能的內(nèi)部紅隊,以及紅隊應用程序,以允許在發(fā)布新模型之前進行第三方測試。
然而,其紅隊部隊的工作卻很艱巨。該公司的人工智能推出也未能幸免于爭議。
當 Bing AI 于 2023 年 2 月首次推出時,用戶發(fā)現(xiàn)該聊天機器人自信地陳述了不正確的事實,并一度教會人們種族歧視。 10 月份,Bing 圖像生成器的用戶發(fā)現(xiàn)他們可以使用該平臺生成馬里奧(或其他流行角色)駕駛飛機飛往雙子塔的照片。泰勒·斯威夫特 (Taylor Swift) 等名人的 Deepfake 裸照在一月份在 X 上流傳。
據(jù)報道,這些圖片來自一個分享使用 Microsoft Designer 制作的圖像的小組。微軟最終堵住了生成這些圖片的漏洞。
當時,微軟首席執(zhí)行官薩蒂亞·納德拉 (Satya Nadella)表示,這些圖像令人震驚且可怕。
微軟首席人工智能官娜塔莎·克蘭普頓 (Natasha Crampton) 在電子郵件中表示,該公司明白人工智能仍是一項正在進行的工作,負責任的人工智能也是如此。
「負責任的人工智能沒有終點線,所以我們永遠不會考慮我們在自愿人工智能承諾下的工作。但自簽署以來我們已經(jīng)取得了巨大進展,并期待今年繼續(xù)保持我們的勢頭。」克蘭普頓說。