“System 0”代表了一種由人工智能驅動的新興認知工具,它與人類的直覺和分析一起工作,以提高認知能力。
這個新系統有望支持復雜的決策和解決問題,但需要謹慎管理,以避免過度依賴,并確保合乎道德的使用。
System 0簡介
人類與人工智能(AI)之間日益增長的互動正在形成一種新的思維方式,即“System 0”。這種新的認知框架存在于人類思維之外,但有可能增強我們的認知能力。System 0與兩種既定的人類思維模式一起工作:System 1是快速、直覺和自動的,System 2是較慢、更善于分析和反思的。
然而,System 0引入了一層額外的復雜性,重塑了我們運作的認知景觀。這可能代表著我們思考和決策方式的重大飛躍。我們必須利用這一進步來加強我們的認知自主權,確保我們不會過度依賴人工智能。
這一突破性的概念在10月22日的《自然人類行為》雜志上發表了一篇名為《作為System 0思維的人類與人工智能交互案例》的文章。這篇文章是由意大利卡托利卡大學米蘭校區人文技術實驗室主任Giuseppe Riva教授和意大利卡托利卡大學布雷西亞校區神經心理學應用技術實驗室主任以及意大利卡托利卡大學布雷西亞校區的Mario Ubiali教授領導的研究小組撰寫的。這項研究是由米蘭聯想基礎設施解決方案集團的Massimo Chiriatti、紐約斯克內克塔迪聯合學院的Marianna Ganapini教授和卡托利卡大學米蘭校區的Enrico Panai教授合作進行的。
外部認知支持系統
就像外部驅動器允許我們存儲計算機上沒有的數據一樣,我們可以通過將驅動器連接到PC上來工作,無論我們在哪里,人工智能都具有銀河處理和數據處理能力,可以代表人類大腦的外部電路,能夠增強它。因此就有了System 0的概念,它本質上是一種依賴于AI能力的“外部”思維形式。
通過管理大量數據,人工智能可以處理信息,并根據復雜的算法提供建議或決策。然而,與直覺思維或分析思維不同,System 0并不賦予它所處理的信息以內在意義。換句話說,人工智能可以在沒有真正“理解”數據內容的情況下進行計算、預測和生成響應。
因此,人類必須對人工智能產生的結果進行解釋,并賦予其意義。這就像有一個助手可以有效地收集、過濾和組織信息,但仍然需要我們的干預才能做出明智的決定。這種認知支持提供了有價值的輸入,但最終的控制權必須始終掌握在人類手中。
過度依賴人工智能的風險
“風險在于,”Riva和Ubiali教授強調,“過于依賴System 0,而不鍛煉批判性思維。如果我們被動地接受人工智能提供的解決方案,我們可能會失去自主思考和創新的能力。在一個日益自動化的世界里,人類繼續質疑和挑戰人工智能產生的結果是至關重要的,”專家們強調。
此外,人工智能系統的透明度和信任度是另一個主要難題。我們如何確保這些系統沒有偏見或扭曲,并提供準確可靠的信息?教授們警告說:“使用合成或人工生成數據的趨勢日益增長,可能會損害我們對現實的感知,并對我們的決策過程產生負面影響。”
他們指出,人工智能甚至可以劫持我們的內省能力。反思自己的思想和感受 —— 這是人類獨有的過程。然而,隨著人工智能的進步,依靠智能系統來分析我們的行為和精神狀態可能成為可能。這就提出了一個問題:通過人工智能分析,我們能在多大程度上真正了解自己?人工智能能否復制主觀體驗的復雜性?
認知增強的未來
教授們指出,盡管存在這些問題,但System 0也提供了巨大的機會。由于能夠快速有效地處理復雜數據,人工智能可以幫助人類解決超出我們自然認知能力的問題。無論是解決復雜的科學問題、分析海量數據集,還是管理復雜的社會系統,人工智能都可能成為不可或缺的盟友。
為了充分利用System 0的潛力,該研究的作者建議,迫切需要制定道德和負責任的使用指南。他們警告說:“透明度、問責制和數字素養是使人們能夠批判性地與人工智能互動的關鍵因素。”“教育公眾如何駕馭這種新的認知環境,對于避免過度依賴這些系統的風險至關重要。”
人類思想的未來
他們得出結論:如果不加以控制,System 0將來可能會干擾人類的思維。“至關重要的是,我們必須保持對如何使用它的意識和批判性;System 0的真正潛力將取決于我們引導它朝著正確方向發展的能力。”