來源|TIME
文|CARISSA VéLIZ
編譯|楊雪涵
(資料圖片)
如果說蘇格拉底是古希臘最聰明的人,那么大語言模型就是當今現代社會中最為愚蠢的系統。
蘇格拉底的謙遜智慧:認識知識的局限,保持真實謙和
在柏拉圖所寫的《申辯論》中,他講述了蘇格拉底的朋友凱勒豐前去德爾斐神示所拜訪神諭的故事。凱勒豐詢問牧師是否有人比蘇格拉底更聰明,女祭司回答說沒有:蘇格拉底是他們當中最聰明的一個。
起初,蘇格拉底感到困惑。當有那么多人以他們的知識和智慧而聞名,而蘇格拉底自認為他兩者皆為缺乏時,他怎么可能是最聰明的人呢?
他以解開這個謎團為己任四處詢問政治家,詩人與哲學家。他最終發現了什么?蘇格拉底的調查表明,那些聲稱自己博學的人要么并不知道他們認為自己知道的知識,要么知道的遠遠少于他們聲稱自己知曉的。
因此,蘇格拉底是最聰明的人。因為他明白自己知識的局限性。他在保持真實的同時也做到了毫不張揚。
那么這個故事與ChatGPT 4等大語言模型之間又是如何加以比較的呢?
大語言模型的虛幻信心:統計猜測背后的真相
與蘇格拉底相反,大語言模型是不知道人類在各自的知識體系中具體缺乏什么的。這些系統的構建目的并不是為了追求真相,它們所存在的基礎也并非基于實踐經驗的證明或是邏輯,因此它們做出的統計猜想往往是錯誤的。
大語言模型不會告知用戶它們正在進行統計猜測,他們以與陳述事實相同的信心提出錯誤的猜測。因此無論你問什么,它們都會給出一個令人信服的答案,而且永遠都不會是“我不知道”,即使它應該是。如果您向ChatGPT 詢問時事,它會告知您它僅限訪問 2021年 9月前的信息,并且無法瀏覽互聯網。對于幾乎所有其他類型的問題,它都會冒險給出一個將事實與捏造混為一談的回應。
富蘭克福警示:大語言模型的廢話威脅勝過謊言
哲學家哈里 ·戈登 ·富蘭克福有句名言:廢話是典型具有說服力的言論,但其脫離了對于真相的關注。同理可得,大語言模型是終極的廢話者,因為它們被設計成了合理(因此令人信服)但不考慮真相的系統。廢話不一定就是錯誤的,有時胡說八道的人會按原樣描述事情,但如果他們不以真相為目的,那他們所說的仍是廢話。
富蘭克福警告說,胡說八道是危險的。廢話對于真相的威脅比謊言更大。撒謊的人認為她知道真相是什么,因此實情往往更被關注。她可以受到質疑并承擔責任,她的意圖可以被推斷出來。正如富蘭克福所說,說真話的人和說謊者正站在同一場游戲的對立面上,胡說八道的人毫不在意。因此真理甚至沒有被面對;它被忽略了;它變得無關緊要。
說服力的雙刃劍:大語言模型廢話的潛在危險
廢話越有說服力就越危險,大語言模型在設計上有兩個方面具備說服力。首先,它們分析了大量文本,這使它們能夠根據給定的提示做出可能的反應進行統計猜測。換句話說,它模仿了它在所經歷的文本中拾取的模式。其次,這些系統是通過從人為反饋( RLHF)中強化學習的過程來改進的。獎勵模型是直接從人類反饋中訓練出來的。人類教導它他們更喜歡怎樣的反應。通過無數次迭代,系統逐漸學會了如何滿足人類的喜好,從而變得越來越有說服力。
正如假新聞的泛濫所告訴我們的那樣,人類并不總是喜歡真相。虛假往往比平淡無奇的真相更有吸引力。我們喜歡好的、令人興奮的故事,遠遠超出我們對于真相的執念。大語言模型類似于噩夢般的學生、教授或記者;那些不承認自己知識的局限性,而是試圖通過胡說八道來炫耀知識容量的人。
科技的道德試煉:從柏拉圖到現實的人工智能監管之路
柏拉圖的《申辯論》表明,我們理應將人工智能建設得更像蘇格拉底,而不是像胡說八道的人。我們不應該期望科技公司出于自己的善意進行合乎道德的設計。硅谷以其胡說八道的能力而聞名,公司甚至會覺得胡說八道是完全有必要的,只有這樣才能在這種環境中保持競爭力。在一個胡說八道的企業環境中工作的公司會創造出胡說八道的產品應該不足為奇。過去的二十年里所教會我們的一件事是,科技同其他行業一樣需要監管,沒有一個行業可以實現自我監管。我們監管食品、藥品、電信、金融、運輸;為什么技術就不能成為下一個呢?
人工智能領域垂直號黑智
了解更多AI產業資訊
返回搜狐,查看更多
關鍵詞: