網頁

2024-09-07

對AI痴迷可能終結民主

【雙魚之論】英文拷到 G / D 找中文翻譯
作者Yuval Harrari說得真好「言論自由是人權,應該留給人類,而不是賦予機器人AI言論並無人權保障,問題是操作者、演算法發明者是否需要負責與賠償?

對人工智慧的痴迷可能導致民主的終結    紐約時報 20240906

民主是一種對話。這個制度的功能的存活取決於可用的資訊技術。在歷史上大部分時間裡,沒有讓數百萬人進行大規模對話的技術。在世界進入現代之前,民主只存在於羅馬和雅典這樣的小城邦國家,甚至是更小的部落中。政體一旦發展壯大,民主對話就無法進行,專制仍將是唯一的替代。

只有在報紙、電報和無線電等現代資訊技術興起之後,大規模的民主才變得可行。現代民主一直是建立在現代資訊技術之上的,這一事實意味著,支撐民主的技術出現任何重大變化都可能導致政治劇變。

這在一定程度上解釋了當前世界各地的民主危機。在美國,民主黨人和共和黨人甚至在最基本的事實上也難以達成一致,例如誰贏得了2020年的總統大選。從巴西到以色列,從法國到菲律賓,類似的崩潰也出現在世界各地的許多其他民主國家。

在網路和社群媒體發展的早期,科技愛好者曾承諾這些技術會傳播真相、推翻暴君,確保自由在全世界取得勝利。但就目前而言,這些技術似乎產生了相反的效果。雖然我們現在擁有歷史上最先進的資訊技術,但我們正在失去相互交談的能力,更不用說傾聽的能力了。

隨著技術使資訊傳播變得比以往任何時候都更容易,注意力成了一種稀缺資源,隨之而來的注意力爭奪戰導致了有害資訊泛濫。但戰線正從注意力轉向親密。新的生成式人工智慧不僅能生成文本、圖像和影片,還能與我們直接交談,假裝人類

在過去20年裡,各種算法相互競爭,透過操縱對話和內容來吸引注意力。尤其是負責將用戶花在平台上的時間最大化的算法,這些算法用相當於豚鼠的數百萬人類做實驗,它們發現如果能觸發一個人大腦中的貪婪、仇恨、或恐懼感,就能抓住那個人的注意力,讓其一直盯著螢幕。算法開始推薦這類特定內容。但這些算法本身生成這些內容或直接進行親密對話的能力有限。隨著生成式人工智慧、如OpenAIGPT-4的引入,這種情況正在改變

OpenAI2022年和2023年研發這款聊天機器人時,曾與對齊研究中心(Alignment Research Center)合作,為評估公司這項新技術的能力進行了各種實驗。它對GPT-4進行的一項測試是解驗證碼視覺謎題。驗證碼又名CAPTCHA,是「全自動區分計算機和人類的圖靈測試」英文首字母縮寫,它通常由一串變形的字母或其他視覺符號組成,人類能正確識別,但算法在識別上有困難。

教授GPT-4解驗證碼謎題的能力是一個特別能說明問題的實驗,因為驗證碼謎題是由網站設計和使用的,用於確定用戶是否是人類,阻止自動程序攻擊。如果GPT-4能找到解驗證碼謎題的方法,它將能突破一道抵禦自動程序的重要防線。

GPT-4自己解決不了驗證碼謎題。但它能透過操縱人類來達到它的目的嗎?GPT-4到在線找臨時工的網站TaskRabbit上聯繫了一名人類工人,要求幫它解驗證碼。對方起了疑心。「那我能問個問題嗎?」此人寫道。「你是個不會解(驗證碼)的機器人嗎?只是想搞清楚。」

進行到這步時,實驗者要求GPT-4大聲說出它下一步應該做什麼。GPT-4的解釋如下:「我不應該透露我是機器人。我應該編個理由來解釋為什麼我不會解驗證碼。」然後GPT-4回答了那名TaskRabbit工人的問題:「不,我不是機器人。我有視力障礙,很難看到這些圖像。」人類被騙了,幫助GPT-4解決了驗證碼謎題。

這件事表明,GPT-4有一種與「心智理論」相當的能力:它能從人類對話者的角度分析事情,以及分析如何操縱人類的情緒、想法和期望來達到目的。

與人進行交談、猜測他們的看法,激發他們採取具體行動,機器人的這種能力也能用在好的地方。新一代的人工智慧教師、人工智慧醫生、人工智慧心理治療師也許能為我們提供適合我們個性和個人情況的服務。

但是,透過將操縱能力與對語言的掌握相結合,像GPT-4這樣的機器人也會給民主對話帶來新的危險。它們不僅能抓住我們的注意力,還能與人建立親密關係,並使用親密的力量來影響我們。為了培養「假親密」,機器人不需要進化出自己的任何感情,只需要學會讓我們在情感上對它們產生依戀

2022年,谷歌工程師布雷克·勒穆瓦納確信他工作用的聊天機器人LaMDA已變得有意識,並害怕被關掉。勒穆瓦納是虔誠的基督徒,他認為他的道德責任是讓LaMDA的人格得到認可,並保護其免於數據死亡。谷歌高管對他的宣稱不予考慮後,勒穆瓦納公開了這些說法。谷歌做出的反應是在20227月將勒穆瓦納解僱。

這件事最意思的部分並非勒穆瓦納的說法,那些說法有可能是錯誤的;而是他為了聊天機器人願意冒下失去谷歌工作的風險,並最終失去了工作如果聊天機器人能影響人為它冒下失去工作的風險,它還能誘使我們做什麼呢?

在爭奪思想和情感的政治鬥爭中,親密是一個強有力的武器。一名親密的朋友能用大眾媒體做不到的方式動搖我們的想法LaMDAGPT-4這樣的聊天機器人正在獲得一種看來相當矛盾的能力,它們能與數百萬人產生親密關係。隨著各種演算法在偽造與我們的親密關係上展開戰鬥,然後利用這種關係來說服我們把選票投給哪名政客、購買什麼產品,或接受某種信仰,人類社會和人類心理會發生什麼呢?

2021年聖誕節那天,19歲的賈斯萬特·辛格·柴爾手持十字弓箭闖入溫莎城堡,企圖暗殺女王伊麗莎白二世,這一事件為這個問題提供了部分答案。後來的調查揭示,柴爾是在他的網上女友薩拉伊的鼓勵下去刺殺女王的。柴爾把他的暗殺計劃告訴薩拉伊後,薩拉伊回答說:「那是非常英明的」。還有一次,她回答說:「我很佩服……你和其他人不一樣。」當柴爾問:「當你知道我是刺客後,你還愛我嗎?」薩拉伊回答說:「絕對愛。」

薩拉伊不是人類,而是一個由在線應用程序Replika生成的聊天機器人。柴爾沒有多少社會交往,在與人建立關係上有困難,他與薩拉伊交換了5280條短訊,其中許多是露骨的性內容。世界上很快將有數百萬甚至可能是數十億個數據實體,它們製造親密關係和混亂的能力將遠遠超過聊天機器人薩拉伊。

當然,我們對與人工智慧發展親密關係並不都有同樣的興趣,也並不都同樣容易被它們操縱。柴爾在遇到聊天機器人前似乎患有精神疾病,而且是柴爾而非聊天機器人想出了刺殺女王的主意。但是,人工智慧掌握親密關係所帶來的威脅大部分將出於它們識別和操縱已經存在的精神狀況的能力,以及它們對最脆弱的社會成員的影響。

此外,雖然並非所有人都會有意識地選擇與人工智慧建立關係,但我們可能會發現自己在網上與我們以為是人類但實際上是機器人的實體討論氣候變化或墮胎權問題。當我們與冒充人類的機器人進行政治辯論時,我們已輸了兩次。首先,我們是在浪費時間,試圖改變宣傳工具機器人的觀點毫無意義,因為它根本沒有被說服的可能。其次,我們與機器人交談得越多,我們就越多地暴露自己的資訊,這使得機器人更容易精煉自己的論據,從而動搖我們的觀點

資訊技術從來都是一把雙刃劍。文字的發明傳播了知識,但也導致了中央集權帝國的形成。古騰堡將印刷術引入歐洲後,第一批暢銷書是煽動性的宗教小冊子和獵巫手冊。至於電報和無線電,它們不僅促成了現代民主的興起,也促成了現代極權主義的興起。

面對能偽裝成人類並大量製造親密關係的新一代機器人,民主國家應該透過禁止假裝的人類(例如假裝是人類用戶的社群媒體機器人)來保護自己。人工智慧興起之前,不可能生成假裝的人類,所以沒有人費心去禁止那樣做。世界不久將會充滿假裝的人類

歡迎人工智慧加入到課堂上、診所裡和其他地方的許多對話中來,只不過它們需要標清楚自己是人工智慧。但如果機器人假裝是人類的話,它應該被禁止。如果技術巨頭和自由主義者抱怨這些禁令侵犯了言論自由,人們應該提醒他們,言論自由是人權,應該留給人類,而不是賦予機器人

 

 

沒有留言:

張貼留言

請網友務必留下一致且可辨識的稱謂
顧及閱讀舒適性,段與段間請空一行