【Comment】
問自己或他人「為什麼」,是最基本的疑惑,
這大哉一問,證實了「存在」,也就是真如或神了。
本篇提供:AI並不是模仿人的思考,而是另闢捷徑,以大數據(也就是統計)來歸納。
意思是,AI並不是人的思考。
AI用「統計」,不是「因為A,所以B」的鎖鍊,所以,無法運用(?),無法自我修正錯誤(就是,缺乏事實與推理的辯證過程)
所以,人會說AI不會思考。
這當然是一種「套套邏輯」—人先定義自己,然後以此標準說:其他都不是人。
但是,規則是人抓出來的,一定有的偏見(主觀),以及一定有的偏失(既成現象),如何影響AI,這是無法被察覺的。
重重疊疊呢!
為何機器人搶不走你的工作——至少現在還不行 BBC 2018405
早在1959年,她就憑借超凡智慧解決了一個棘手難題:電話線路上的回聲。當時,長途電話中每次通話聲音都會有迴響,造成通話者的很大困擾。
瑪德林能夠識別輸入與輸出的的相同信號,然後用電子的方式刪除回聲,解決了這個問題,這一簡潔的解決方案沿用至今。當然,瑪德林不是人類,而是一個多元自適應線性神經元(Multiple ADAptive LINear Elements)系統,簡稱「Madaline」。這是人工智能首次應用於工作領域。
今天,人們普遍認為智能計算機會搶走我們的工作,在你早餐還沒吃完以前,它就已經完成了你一周的工作量,而且他們還不休息,不喝咖啡,也不要退休金,甚至不用睡覺。但事實上,雖然很多工作未來都會自動化,但至少短期內,這種新品種智能機器更有可能是與我們一起工作(而不是取代人類)。
雖然人工智能機器在很多領域建樹非凡,譬如預防欺詐,甚至比醫生還可靠的癌症診斷。但現今最尖端的人工智能機器也跟一般人腦智力相差甚遠。
麥肯錫2017年的一份報告認為,在現有科技下,只有5%的工作可以完全自動化,60%的職業中有大約三分之一的工作可由機器人完成。
千萬別忘了,並非所有機器人都使用人工智能——有些用,很多不用。問題是,阻礙智能機器人通過人工智能接管世界的毛病,也恰恰是它們與人類共事顯得非常糟糕的原因。谷歌的相片識別軟件曾經將黑人的臉辨認為猩猩,人工智能機器也不能完全自定義目標,解決問題,甚至是運用基本常識都有問題,這些新一代機器工人所缺乏的這些技能,對於人類,即或是最愚鈍者,也是易如反掌。
因此,在心灰意冷之前,你需要了解幾點與新的機器人同事一起工作的法則。
法則一:機器人不會像人類一樣思考
大約與瑪德林革新長途電話的同時,英籍匈牙利哲學家波蘭尼(Michael Polanyi)在苦苦思索人類智力的問題。波蘭尼意識到,人類的有些技能,例如使用凖確的語法,可以輕易地歸納成規則並向他人解釋,有些則不能。
人類能不自覺地運用所謂的隱性能力,用波蘭尼的話來說是"人類所知多於所能表述"。這包括騎自行車和揉面,以及更高水平的實踐能力。唉,如果我們不懂規則的話,就不能把規則教給一台計算機。這就是波蘭尼悖論。
為了解決這個問題,計算器科學家沒有試圖逆向設計人類智力,而是給人工智能開發了全新的思考方式——用數據思考。
微軟研究院(Microsoft Research)高級研究員卡魯阿納(Rich Caruana)說:"你可能以為人工智能的原理是我們先了解人類,然後以同樣的方式構建人工智能,但事實並非如此。"他以飛機為例,我們早在詳細了解鳥類飛行原理之前就造出了飛機,使用的空氣動力學原理不一樣,但今天我們的飛機比任何動物都飛得更高更快。
與瑪德林一樣,許多人工智能主體都是"神經網絡",它們通過分析大量數據,構建數學模型來學習。例如Facebook用大約400萬張照片來訓練人臉識別軟件DeepFace。DeepFace在標注為同一個人的不同圖像中尋找模式樣本,最終學會人臉匹配,成功率達97%。
類似DeepFace的人工智能機器是硅谷的明日之星,並且已經在駕車、語音識別、文字翻譯、標注照片等方面超過了其開發者,預計未來還將進軍包括醫療以及金融在內的眾多其他領域。
法則二:機器人新朋友並非絶對可靠,它們也會犯錯
然而這種依靠數據的思維方法也可能會犯下大錯,例如某人工神經網絡曾經把3D打印的烏龜認成了步槍。因為這個程序無法進行概念推理 ,不會想到"這個東西有鱗和殼所以可能是只烏龜"。相反,它們是根據模式思考——這個例子中是以像素為單位的視覺模式。因此,改變圖像中的某個像素,一個合理答案就可能演變成無稽之談。
而且它們也不具備工作中必不可少的常識,不能把已有知識運用到新情境中。
DeepMind人工智能就是一個經典案例。2015年時DeepMind獲令操作經典街機遊戲《乓》(Pong)並要取得高分。如你所想,它幾小時就擊敗了人類玩家,而且還開發了全新的獲勝方式。但是讓它再去玩類似的另一款遊戲《打磚塊》(Breakout),人工智能又得從零開始學起。
開發人工智能的遷移學習能力已經成為研究的一大領域,例如一個名為IMPALA的系統已能在30種情境下轉換所學得的知識。
法則三:機器人無法解釋自己的決定
人工智能的第二個問題是一個現代版波蘭尼悖論。我們並不完全清楚人腦的學習機制,因此我們讓人工智能用統計學家的方式來思考。諷刺的是,我們現在對人工智能如何思維也知之甚少,於是有了兩套未知系統。
這通常被稱為"黑匣子問題"——你知道輸入的數據,也知道得出的結果,但不知道眼前的盒子是怎麼得出結論的。卡魯阿納說,"我們現在有兩種不同的智能,但兩種我們都無法完全理解。"
人工神經網絡沒有語言能力,所以無法說明其所作所為及原因,而且跟所有人工智能一樣也沒有常識。
幾十年前,卡魯阿納將醫療數據輸入人工神經網絡,包括症狀及其後果,從而計算在任何一天患者的死亡風險有多大,讓醫生能夠採取預防措施。效果似乎不錯,直到有天晚上一位匹茲堡大學(University of Pittsburgh)的研究生發現了問題。他用一個更簡便的算法處理同一組數據,逐條研究神經網絡做診斷的邏輯,其中一條診斷是"如果你患有肺炎,那麼患哮喘對你是有好處的"。
卡魯阿納說,"我們去問醫生,他們說'這太糟糕了,你們需要修正'"。哮喘是引發肺炎的重要風險因素,因為二者都會影響肺部。人們永遠也不知道這個智能機器如何得出了哮喘對肺炎有益的結論。有種解釋是,有哮喘病史的患者一開始患肺炎,就會盡快去看醫生,這可能人為地提高了他們的存活率,因此人工智能就錯誤地認為有哮喘對肺炎是有幫助的結論。
隨著人工智能越來越廣泛地用於公益事業,許多業內專家也越來越擔心。今年,新的歐盟法規生效,授權個人可以解釋人工智能決策背後的邏輯。與此同時,美國軍方的研究機構國防部高級研究計劃局(Defense Advanced Research Projects Agency, Darpa)投入七千萬美金,以研究可解釋其行為的人工智能。
Darpa該項目負責人岡寧(David Gunning)說,"近來,系統的凖確度有了質的提高,但問題是這些系統太隱晦、太複雜,我們不知道它為什麼推薦某個東西,或是在遊戲裏做某個動作。"
法則四:機器人可能有偏見
人們越來越擔心一些人工智能的運作可能會偶爾藏有意識偏見,譬如性別歧視或種族歧視。例如最近有一款軟件用來評估犯人再次犯罪的可能性,它對黑人就雙倍的嚴苛。
這完全取決於人工智能受到怎樣的訓練,如果它們接收的數據無懈可擊,那它們的決定就很可能正確,但多數時候人的偏見已經夾在其中。谷歌翻譯裏就有很明顯的例子。一位研究員在去年出版的《傳媒》(Medium)雜誌中指出,如果在谷歌翻譯中把英文"他是位護士,她是位醫生"翻譯成匈牙利文再譯回英文,翻譯機給出的是相反的句子:"她是位護士,他是位醫生"。
翻譯機接受了一萬億網頁內容的數據訓練,但它只能以尋找模式樣本來運算,譬如它發現的醫生以男性居多而護士以女性為主。
另一種可能出現偏見的原因是數學加權(數學計算中將參數比重加入計算稱之為加權)導致的。跟人一樣,人工智能也會對數據進行"加權"分析——看哪個參數更重要。某種算法可能認為郵政編號跟居民信用評分是有關係的(美國已有這樣的實例),這就會出現歧視少數族裔的計算結果,因為他們可能住在較貧窮的小區裏。
不僅僅是種族歧視和性別歧視的問題,還會有我們從未想到過的歧視。諾貝爾獎得主經濟學家卡內曼(Daniel Kahneman)窮其一生研究人類思維中的非理性偏見。他在2011年接受魔鬼經濟學(Freakonomics)博客訪問時,很好地解釋了這個問題。他說:"本質上無論是人還是人工智能,經驗法則都會造成偏見,但人工智能的經驗法則未必與人的經驗一樣。"
機器人的時代即將到來,並將永遠改變未來的工作,但在它們變得更像人類之前,還需要我們守護在它們旁邊。令人難以置信的是,硅谷的同事似乎在這方面做得非常之出色。
但機器人會讓低門檻的低階工作機會失去很多
回覆刪除這個自動化,已經緩慢實現中
刪除AI當然更進一步
不過,AI是否為人工智能?
或者,人歸人,AI歸AI?
會是很有趣的觀察