網頁

2016-09-24

最厲害的是:「令人成癮」的機器人禁令

http://www.inside.com.tw/2016/09/21/official-guidance-robot-ethics-british
Comment
為未來頒佈標準?
Are you kidding?  No.
其道德觀鍵仍然是人類,而且規範人類不能隱藏幕後而豁免於法律責任。



英國正式頒布機器人道德標準:不許傷害、欺騙人類和令人成癮○INSIDE(2016.09.21)
艾薩克·阿西莫夫(Isaac Asimov)曾在他的科幻小說裡描述了規範機器人行為的三定律,包括:不能傷害人類要服從人類命令保護自己

現在,英國標準協會正式發布了一套機器人倫理指南,比阿西莫夫三定律更加複雜和成熟。我們的社會已經到了要給機器人制定行為規範的時候了,這不禁讓人產生一種科幻與現實交織的奇妙感覺。

英國標準協會(British Standards Institute,簡稱BSI),是有著100多年歷史的英國國家標準機構,在世界範圍內具有很高的權威性。這個倫理指南的全稱是《機器人和機器系統的倫理設計和應用指南》(以下簡稱《指南》),主要針對的人群就是機器人設計研究者和製造商,指導他們如何對一個機器人做出道德風險評估。最終的目的,是保證人類生產出來的智慧機器人,能夠融入人類社會現有的道德規範裡。

這個標準的文件代號為 BS8611,發佈於 9 15 日在英國牛津郡舉行的「社會機器人和人工智慧」 Social Robotics and AI)大會上。西英格蘭大學機器人教授 Alan Winfield 表示,這是業界第一個關於機器人倫理設計的公開標準。

文件內容雖然用詞枯燥,但是裡面所描繪的場景,簡直像是從科幻小說裡蹦出來的一樣。機器人欺騙、令人成癮、具有超越現有能力範圍的自學能力,這些都被列為危害因素,是設計人員和製造商需要謹慎考慮的。《指南》開頭給出了一個廣泛的原則:
機器人的設計目的不應是專門或主要用來殺死或傷害人類;人類是負責任的主體,而不是機器人;要確保能找出某個機器人的行為負責人之可能性

《指南》也聚焦了一些有爭議性的話題。例如,人類與機器人產生情感聯繫是可以的嗎?尤其是當這個機器人本身設計目的,就是為了與小孩和老人互動。

謝菲爾德大學教授 Noel Sharkey 認為,這就是機器人在無意的情況下欺騙人類的例子。機器人是沒有感情的,但是人類有時候並不這麼認為。他指出,最近有一項研究,把小機器人放到一所幼兒園裡,孩子們很是喜愛,並且認為這些機器人比家裡的寵物具有更高的感知能力。

《指南》建議設計者更應關注機器人的透明性,但是科學家們表示這在現實裡很難應用。因為人們無法確切了解人工智慧系統(尤其是深度學習系統)是如何做出決定的。

一個人工智慧系統並沒有用固定的程序來指導它完成任務,它是通過數百萬次的學習和嘗試,才找出成功的解決方法。這種學習和做出決策的過程,有時候是連它的人類設計者都無法理解的

《指南》裡也提到了機器人的性別和種族歧視問題。這是因為深度學習系統很多都是使用網路上的資料進行訓練,而這些資料本身就帶著偏見。機器人的偏見是會直接影響技術應用的。它會對某些群體的學習更深入,而對另一些群體有所忽視,這在以後的應用中,意味著機器人會「看人說話」。

現在已有的例子就是,聲音識別系統對於女性的理解要弱一些,再比如機器識別白種人的臉更容易,識別黑人的臉更難。長遠來看,在未來的醫療應用中,機器人在診斷女性和少數族群的時候,其專業程度會降低。

Sharkey 教授說:「我們也需要一個機器人黑盒子,可以打開來仔細審查。如果一個機器人表現出種族主義的傾向,我們可以把它關掉,從街上帶回來。」


兩週前,路透社有文章指出,有科學家表示性愛機器人會使人成癮,因為機器人不會拒絕。《指南》 也提到了這種「過度依賴機器人」的現象,然而並沒有給設計者一個確切的可遵循的準則,這也是在未來的工作中,需要繼續補充的。

1 則留言:

請網友務必留下一致且可辨識的稱謂
顧及閱讀舒適性,段與段間請空一行