隨著人工智慧(AI)的發展,人們對於機器人的恐慌可說是有增無減,不論是擔心機器人會搶走工作機會,亦或是機器人總有一天會統治地球,種種的擔憂促使著人們訂定屬於機器人的法規。
1942年艾西莫夫機器人三定律
早在機器人還沒普及的年代,科幻作家以撒·艾西莫夫(Isaac Asimov)即在他的短篇小說《我,機器人》(I, Robots)中制定出機器人三定律。
- 機器人不得傷害人類,或坐視人類受到傷害。
- 除非違背第一法則,否則機器人必須服從人類命令。
- 除非違背第一或第二法則,否則機器人必須保護自己。
從這三條定律中,也看得出人類害怕機器人的程度,害怕機器人自主的傷害人類,害怕機器人被有心人士利用來傷害人類。
2016年微軟提出了六個AI準則
微軟 CEO Satya Nadella. Photograph by Stephen Brashear—Getty Images
隨著科技的進度,人工智慧的發展,機器人越趨接近小說電影中的樣貌,艾西莫夫的三定律也已然無法有效的面對現今的需求。在2016年微軟的CEO 薩蒂亞·納德拉(Satya Nadella)提出了六個AI準則:
- AI必須旨在幫助人類:當我們建造更多的自動機器時,我們需要尊重人的自主權。
- AI必須透明:我們應該了解技術如何運作以及它的規則是什麼。
- AI必須在不破壞人的尊嚴的情況下最大限度地提高效率:它應該保護文化承諾,賦予多樣性權力,科技業不應該決定這個未來的價值和美德。
- AI必須設計用於智能隱私:以獲得信任的方式保護個人和群組信息。
- AI必須承擔算法責任以便人類可以撤銷非故意的傷害。
AI必須防止偏見:確保正確和有代表性的研究,以便錯誤的啟發式方法不能用於區分。
2018年Google提出的七個AI道德原則
Google CEO Sundar Pichai. Photograph by Beck Diefenbach-Reuters
在去年四月,Google面臨了一場道德拉扯,Google為美國國防部提供AI技術,幫助開發應用於無人機的人工智慧系統,此舉受到公司內外的廣泛批評。此合作案引起四千多名員工聯合上書,並且要求Google遠離這類的戰爭生意。最後Google答應員工合作案將在約期後停止,此事件也因而促使了Google研擬AI的準則,事發的兩個月後,Google CEO桑德爾·皮查伊(Sundar Pichai)發佈了七條AI應用的「道德原則」。
- 對社會有益:將考慮社會和經濟因素,並將在我們認為整體的收益超過可預見的風險和負面的情況下繼續進行。
- 避免製造或加強不公平的偏見:AI算法和數據集可以反映加強或減少不公平的偏見,因此因盡量避免對人們產生不公正的影響。
- 建造並測試安全性:開發和應用強有力的安全措施,以避免產生可能的意外。
- 對人負責:我們將設計人工智能系統為反饋,相關解釋和吸引力提供適當的機會。我們的人工智能技術將受到適當的人類指導和控制。
- 結合隱私設計原則:鼓勵具有隱私保護措施的架構,並提供適當的透明度和對數據使用的控制。
- 堅持高標準的科學卓越:技術創新植根於科學方法,致力於開放探究,嚴謹,誠信和協作。
- 提供符合這些原則的用途:許多技術有多種用途,因限制可能有害或濫用的應用程序。
微軟與Google對於人工智慧的準則的定義其實大同小異,皆是以幫助人類創造更好的世界為出發點,並且必須防止偏見、保護穩私、擁有安全性。然而從Google的發起的緣由也可看出人工智慧的準則被定義的重要性有增無減。Google也在準則的下方註明了絕對不能觸碰的領域,像是可能造成傷亡的技術、違反國際人權的監視或資料收集……等等。
儘管微軟與Google這兩間科技的龍頭皆已提出對於人工智慧的準則,然現今社會AI早已不是大公司的專利,也許各國政府也應該開始擬定相關的法律,以守護人類多年維護的社會制度,而我們在應用AI的同時,也應該好好的檢視自己是否有牴觸到人類社會的道德準則呢。
References: