Page 43 - 清流雙月刊 NO.39
P. 43
生活中的資安
路安全措施相繼推出,例如較具代表性 的不明確的 AI 或相關應用,日後在立法上
的 阿 西 洛 馬 人 工 智 慧 原 則(Asilomar AI 就應受到高密度審查,若研發者無法清楚
8
Principles)。 這個原則已獲得諸多業界 交代此類資訊,政府就不應核可。
人士的廣泛支持,在總共 23 項的原則性內
第二,因為 AI 一定會建立屬於自己的
容中,有幾個面向值得吾人注意。
獨立性,所以「未來的不可控」必然是會
首先,AI 研發之目的與使用可能在不 存在之風險,研發者與使用者都應該預見
久的將來會成為立法時的考量。研發者有 且提早預防此類風險。第 7 項原則中特別
義務對自己 AI 系統承擔責任;由於 AI 的 提到 AI 如果出現意外也必須要有透明性,
自主性是透過海量數據資料的學習而來, 即對於釀成損害的因果關係要明確呈現並
但 AI 對什麼樣的資料感到興趣卻是研發者 客觀上歸責。此外,第 8 項的審判透明性
「價值觀」的反映。鑑此,在設計之初就 強調「司法性的決策」不能逸脫人類社會
應明確化與公開 AI 的目的,並同時在手段 合理之解釋範疇,並且最終要由人類的監
(means)與目標(goals)上給予清楚的 管機構保留審核權。
說明。根據此原則,具有攻擊性或使用目
1. 研究目標 6. 安全性 13. 自由和隱私 19. 能力警惕
2. 研究經費 7. 失敗透明性 14. 分享利益 20. 重要性
3. 科學與政策 8. 審判透明性 15. 共同繁榮 21. 風險
的聯繫 9. 負責 16. 人類控制 22. 遞歸的
4. 科研文化 10. 價値觀一致 17. 非顚覆 自我提升
5. 避免不必要 11. 人類價値觀 18. 人工智慧 23. 公共利益
的競爭 12. 個人隱私 裝備競賽
科研問題 倫理和價値觀 長期問題
圖 1 阿西洛馬人工智慧 23 條原則內容
8
此原則的製訂背景與詳細內容可見:https://futureoflife.org/2017/08/11/ai-principles/。
No.39 MAY. 2022 41