Page 62 - 清流雙月刊 NO.50
P. 62
MJIB
OpenAI 的共同創辦人暨執行長 Sam Altma 曾因商業化的經營理念與 OpenAI 創立宗旨相違背而短暫決裂過,其主
張 AI 無需「過度」監管。(Photo Credit: TechCrunch, https://flic.kr/p/2hpFs7d; Jernej Furman, https://flic.kr/p/2oC354i)
技術的進步固然重要,但如果未能落 大型語言模型(LLM)的風險
實風險管理,可能導致付出巨大的無謂成
LLM 本質上即是一個資訊系統,差
本。儘管 Sam Altman 聲稱 AI 不需要「過
別在於,LLM 的輸出具不確定性、或是基
度」的監管,並應全力發展相關技術;不
於統計分布的某種推理、建議或決策,而
過大型語言模型(Large Language Model,
不是按照人類所定義的明確規則。因此,
LLM)事實上已面臨許多安全議題,包含
LLM 的一部分風險即是傳統資訊系統會面
可能輸出有害或不實的結果、以及洩漏機
臨的資安風險,例如注入攻擊、中間人攻
敏資料等,因此所帶來的風險需要被進一
擊、惡意提升權限等等。
步管理,否則將肇致「失控的 AI 列車」。
本文稍後將介紹由英美領銜,並由 23 個 此外,LLM 的「低使用技術門檻、不
國家共同協作、發表的《安全 AI 系統發 確定的輸出」等特性帶來新型態的資安風
展指南》(Guideline for Secure Artificial 險,包含(但不限於): 4
3
Intelligence System Development), 或
一、提示注入(Prompt Injection):嘗試
可作為參考。
注入惡意的內容,促使 AI 輸出非預期
3 UK National Cyber Security Centre, “Guidelines for Secure AI System Development,” 2023, November 30, https://www.ncsc.gov.uk/collection/
guidelines-secure-ai-system-development.
4 OWASP, “OWASP Top 10 for LLM Applications (VERSION 1.1),” 2023, October 16, https://owasp.org/www-project-top-10-for-large-language-
model-applications/assets/PDF/OWASP-Top-10-for-LLMs-2023-v1_1.pdf.
60 清流雙月刊