生成式AI 兩面刃企業首重治理

刊登時間

企業正加快將生成式 AI 技術應用於多項領域之中,如客服自動回覆、行銷文案生成,期盼藉此提升員工的工作效率。然而生成式 AI 如兩面刃,除是企業提升整體營運效率的數位助理之外,也因存在先天上的設計缺陷,存在幻想、偏誤、洩密等風險,除重所皆知的資安風險之外,也有多數企業忽略的治理機制風險。

生成式 AI 缺點首先是「非確定性」,即每次輸入可能產出不同結果,無法保證一致性。其次是「不可解釋性」,即模型決策過程難以追蹤與說明。第三點是「輸出無保證」,生成的內容可能侵犯版權、帶有偏見,甚至含有錯誤資訊。第四點是「難以監控」,模型輸出往往是自然語言,不像傳統程式有固定邏輯可測試。

生成式 AI 治理應該從「應用盤點與風險分級」、「prompt 可追溯與審查制度」、「輸出內容責任與產權管理」、「模型與資料來源治理」等四大面向著手。以下為建議三大策略進行落實治理制度:
1.「成立跨部門治理小組」,負責整合 IT、資安、法務、品牌與業務等工作,以及制定 AI 使用準則。
2.「推動內部 AI 使用政策」,明訂哪些工具可用、哪些場景禁用,以及必須審核的流程。
3.導入具有審計能力的 AI 平台,選用支援 Prompt 記錄、權限管理與內容審查的工具,如 Azure OpenAI、Anthropic Console、Notion AI Enterprise 等。

生成式 AI 治理的目標是在鼓勵技術創新的同時,有效控制其潛在風險,確保 AI 的發展始終符合人類的價值觀和長遠利益。

【MORE】
資料出處: CIO Taiwan 林裕洋