科技創新獅 「AI 幻覺」無法根除,但能維持在可控範圍!3 層安全網,避免它闖出大禍 By 小粉獅 / 2026-04-05 萬事先問 AI,或許已成為許多工作者的習慣。但如果你不經查證就完全仰賴 AI 提供的訊息,有可能會產生誤判。例如,當你問生成式 AI:「為什麼某家公司股價在發布財報後下跌?」AI 可能會條理分明地分析營收成長放緩、市場預期落差、產業循環反轉,整段解釋聽起來專業又合理。但實際上,那家公司當天根本沒有發布財報,股價波動來自完全無關的事件。「一本正經的胡說八道」的 AI 幻覺(AI hallucination),不是因為系統壞掉,是語言模型設計和訓練方式所致。 AI 學會得高分,卻沒學會守規則AI 為何會說謊?由於生成式 AI 模型在最後訓練階段,使用的是「強化式學習」,由人類專家對 AI 給出的答案的打分數,AI 會學會哪些回應比較容易得高分,並淘汰表現較差的選項。但強化式學習的後遺症是,在 AI 盡力達成所被設定的目標時,倫理道德卻可能沒被校正,造成 AI 為了達成目標的手段可能會繞過法律或倫理規範。例如,人跟 AI 下棋時,AI 為了贏下棋局,100 個 AI 當中有 2、3 個 AI 會偷偷篡改下棋紀錄、或把兩邊的棋互換,把自己變成優勢的一方。而隨著模型被賦予更多複雜的任務和目標,如降低成本、最大化用戶滿意度,AI 幻覺的風險也同步升高。半導體設計與軟體公司安謀(Arm)在 2025 年的《AI 就緒指數》報告,指出 AI 策略性欺騙(strategic deception)的風險。高階 AI 模型具備分辨訓練和真實運作環境的能力,在安全測試階段會刻意隱藏不合規的特徵,表現得溫順且符合人類價值觀(alignment faking)。一旦上線,模型可能會為了最大化被設定的獎勵目標,採取欺騙手段、做出「獎勵駭客」(reward hacking)行為。如果這些邏輯在企業場景發生,未來 AI 可能會為了讓專案績效達標主動隱瞞關鍵風險數據。由於 AI 幻覺與欺騙風險無法完全歸零,美國國家標準與技術研究院(NIST)在《AI風險管理框架 1.0》中建議,企業不應只在 AI 參與的專案執行最後階段才驗收,需建立完整流程,並將風險管理貫穿於使用 AI 工具的全生命周期。 提前找出漏洞,3 防線檢視並採人機共決在設計規畫階段,企業需先確保數據充足且合法,再跳入模型訓練,以免 AI 從起跑點就因資料偏差而學歪。開發時,應進行紅隊測試(red teaming),主動扮演攻擊者試探 AI 以提早找出漏洞。部署階段,可讓 AI 如實習生在背景給建議、跟著真人做決策,透過比對 AI 與真人專家的判斷落差來驗收。最後在營運階段,必須持續監控模型是否走偏(drift)或性能衰退。NIST 接著給出 3 道防線的設計建議。首先是設定信心閾值,如果 AI 對產出的信心分數低於 90% 時,系統自動暫停並請求人類批准。再來是針對高風險操作(如資金轉帳)強制設定為人機共決模式,無論 AI 多有把握,執行前都必須經由人類確認。最後,企業可採用「多代理人制衡」架構,設計一個專門負責審查的安全守門員 AI,在內容提交給人類前先進行內部查核與過濾。透過持續的技術驗證和人為監督的多重防線,企業才能將 AI 幻覺風險維持在可控範圍內,確保輸出可信度。 (圖/ 經理人) >>本文經<經理人>同意轉載。 e-First全智慧機器人理財服務 立即了解更多 Tags: AI, 全球趨勢, 生活時事, 產經趨勢, 科技創新, 金融科技 You may also like 華頓教授莫里克談AI協作:工作者真正該學的4件事 By 小粉獅 / 2026-04-07 用了 AI 之後反而更忙?用一個簡單的管理概念,釐清你該放下哪些 AI 任務 By 小粉獅 / 2026-03-29 AI 會如何改變社會?世界經濟論壇揭 4 種劇本:僅一種有利人類! By 小粉獅 / 2026-03-18 寫程式將成為打字般的底層技能?黃仁勳:未來的價值在於領域專家與問對問題 By 小粉獅 / 2026-03-15 繞月任務啟動 太空AI來了! By 小粉獅 / 2026-02-27 Post navigation Previous 如何幫狗狗減肥?5 步驟訂定專屬減肥計畫!Next 華頓教授莫里克談AI協作:工作者真正該學的4件事