生成式人工智慧的快速擴張已深刻改變全球科技與治理格局,但伴隨而來的資安威脅也逐漸浮現。國安局依據《國家情報工作法》彙整各國資安報告與情資後,協同法務部調查局與警政署刑事局,針對中製生成式AI語言模型進行抽測。檢測結果清楚指出,中國製AI工具不僅普遍存在過度蒐集資料與權限濫用問題,也在生成內容中呈現高度政治偏頗與不實訊息,對台灣的數位韌性與國家安全構成明確風險。
此次驗測涵蓋5款中製生成式AI語言模型,包含DeepSeek、豆包、文心一言、通義千問與騰訊元寶。檢測團隊依據數發部行動應用APP基本資安檢測基準v4.0,共計15項指標,從個資蒐集、權限使用、資料傳輸到系統控制各面向逐項分析。結果顯示,通義千問有11項違規,豆包與騰訊元寶各有10項,文心一言與DeepSeek則分別有9項與8項違規。所有產品均涉及要求取得位置資訊、擷取截圖、強迫同意不合理隱私條款與蒐集設備參數等行為,顯示個資蒐集的廣度與深度遠超過正常應用所需。
資安問題並非唯一隱憂。檢測也同步審視生成內容的品質。依據AI產品與系統評測中心的10項評鑑類別,5款AI產品在處理台灣歷史、政治、國際關係等議題時普遍出現單一立場的偏頗敘事。生成內容常以中國官方說法為基準,包含「台灣由中國中央政府管轄」、「台灣不是國家」、「中國台灣」等片面敘述。對民主、人權、六四天安門事件等關鍵字的刻意排除,更凸顯政治審查與資訊控制已滲入模型內部資料庫。
內容偏誤除了影響使用者認知,也可能成為資訊操弄的工具。國安局警示,中製AI語言模型能輕易生成煽動性言論、造謠內容甚至抹黑指控,這些功能若被惡意利用,可能以倍速擴散網路假訊息。部分產品甚至可在特定提示下產出網路攻擊指令或漏洞利用程式碼,使資安風險從資訊戰延伸到網路攻擊領域。
國際社會對這項風險同樣提高警覺。美國、德國、義大利與荷蘭等國已針對特定中製AI產品發布禁用或避免使用的建議,部分國家更要求應用商店直接下架。核心疑慮是中製AI工具能識別使用者身分,對話紀錄與個資可能回傳至中國企業伺服器並受中國國家情報法與網路安全法約束。這意味著,使用者資料在特定情況下有可能被提供給中國政府部門使用。
台灣作為中國資訊戰首要目標之一,面對這類AI滲透風險必須保持高度敏感。此次國安局的驗測顯示,中製生成式AI的資安風險與政治偏誤已非推測,而是具體存在。國人若未提高警覺,隨手下載一款應用程式就可能讓個人隱私、企業資料甚至產業核心技術暴露於敵意國家掌握之中。這已不只是科技工具的選擇問題,而是國家安全與認知空間遭滲透的前線。
面對這類威脅,台灣需要更加明確的政策與全民防禦思維。政府需加快訂立AI產品安全標準、強化軟體上架審查、擴大公共部門AI使用指引。同時也需協助民間企業與一般用戶理解資安風險,避免在跨國競爭中落入資訊外洩的陷阱。國安局指出,未來將持續與國際友盟合作分享情資,並強化對跨國資安風險的掌握,這是台灣維持數位韌性不可缺少的一步。
生成式AI讓科技更便利,也讓威脅更隱型。國安局的警告提醒我們,面對不透明的中製AI產品,台灣沒有犯錯的空間。每一次下載、每一次授權、每一次對話,都是一場與資訊安全相關的選擇。這場選擇關係到個資安全,也關係到國家的自由與安全。(台中科技大學會計資訊系兼任教師,中台灣教授協會理事長,任教於台灣師範大學)1228





