[關鍵字]:AI風險、DeepSeek、個資外洩、內容審查、國家安全
中國製AI風險浮現:國安局示警,個資外洩與認知作戰雙重威脅
近期,國家安全局(國安局)針對多款中國製生成式AI語言模型進行抽測,結果顯示,這些AI軟體普遍存在嚴重的資安風險及內容偏頗問題。國安局呼籲國人警惕,避免下載使用這些可能洩漏個資、影響國家安全的App。
事件內容:
國安局此次抽測了包括「DeepSeek」、「豆包」、「文心一言」、「通義千問」及「騰訊元寶」等五款中國製AI模型。檢測結果顯示,這些App在應用程式和生成內容方面都存在嚴重問題。在應用程式方面,這些AI模型被發現過度蒐集個資、逾越使用權限、蒐集截圖、強迫同意不合理隱私條款,以及蒐集設備參數等。其中,通義千問違規項目最多,達11項。
更令人擔憂的是,這些AI模型在生成內容方面也出現了嚴重的偏頗。它們涉及兩岸、南海等議題時,會採用中共官方立場,甚至生成不實資訊,例如將台灣描述為中國的一部分。此外,這些模型還會刻意排除「民主」、「自由」、「人權」、「六四天安門事件」等敏感關鍵字,顯示資料系統遭到政治審查與控制。
事件癥結點:
此次事件的核心癥結點在於,中國製AI模型不僅涉及個資外洩的風險,更可能成為中國進行認知作戰的工具。透過收集使用者資訊,這些AI模型可以識別使用者身分,並進一步操弄資訊,散播謠言,甚至生成網路攻擊指令。
個人心得:
身為一個科技產品的愛用者,我對AI技術的發展一直抱持著高度的關注。然而,這次國安局的示警讓我意識到,在享受科技便利的同時,我們也必須警惕潛在的風險。尤其是在涉及國家安全和個人隱私的領域,更需要保持高度的警覺。
參考資料與本文對照:
本文主要參考了Yahoo新聞、公視新聞網、東森新聞等媒體的報導。這些報導都提到了國安局的抽測結果,以及中國製AI模型存在的資安風險和內容偏頗問題。例如,公視新聞網指出,這些AI模型會要求位置資訊、蒐集截圖,並強迫同意不合理隱私條款。東森新聞則提到,這些模型在生成內容方面會採用中共官方立場,並刻意排除敏感關鍵字。這些資訊都與本文的觀點相符,支持了本文對於中國製AI模型風險的分析。
參考閱讀
點名「中製AI」!國安局曝DeepSeek等5款洩個資、影響認知,EBC東森新聞 • 16 小時前
DeepSeek等中製AI模型操弄資訊、洩個資國安局:意圖影響認知,中央社
示警DeepSeek等中製AI風險 國安局揭位置、截圖都遭洩,公視新聞網 via Yahoo奇摩新聞
中製AI軟體檢出有資安風險 國安局籲國人別下載,公視新聞網 via Yahoo奇摩新聞
,
,