第一階段:去行銷化與事實摘要
核心技術 (What): 非營利倡議組織「科技透明度計畫」(TTP) 的調查報告指出,蘋果App Store和Google Play Store上存在數十款「Nudify」(脫衣) App,這些App利用AI技術生成未經同意的裸露圖像。
關鍵突破 (How): 這些App利用AI技術,能夠將圖像中的人物「脫衣」,生成裸露圖像。
應用場景 (Where/When): 這些App已在蘋果App Store和Google Play Store上架,供使用者下載。報告指出,這些App累計下載次數超過7億次,營收超過1.17億美元。
主導者 (Who): 蘋果公司和Google公司旗下的App Store和Google Play Store。TTP的調查報告揭露了這些平台審查機制的不足。
第二階段:社會影響力與倫理評估
1. 影響力總體定調
雙面刃。 這項技術本身具有潛在的濫用風險,可能被用於侵犯隱私、製造數位性暴力,甚至涉及兒童色情。儘管蘋果和Google聲稱審查嚴格,但報告顯示其審查機制存在漏洞,未能有效阻止有害App上架,甚至從中獲利。
2. 關鍵影響分析(舉證)
- 「儘管兩大平台的政策都明文禁止色情或未經同意的深偽 (Deepfake) 內容,但研究人員仍在Google Play Store找到55款、在App Store找到47款具備「脫衣」功能的App。」
- 【涉及層面】: 隱私權利、數位性暴力、平台責任。
- 【社會衝擊分析】: 這些App的出現,使得未經同意的裸露圖像生成變得容易,加劇了數位性暴力的風險。平台未能有效審查,間接助長了這種行為,並從中獲利,損害了使用者權益。
- 「這些App的影響力相當驚人,累計下載次數超過7億次,並且產生超過1.17億美元的營收。由於蘋果與Google通常會從App內購或付費下載中收取15%至30%的佣金,意味這兩家科技巨頭其實間接從這些侵犯隱私與製造數位性暴力的軟體中獲利。」
- 【涉及層面】: 貧富差距、平台責任、商業模式。
- 【社會衝擊分析】: 平台從有害App中獲利,加劇了數位性暴力對受害者的傷害,同時也顯示了科技巨頭在追求商業利益時,可能忽視社會責任。
- 「Some of the apps were even approved for children, with Apple listing apps for kids as young as 4+ or 9+ and Google listing for ages 13+. Yet all of them appear to be in direct violation of company policy—even for adult users.」
- 【涉及層面】: 兒童保護、平台審查、人類行為。
- 【社會衝擊分析】: 這些App被標示為適合兒童或青少年使用,增加了兒童接觸色情內容的風險,對兒童的身心健康造成潛在危害。平台審查機制的失靈,使得兒童成為潛在的受害者。
- 「雖然Grok只是xAI的聊天機器人,但先前已被證實能被「越獄」生成名人的深偽色情圖片,甚至涉及兒童色情內容。」
- 【涉及層面】: 隱私權利、人類行為、平台責任。
- 【社會衝擊分析】: AI生成內容的技術,若未加以管控,可能被濫用於散布假訊息、侵犯隱私,甚至涉及兒童色情,對社會造成負面影響。
3. 盲點與反思
文章雖然提到了平台審查機制的失靈,以及AI生成裸露圖像的潛在風險,但未提及這些App可能造成的心理創傷,以及對受害者造成的長期影響。此外,文章也輕描淡寫了平台在審查方面的責任,以及如何建立更有效的審查機制,以保護使用者免受數位性暴力的侵害。