當前位置: >國外開發者推出DeepNude利用AI創建女性裸體照片,引發侵犯隱私爭議

國外開發者推出DeepNude利用AI創建女性裸體照片,引發侵犯隱私爭議

發布于2019-06-27 15:52:56,國外開發者推出DeepNude利用AI創建女性裸體照片,引發侵犯隱私爭議,Kotoo科技新聞網(http://www.fbajfi.live)
 

國外開發者推出DeepNude利用AI創建女性裸體照片,引發侵犯隱私爭議

AI 技術日益成熟,豐富多元的運用也讓 AI 可以說是無所不在,國外一名開發者推出一款可快速創建女性裸體照片的應用 DeepNude ,正是利用神經網絡與算法來創建相當擬真的女性裸體照片,引起褒貶兩極的反應,在 AI 活用同時似乎也助長了各種惡意假照片的產生。

國外開發者推出 DeepNude 利用 AI 創建女性裸體照片,引發侵犯隱私爭議

在過去就已經有利用 AI 換臉的應用程序,讓大家玩得很開心,不過接下來要講的應用可能會有全球一半的人口不樂意。一名化名為“Alberto”的開發者最近上架了一款應用程序 DeepNude,只需要在該服務上提供一張照片,就能飛快地利用 AI 創建出非常逼真的裸體照片,使用者所提供的原始照片裸露的皮膚越多,照片越準確真實。該應用不僅有免費版(有浮水印)、50 美元付費版(無浮水印,但有 Fake 標記) ,還提供了網頁版。

國外媒體 Motherboard 對開發者的訪談中,開發者表示,該應用只能用于女性,會開發這款應用的原因在于“有意思、好奇、有趣”。該媒體也進行測試,如果放入男性照片則下體也會被替換成女性器官,且像是穿著比基尼等布料較少的衣服也越擬真。不過這個應用還是有缺點,經過該服務產出的裸體照片(特別是低分辨率的)還是會有 AI 拼貼合成的痕跡,當你輸入卡通人物的照片時,所得到的影像將完全扭曲。

在過去就已經有其他利用 Deepfake AI 算法的成果在網絡流通,但這種技術很容易就會成為傷害女性的幫兇,在未經同意的前提下使用女性照片或是在網上惡意散布色情內容都會對女性造成傷害。反色情報復組織“Badass”的創始人 Katelyn Bowden 表示:“現在每個人都有可能成為色情報復的受害者,即使沒有拍過一張裸體照片,也可能會成為受害者。這樣的技術根本不應該向公眾開放。”而馬里蘭大學凱里法學院(University of Maryland Carey School of Law)Danielle Citron 認為,DeepNude 無疑是在侵犯用戶的性隱私。

雖然得到的照片并非真實,但在網絡散布時其他閱聽者根本無從查證,直接對受害者造成多次傷害。開發人員在發想與創作一款應用時,更該將道德前提放在前面,而非僅是因為好奇、有趣等動機,如果僅是實驗性也就罷了,但真正公開釋放出來獲利就必須好好拿捏人性之間的界線才是。

◎資料來源:Motherboard

聲明:

·凡注明為其他媒體來源的信息,均為轉載自其他媒體,轉載并不代表本網贊同其觀點,也不代表本網對其真實性負責。如系原創文章,轉載請注明出處。

·您若對該稿件內容有任何疑問或質疑,請即聯系,本網將迅速給您回應并做處理。

郵箱:[email protected]

+1 已贊
已有8人贊過
評論13

發表評論請 登錄
  • 最新
  • 最熱
評論舉報

請選擇舉報理由

17 13

已收藏
去我的收藏夾 >

已取消收藏
去我的收藏夾 >

7星彩玩法