2024-03-21|閱讀時間 ‧ 約 21 分鐘

AI生成動漫圖片 爆出資料庫中有真人兒色

raw-image


常用來生成動漫圖片的AI引擎「Stable Diffusion」

資料庫中蒐集了許多網路上的圖片資料進行學習

日本讀賣新聞調查,

https://news.livedoor.com/article/detail/26082456/

裡面含有1993年出版的少女裸體寫真集

當時日本並沒有相關法律禁止這類未成年裸體寫真集

直到1999年,日本實行兒童買春、兒童色情禁止法

這類寫真集才變成違法書籍。

雖然SD引擎預設有排除違法圖片,

但根據美國史丹福大學調查,

查出引擎學習資料裡有3226張涉嫌兒童色情的照片

大阪大學社會技術共創研究中心主任(風險學專家)岸本受訪表示,

生成AI是靠大量學習提升精密度,很難完全排除兒童色情。

AI企業必須要負起社會責任,向大眾說明引擎學習了哪些資料。


心得:

看赤松健的推特 有提到政府考慮要限制AI針對性學習漫畫家的畫風

感覺日本好像也要準備開始限制AI了

分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

ACG動漫新聞 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.