AI生成動漫圖片 爆出資料庫中有真人兒色

2024/03/21閱讀時間約 1 分鐘
raw-image


常用來生成動漫圖片的AI引擎「Stable Diffusion」

資料庫中蒐集了許多網路上的圖片資料進行學習

日本讀賣新聞調查,

https://news.livedoor.com/article/detail/26082456/

裡面含有1993年出版的少女裸體寫真集

當時日本並沒有相關法律禁止這類未成年裸體寫真集

直到1999年,日本實行兒童買春、兒童色情禁止法

這類寫真集才變成違法書籍。

雖然SD引擎預設有排除違法圖片,

但根據美國史丹福大學調查,

查出引擎學習資料裡有3226張涉嫌兒童色情的照片

大阪大學社會技術共創研究中心主任(風險學專家)岸本受訪表示,

生成AI是靠大量學習提升精密度,很難完全排除兒童色情。

AI企業必須要負起社會責任,向大眾說明引擎學習了哪些資料。


心得:

看赤松健的推特 有提到政府考慮要限制AI針對性學習漫畫家的畫風

感覺日本好像也要準備開始限制AI了

7會員
18內容數
介紹日本動漫、遊戲新聞,轉載每日漫畫小說出版資訊。
留言0
查看全部
發表第一個留言支持創作者!