![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
あなたは知らないかもしれないけど、2008年頃にCSAM概念を日本に持ち込んで児童ポルノを切り分けろという議論を始めた一人が私です。 x.com/squaremania/st…
2021-10-20 16:09:18![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
日本共産党の「児童ポルノの定義を児童性虐待描写物に改めるべき」という主張は「わいせつ性よりも児童への被害の重大性を評価する必要がある」という話で、実は今より”実在児童”の存在を重要視する主張なのです。 jcp.or.jp/jcp_with_you/2… x.com/mishiki/status…
2021-10-20 16:05:01![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
少なくとも2010年度末の時点でこのアイディアは親会にまで上がっており、特にインターネット上の児童ポルノ対策の一環で様々な施策が進みました。この辺りの議論は10年以上前に済んでます。
2021-10-20 16:15:112024年
![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
■中川 譲 / 未識 魚 ■キャラ絵の技術的・史的研究者 ■イラストレータ:『おしおき娘』等 ■アニメータ:冴えカノ♭・スロウスタート原画等 ■大学教員・翻訳(米語) ■本・グッズの通販等は:ofo.booth.pm ■ 絵はpixivへ: pixiv.me/mishiki (エロ有
![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
マジで何いってんだかわからんのだが、イギリスの皆さんは、「非実在でも児童っぽい画像の閲覧」も非合法化してるので、成文憲法のない国らしく通信の秘密なんかなく、BTが検閲・ブロッキングやりまくりなわけですよ。勝手にオマエの国の中でブロッキングしてなさいよ。yomiuri.co.jp/national/20240…
2024-03-24 19:38:52![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
これ、元記事に問題の本質が書かれていない。誰だこんな記事書いたの。これは画像生成AIの学習データセットに実在児童虐待写真が山ほど入っていたという調査結果(日経の報道記事は nikkei.com/article/DGXZQO… )が裏にあって、故にそんなものを使って生成された児童ポルノとかアリエナイ、なんです。 x.com/mishiki/status…
2024-03-24 21:55:11![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
本当にスタンフォードの元論文読んでますか? 私はとても「画像生成AIの学習データセットに実在児童虐待写真が山ほど入っていた」なんて言えませんよ。 stacks.stanford.edu/file/druid:kh7… x.com/kurihiroshi/st…
2024-03-24 22:16:57![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
スタンフォード大LAION-5BのCSAM問題はこの記事が分かりやすかった。日本のジュニアアイドルも該当するというから二次元エロも該当するかと想像してたけど、そうでもないらしい qiita.com/__dAi00/items/…
2024-03-16 10:33:31![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
私はノルウェー警察がCSAMだとして閲覧を禁止していた約8000サイトを全部クロールして、ほとんど児童ポルノはなかったっていう論文を15年くらい前に書きましたからね。C3PだなんだのPhotoDNAだの、透明性ナッシングなものと突合してうんちゃらかんちゃらという手法は相当に眉唾ですよ。
2024-03-24 22:21:29![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
ごめん、嘘ついた。15年前だから記憶が飛んでました。8,000じゃなくて4,000弱を対象にして、だったわ。 pic.twitter.com/W8sOV3b2Mq
2024-03-24 23:09:45![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
何がいいたかったかというと、「大量の児童ポルノがあるからインターネットの通信を検閲して遮断しないと!」という理由でWebサイトのブロッキングが煽られてた当時のブロッキング先進国でも、実際にはほとんどウェブサイト上には児童ポルノ存在してなかったんじゃねぇの? っていう話ですよ。
2024-03-24 23:16:24![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
画面上に表示するだけでも犯罪になって警察来るし、Google他の検索サービスもガンガン検索対象から外すし、ホスティング会社もガンガン消すし、ISPもどんどんブロッキングしているような、そんなガチの「児童ポルノ」がネット上に大量に溢れてて、それをAIが学習したって話、変だと思いませんか。
2024-03-25 00:09:53![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@mishiki 2年前ぐらいにTwitter動画保存ランキングを閲覧した際、明らかに9歳以下であろう児童が成人の陰茎を舐める動画がそれなりの数投稿(?)されていたので、CSAMと言われる種の児童ポルノがネットに漂っていてもそれ程違和感はないと思います。
2024-03-25 12:23:40![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
【判明】生成AI、児童ポルノ画像を学習か 専門家「被害者の人権侵害恐れ」 news.livedoor.com/article/detail… データの中にはほかにも児童の裸の画像が複数あった。ネットから収集する過程で紛れ込んだとみられる。学習する際、違法画像を取り除くフィルター機能があるが、排除しきれていないという。 pic.twitter.com/MkNOUe8gup
2024-03-21 09:34:26![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
StableDiffusion2以降はCSAMが除去されているというポストを見ましたが、2022年11月24日リリースです。スタンフォード大学がCSAMをPhotoDNA(過去CSAMと報告された画像と一致するものを検出、新規は不検出)で検出したのが2023年12月20日。LAION-5B公開停止。SD2以降全部汚染。cyber.fsi.stanford.edu/io/news/invest…
2024-04-04 10:54:09![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
SD2以降はクリーンというのは事実ではありません。スタンフォード大学が昨年9月に調査開始して、その時点でPhotDNAで一致したCSAMが1008、過去に削除されたり移動したりしたもの、新規やボーダーラインコンテンツは不検出。所持しているLAION-5Bを破棄するか浄化しろと勧告。purl.stanford.edu/kh752sm9123
2024-04-04 11:02:25![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
SD2.0以降は制限を強化しているので1.5より版権ものや露骨なコンテンツを生成するのは難しくなりましたが、データセットがクリーンになったというわけではありません。news.yahoo.co.jp/articles/99060…
2024-04-04 16:01:03