表自戦士「俺がCSAM概念を日本に持ち込んで二次エロを守った」→「画像生成AIにCSAM(児童性虐待記録物)は入ってない!」

3
未識🐟 @mishiki

あなたは知らないかもしれないけど、2008年頃にCSAM概念を日本に持ち込んで児童ポルノを切り分けろという議論を始めた一人が私です。 x.com/squaremania/st…

2021-10-20 16:09:18
鏡屋譲二 @squaremania

日本共産党の「児童ポルノの定義を児童性虐待描写物に改めるべき」という主張は「わいせつ性よりも児童への被害の重大性を評価する必要がある」という話で、実は今より”実在児童”の存在を重要視する主張なのです。 jcp.or.jp/jcp_with_you/2… x.com/mishiki/status…

2021-10-20 16:05:01
未識🐟 @mishiki

少なくとも2010年度末の時点でこのアイディアは親会にまで上がっており、特にインターネット上の児童ポルノ対策の一環で様々な施策が進みました。この辺りの議論は10年以上前に済んでます。

2021-10-20 16:15:11
このツイートは権利者によって削除されています。

2024年

未識🐟 @mishiki

■中川 譲 / 未識 魚 ■キャラ絵の技術的・史的研究者 ■イラストレータ:『おしおき娘』等 ■アニメータ:冴えカノ♭・スロウスタート原画等 ■大学教員・翻訳(米語) ■本・グッズの通販等は:ofo.booth.pm ■ 絵はpixivへ: pixiv.me/mishiki (エロ有

ofo.jp

未識🐟 @mishiki

マジで何いってんだかわからんのだが、イギリスの皆さんは、「非実在でも児童っぽい画像の閲覧」も非合法化してるので、成文憲法のない国らしく通信の秘密なんかなく、BTが検閲・ブロッキングやりまくりなわけですよ。勝手にオマエの国の中でブロッキングしてなさいよ。yomiuri.co.jp/national/20240…

2024-03-24 19:38:52
くりひろし@「パソコンレクチャー」連載中@電子工作マガジン @kurihiroshi

これ、元記事に問題の本質が書かれていない。誰だこんな記事書いたの。これは画像生成AIの学習データセットに実在児童虐待写真が山ほど入っていたという調査結果(日経の報道記事は nikkei.com/article/DGXZQO… )が裏にあって、故にそんなものを使って生成された児童ポルノとかアリエナイ、なんです。 x.com/mishiki/status…

2024-03-24 21:55:11
リンク 日本経済新聞 生成AIの学習データに児童虐待画像 米大学研究者が指摘 - 日本経済新聞 米スタンフォード大の研究者は20日、画像生成AI(人工知能)の学習用データセット「LAION(ライオン)5B」が1000件以上の児童の性的虐待画像を含んでいたと発表した。多くの画像生成AIが同データを使って学習しており、不適切な画像を生成する恐れがあると警告している。ライオン5Bはインターネット上の50億枚以上の画像のURL(アドレス)を集約したデータセットだ。報告書を発表したスタンフォード大 22 users 4
未識🐟 @mishiki

本当にスタンフォードの元論文読んでますか? 私はとても「画像生成AIの学習データセットに実在児童虐待写真が山ほど入っていた」なんて言えませんよ。 stacks.stanford.edu/file/druid:kh7… x.com/kurihiroshi/st…

2024-03-24 22:16:57
百草丸 @B4xMx

スタンフォード大LAION-5BのCSAM問題はこの記事が分かりやすかった。日本のジュニアアイドルも該当するというから二次元エロも該当するかと想像してたけど、そうでもないらしい qiita.com/__dAi00/items/…

2024-03-16 10:33:31
リンク Qiita スタンフォード大学はいかにしてLAION-5Bから1008件のCSAMを検出したか - Qiita 概要2023年12月20日、Stable Diffusionなどの有名な画像生成AIが学習に利用しているオープンデータセットであるLAION-5Bに1008件のCSAM(Child Sexual … 1 user
未識🐟 @mishiki

私はノルウェー警察がCSAMだとして閲覧を禁止していた約8000サイトを全部クロールして、ほとんど児童ポルノはなかったっていう論文を15年くらい前に書きましたからね。C3PだなんだのPhotoDNAだの、透明性ナッシングなものと突合してうんちゃらかんちゃらという手法は相当に眉唾ですよ。

2024-03-24 22:21:29
未識🐟 @mishiki

ごめん、嘘ついた。15年前だから記憶が飛んでました。8,000じゃなくて4,000弱を対象にして、だったわ。 pic.twitter.com/W8sOV3b2Mq

2024-03-24 23:09:45
拡大
拡大
未識🐟 @mishiki

リストの総数が3,517件、目視で中身を確認できたのは850件ですね。

2024-03-24 23:11:58
未識🐟 @mishiki

何がいいたかったかというと、「大量の児童ポルノがあるからインターネットの通信を検閲して遮断しないと!」という理由でWebサイトのブロッキングが煽られてた当時のブロッキング先進国でも、実際にはほとんどウェブサイト上には児童ポルノ存在してなかったんじゃねぇの? っていう話ですよ。

2024-03-24 23:16:24
未識🐟 @mishiki

画面上に表示するだけでも犯罪になって警察来るし、Google他の検索サービスもガンガン検索対象から外すし、ホスティング会社もガンガン消すし、ISPもどんどんブロッキングしているような、そんなガチの「児童ポルノ」がネット上に大量に溢れてて、それをAIが学習したって話、変だと思いませんか

2024-03-25 00:09:53
ハロー水星 @bipuradaisuki

@mishiki 2年前ぐらいにTwitter動画保存ランキングを閲覧した際、明らかに9歳以下であろう児童が成人の陰茎を舐める動画がそれなりの数投稿(?)されていたので、CSAMと言われる種の児童ポルノがネットに漂っていてもそれ程違和感はないと思います。

2024-03-25 12:23:40
ライブドアニュース @livedoornews

【判明】生成AI、児童ポルノ画像を学習か 専門家「被害者の人権侵害恐れ」 news.livedoor.com/article/detail… データの中にはほかにも児童の裸の画像が複数あった。ネットから収集する過程で紛れ込んだとみられる。学習する際、違法画像を取り除くフィルター機能があるが、排除しきれていないという。 pic.twitter.com/MkNOUe8gup

2024-03-21 09:34:26
拡大
リンク ライブドアニュース 生成AI、児童ポルノ画像を学習か…専門家「被害者の人権侵害恐れ」 - ライブドアニュース 国立国会図書館が、違法な児童ポルノの恐れがあるとして閲覧を禁じた写真集。画像生成AIの学習に使われる画像データの中に一部が含まれていると分かった。専門家は「被害者の人権を侵害していることになりかねない」と述べている
yatomibuncho @buncho108

StableDiffusion2以降はCSAMが除去されているというポストを見ましたが、2022年11月24日リリースです。スタンフォード大学がCSAMをPhotoDNA(過去CSAMと報告された画像と一致するものを検出、新規は不検出)で検出したのが2023年12月20日。LAION-5B公開停止。SD2以降全部汚染。cyber.fsi.stanford.edu/io/news/invest…

2024-04-04 10:54:09
yatomibuncho @buncho108

SD2以降はクリーンというのは事実ではありません。スタンフォード大学が昨年9月に調査開始して、その時点でPhotDNAで一致したCSAMが1008、過去に削除されたり移動したりしたもの、新規やボーダーラインコンテンツは不検出。所持しているLAION-5Bを破棄するか浄化しろと勧告。purl.stanford.edu/kh752sm9123

2024-04-04 11:02:25
yatomibuncho @buncho108

SD2.0以降は制限を強化しているので1.5より版権ものや露骨なコンテンツを生成するのは難しくなりましたが、データセットがクリーンになったというわけではありません。news.yahoo.co.jp/articles/99060…

2024-04-04 16:01:03