画像データを生成AIの機械学習生成から保護するための対策ツール「Glaze」日本の創作者がこれを利用する意義
- akiikuradon
- 16656
- 165
- 0
- 0
@henken_second 手っ取り早い方法としては、GlazeのアプリがCドライブに保存されてるので、ダウンロードとかピクチャに使いたい画像持っていって画像のファイル名を半角英数字にして使う これでおおよそいけると思います
2023-03-17 02:07:17GLAZE(aiの盗難防止ソフト)を試してみました。以下はそれぞれオリジナルとレンダリングの結果ですが、若干の歪みや粒子があるように感じますが、全く問題ないレベルです。 所要時間は10分程度で、絵描きの方にはおすすめです。 pic.twitter.com/W9ScymRygi
2023-03-16 14:55:52Glaze一番弱いプロテクト(一番綺麗な状態)で使ってみた 元画像←→Glaze (Very Low) pic.twitter.com/UqNBrfvl14
2023-03-16 21:30:58AI学習対策ツール「Glaze」試しました。順にオリジナル画像、VeryLow、Low、VeryHigh。処理時間は1枚あたり約12分くらい。正直なところどこまでノイズが乗るのを許せるかだと思う。 pic.twitter.com/6Lc1Hckbor
2023-03-16 12:04:39@be__sun それでも、img to img のようなシステムでは、カラー パターンが同じ側にあるため、盗作を認識しやすくなります。
2023-03-16 17:14:28参考までにオリジナル画像とVelyLowでi2iした画像を置いておきます。こっちはそのうち消します。 pic.twitter.com/w0N2UE8om6
2023-03-16 19:29:35物によるんでしょうけど、比較するとGlazeで加工をしたデータのi2iには意外と加工の影響によるものと思われる荒れたような表現が発生するんですね…
2023-03-17 05:04:14glazeはとても画期的だけど、何に対して有効で何には効果がないのか予めハッキリさせておかないと期待外れだと評価されて普及が遅れかねないね
2023-03-16 10:03:30注意すべきはGlaze使っても人の目には識別できないレベルのノイズならスクショして学習できるので学習そのものは防止出来無いこと ただ、スクショ使った場合オリジナル画像を使えないからフェアユース適用外になりうるかも?日本なら著作者人格権の同一性保持権に抵触するかも?とは言われてたかな… twitter.com/nalgami/status…
2023-03-16 11:03:39AIによる画像データの無許諾の学習を防止するプロジェクト「Glaze」のプログラムが先ほど公開された! glaze.cs.uchicago.edu/download.html
2023-03-16 08:17:08@kuronagirai A screenshot of any of these images would retain the underlying alterations, and the AI model would still be unable to recognize the artist’s style in the same way humans do. glaze.cs.uchicago.edu/faq.html Glazeはスクショされても有効らしいです
2023-03-16 11:56:25@mawosazu 今現在進行形で行われてる実験の結果では解像度の改変が行われるとノイズ情報が幾分か潰れてしまう結果が出てるんですよね… またjpg化した際の圧縮率でもノイズがそこそこ掻き消えるので思ったよりは厳しい感じです
2023-03-16 12:03:35@kuronagirai そうなると特定のイラストレーターのスタイルを学習することを防ぐという観点ではあまり意味がなさそうですね…
2023-03-16 12:14:12@mawosazu そうですね というかつい数分前にほぼほぼ実用レベルでノイズ除去する方法が発見されて今追実験中なので防ぐって観点ではほぼ無意味かと どちらかと言えば学習者が加工ってプロセスを明確に挟むことによって同一性保持権に引っ掛けてクリエイターを法的に保護って方が大きいかもです
2023-03-16 12:19:24Glaze利用感、観測範囲の個人メモ ①目視でわかる程度のノイズがかかる(グラデーションは崩れ気味) ②学習防止→集中学習系のLoRA防止に効果ありそう? ③i2i防止効果はほぼなし? 学習されたくない側とノイズ画像の学習を回避したい側の利害一致を考えるとオプトイン形式移行が落とし所でしょうか
2023-03-17 00:35:39Glazeによる撹乱の効果が「イタチごっこ」になるだろうことはGlaze開発側も折り込み済みのよう 最初のステップと位置づけ継続的に対策するそうで嬉しい 少なくとも絵描きによる明確な意志表明が技術的に可能になり、それを迂回して抜道から無断学習するのは「なぜ?」と問えるようにになるのかな twitter.com/ravenben/statu…
2023-03-16 13:41:07It's a big day. Glaze, our tool for protecting artists against AI art mimicry, is now available for download/use at glaze.cs.uchicago.edu Glaze analyzes your art, and generates a modified version (with barely visible changes). This "cloaked" image disrupts AI mimicry process.
2023-03-16 07:24:40GLAZEについてはこんな記事もありました。おそらくデータ収集側とのいたちごっこになるのでしょうけれど、こうした形で「アーティスト保護」の試みがなされているのは心強いなと感じます。>RT kai-you.net/article/86102
2023-03-17 01:51:57鍵をかけたのにピッキングしてまで入ってくる泥棒は、より一層の悪意の持ち主に他ならない。イタチごっこという言葉に惑わされる必要はありませんよね
2023-03-16 14:43:14ぶっちゃけGlazeは気休め程度だけど、手間かけたり作品にノイズ載っても学習されたくないって意思表示だしな。トラブル解決したらNFTの表示画像にもGlaze使おう。かけてない奴は特典画像として入れておけばいいし。
2023-03-16 16:29:13glazeは本当にやっといて損がないと思うよ……… これで保護しても目立たないし、i2i嫌がらせ(盗作)のリスクが減らせる………… なによりもういろんな人が言ってるけど被害者と加害者の構図に明確になるから良い。 わざわざこの保護をこじ開けようとするのはもう"明確な悪意を持った強盗犯"だからね
2023-03-16 19:15:10僕は自分の絵の事より、どっちかというと好きな絵師さんの絵が喰われて利用されてる方が気に食わないんだけど、自分の絵をそう思ってくれてる人もいるかもだし、自衛しないのはそういう応援してくれてる方達に失礼な態度かなとも思うので、できる限り自衛する方針なのだ。 もちろん自分のためでもある
2023-03-17 00:12:55もちろん人それぞれ考え方が違うので、自分はそういう考えで自衛できる部分は自衛してるというだけです。 他の人にもその人の美学とか考えがありますからね。 押し付けになったら申し訳ないので書いておきますー
2023-03-17 00:25:29Recently many AI terrifying situation,I made a simple watermark, I do not know whether the watermark has helped, but I hope that this watermark can more or less help the community, I also hope that people can respect the artist and respect each creator DL in the comments below pic.twitter.com/qF28h2HwxS
2023-03-11 23:23:00「無断で著作物を機械学習に使用している画像生成AI(今あるやつは大体そう)」が問題になってますが、機械学習への対策として「Glaze」というツールが公開されました。それを利用した上で、このような文言をどっかに書いておくと良いでしょう。(この文言画像は無断使用可) twitter.com/you629/status/… pic.twitter.com/eCDCJQgF9y
2023-03-17 00:31:35“アーティストをAIアートの模倣から守るためのツール、Glazeがglaze.cs.uchicago.eduでダウンロード/使用可能になりました。Glazeはあなたのアートを分析し、微かな変化がある修正バージョンを生成します。この「クローク」された画像はAIの模倣プロセスを妨害します。” AI対抗作の進歩も早いなぁ twitter.com/ravenben/statu…
2023-03-16 12:12:56