真音氏による、イスラエルのAI、LavenderとWhere is Daddy?の非人道的な機能について

3
真音 @maonnote

まおんです。 ゲームのルール自体が腐ってたら勝ち組だろうが負け組だろうが結局みんな腐ってしまうのと思うよ。 毎年自殺者が何万人も出る国ではたとえ勝者でも腐っていくのと思うよ。

真音 @maonnote

イスラエル軍のAI、Lavenderについての記事を今半分まで読んだけど凄まじいディストピアですよこれ。必読。要は軍のミッションとして殺害するターゲットを特定するという事務作業をもっと早く大量にやりたいというのがあって、今までは人間の処理能力が追い付いてなかった→ 972mag.com/lavender-ai-is…

2024-04-08 08:13:53
リンク +972 Magazine ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal. 34 users 11785
真音 @maonnote

それがAIにスマホの通信記録、電話帳や写真とか引っ越し履歴とかニックネームとかありとあらゆる個人情報を大量に精査させて、とにかく「ハマスっぽい」ターゲットを大量に特定させることに成功した、と。人間はそのリストにハンコを押すだけの存在で

2024-04-08 08:14:37
真音 @maonnote

それらのターゲット認定された人の殺害タスクを許可する役割。判断にかける時間はだいたい一人につき20秒。単に男であるということを確認して終わり、許可、という状態だという元オペレーターの証言。類似の行動パターンからAIに「ハマスっぽい」と認定された人にはガザの警察や救助隊といった活動を

2024-04-08 08:15:14
真音 @maonnote

している人たちも含まれてしまうのは認知されたバグだけどそれを事前に人間がチェックするシステムは存在しない。男ならハンコおすだけだから。このAIはLavenderと呼ばれるものだけど、もう一つのシステムでWhere is Daddy?というのがあって、

2024-04-08 08:15:35
真音 @maonnote

それはLavenderが特定したターゲットの住所を特定してその人が家にいるタイミングで通知するもの。

2024-04-08 08:16:04
真音 @maonnote

イスラエル軍がいかに国際法に則っていると表向きに言おうと、実態は「Lavenderの特定したターゲットが家に帰ったタイミングで家に家族がいようとなんだろう家ごと家族ごと吹き飛ばせ」が各オペレータに課せられているミッションだという証言が載っている。ジャーナリストもみんな自宅で殺害されてるし

2024-04-08 08:16:47
真音 @maonnote

これが実際に遂行されていることは明らか。

2024-04-08 08:17:15
真音 @maonnote

非人間化された「敵」と「戦争」をやるということは、論理的帰結として非戦闘員もろとも殺せとなるのは自明だし、イスラエルがその域に達しているのは今だけじゃなくて2014年どころかずっとそうだったわけだけど、それでもこれまでは実務の面での人間の処理能力という限界があった。

2024-04-08 08:17:50
真音 @maonnote

それが今回はAIにより圧倒的な効率化が得られたために、あくまでターゲットベースの軍事オペレーションの体裁を維持しながら無差別大量殺戮を行うことが可能になった、ということだと思う。なんというディストピア。

2024-04-08 08:18:18
真音 @maonnote

こういうシステムを開発し運用しかねない政府は日本を含めて世界にたくさんあるし、当然米国もこのシステムとそれがどう運用されているかを認知したうえでイスラエルを援助しているという現実。

2024-04-08 08:18:40
bbc @falke222

@maonnote 人の生死をなんだと思ってるんだ と思ったが、イスラエルからするとハマスは人間じゃないんだなぁと悲しくなる

2024-04-08 21:13:55