- nanase0071
- 53948
- 453
- 120
- 449
さっき知らん番号に間違って出たら義妹から大変なトラブルに巻き込まれているからお金至急送って欲しいって言われた。誰って言ったら義妹の名前言うし私の名前も言う….声も義妹で電話番号だけが違う。とりあえずかけ直すわって電話切って本人にかけたらやはり詐欺電話だと判明。
2023-10-24 09:15:50留守番電話の設定を自分の声で登録してる人は気をつけて。どうやらそこから個人情報とか取られ、声までもAIで似せてかける詐欺電話が最近北米で流行ってるらしい。その場で変なこと言わずとりあえず事実確認した方がいいよ!
2023-10-24 09:15:51AIにはAIをと言うことで、留守電はAI に文章読んでもらうネットの機能を使い録音しなおした。知らないところで自分の名前使われて誰か被害に遭ったら嫌だし。 twitter.com/seikatau/statu…
2023-10-25 01:56:29カナダ•オンタリオ州トロント郊外在住。 Love: Music🎵 Maple Leafs•旅行•食•ガーデニング•読書•観葉植物•Dog•Disney•F1•お得情報•パン•Banff•韓国(ドラマ)•my boy 👦
@seikatau なにそれこわ...😱😱😱 自分は引っ掛らんと思ってもそこまでされたら自信を持って言えない🫠けどこれシェアしてくれたおかげで、絶対疑った方が良いって思えた😱シェアありがとう🥹
2023-10-24 10:50:35@WYTplknZQB8xbrv 怖いよね!ちらっとそう言うのあるって話聞いてたからなんとなく対応できたけど、知らんかったらさ焦るよね。あとはなんとなく呼び方に違和感あったし😅とりあえずその場で何も対処しないのが一番。
2023-10-25 01:57:31@seikatau 名前合ってるとちょっと信じちゃいますよね( ˊᵕˋ ;)💦 危なかったですね💦 どこで情報漏れたんだろ🤔
2023-10-25 10:32:26AIの進化って凄いね… 悪用せず良いことに使えばいいのにね… twitter.com/seikatau/statu…
2023-10-25 12:55:34とうとう、AIで声を似せる詐欺電話も出てきたんですね。こわ…! twitter.com/seikatau/statu…
2023-10-25 09:02:09スマホとかで聞く音声って相手の本当の声ではなくて1000種類くらいある声の中から似た声が選ばれて出力されてるって聞いたことがある twitter.com/seikatau/statu…
2023-10-25 12:45:30そもそも電話の声って作られた声だから似た声いくらでもできそうだな。 twitter.com/seikatau/statu…
2023-10-25 12:26:00ディープフェイクのロマンス詐欺をドラマかなんかでチラ見したけれど、現実にあるのね😱 twitter.com/seikatau/statu…
2023-10-25 09:26:09さっそくAIボイスサンプリングの悪用がはじまっているよう。一旦保留で、確認を。 twitter.com/seikatau/statu…
2023-10-25 09:40:19声をサンプリングして波長をとってるんですね。最近の音声合成技術は人と区別つかんから、、 twitter.com/seikatau/statu…
2023-10-25 11:11:23中国でも増えてるらしいよね 声を似せられるAI使った電話の詐欺 動画の通話もできるらしいし 犯罪の方が新しい方法への柔軟性が高い… twitter.com/seikatau/statu…
2023-10-25 13:04:40今は少しの音声や動画、写真などから情報をAIに学習させてやる手口が流行ってるそう。画像学習はビデオ通話で使うらしい。音声だってAIだから違うとわかる!ではなく、電話だとノイズが入るので、意外と分からないらしい。みんなも気をつけて twitter.com/seikatau/statu…
2023-10-25 08:40:15昨日ちょうど見た話題。15分くらいの声サンプルがあればAI学習が可能で、ゆーちゅーばー等の配信者が既に餌食にされ始めてるとのこと。身近な人に注意喚起した方が良さげ。 回避策として合言葉を決めるとか、「嫁の旧姓」みたいな関係性のない質問に答えさせる必要がありそう。 twitter.com/seikatau/statu…
2023-10-25 11:05:56一旦本人に確認が安全そう
ひええ 声似せてくる時代かぁ とりあえずかけ直すが正解だな。 どんなトラブルでも早急にお金が必要ってあんまりないような??? twitter.com/seikatau/statu…
2023-10-25 12:00:08声はある程度コントロールきくしシステムでカバーできるからなぁ。まぁうちは家族にしかわからない酷い小ネタがあるからほぼ間違わないんだけど twitter.com/seikatau/statu…
2023-10-25 11:39:32妹大好きで妹のためならなんでもできる。そんな私にとってこれは恐いな。。妹の声でお姉ちゃん助けて!とか言われたら考えなしに助けてしまう。。本人確認大事だな。 twitter.com/seikatau/statu…
2023-10-25 10:43:07知り合いのとこには、事前に 『○○だけど、スマホの番号変えたから、登録しといて。今風邪ひいたみたいで声がおかしい。』 的な電話を、自分から名乗った上でかけてきて、その時はそれで終わらせて、後日少し日付を開けてから本命の詐欺電話かけてきてたから、それ聞いてまじで怖かった。 twitter.com/seikatau/statu…
2023-10-25 12:37:35真偽不明の内容という前置きで呟くけど、こういうとき地方出身だと訛りや方言までは相手が再現できないから強いな twitter.com/seikatau/statu…
2023-10-25 10:20:10こりゃすごい。AIの合成音声だとしたら、定型文の音声をたくさんストックしてポン出ししてるのか、リアルタイムで生成してるのか気になる!後者じゃないとイレギュラーな会話に対応できないよねぇ。 twitter.com/seikatau/statu…
2023-10-25 08:57:55