5753 ディープフェイク

PC・携帯・ネット

AIが進化するとこういう問題が起きるのか…とあらためて考えさせられた。

「芸能人200人がポルノ合成の餌食に」アイコラとは段違いのディープフェイクの怖さ
女性芸能人の顔写真を合成した偽のアダルト動画で、国内初の逮捕者が出た。ITジャーナリストの高橋暁子氏は「昔のアイドルコラージュとは比べものにならない高精度。ディープフェイクと呼ばれる動画は1年半で6倍に増えており、決してひとごとではない」という――。

もう本人と見分けがつかない偽の動画が出回っているというのだ。

いまは、まだ録画されたものを改竄して本人になりすませているだけだが、これはいずれ、リアルタイムでできるようになるだろう。

声だけですら“オレオレ詐欺”が成立してしまうくらいなのに、そこに本人そっくりの映像が出てきたら、ますます被害が大きくなってしまうに違いない。

そして、逆に、いま見ている相手が、本当に本人かどうかの判断が付かない…なんていうことも起こりうるだろう。

このコロナ禍で、遠隔でのやりとりする機会が増えて、画面越しに本人かどうか…ということを問われる場面も出てくることもあるはずだ。

あらためて考えると、画面越しに、本人であることを証明するというのは、かなり難しい気がしてくる。

本人しか知り得ないことで本人を証明すると言っても、それが本当かどうかなんてわからないし…。

どうやったら、自分が本人であると認めてもらえるのだろう?

これは悩む。

星新一のショートショートとか、世にも奇妙な物語なんかで出てきそうなことが、現実になってしまいそうだ。

Posted by ろん