6152 ディープフェイク
AIが進化するとこういう問題が起きるのか…とあらためて考えさせられた。
「芸能人200人がポルノ合成の餌食に」アイコラとは段違いのディープフェイクの怖さ
女性芸能人の顔写真を合成した偽のアダルト動画で、国内初の逮捕者が出た。ITジャーナリストの高橋暁子氏は「昔のアイドルコラージュとは比べものにならない高精度。ディープフェイクと呼ばれる動画は1年半で6倍に増えており、決してひとごとではない」という――。
もう本人と見分けがつかない偽の動画が出回っているというのだ。
いまは、まだ録画されたものを改竄して本人になりすませているだけだが、これはいずれ、リアルタイムでできるようになるだろう。
声だけですら“オレオレ詐欺”が成立してしまうくらいなのに、そこに本人そっくりの映像が出てきたら、ますます被害が大きくなってしまうに違いない。
そして、逆に、いま見ている相手が、本当に本人かどうかの判断が付かない…なんていうことも起こりうるだろう。
このコロナ禍で、遠隔でのやりとりする機会が増えて、画面越しに本人かどうか…ということを問われる場面も出てくることもあるはずだ。
あらためて考えると、画面越しに、本人であることを証明するというのは、かなり難しい気がしてくる。
本人しか知り得ないことで本人を証明すると言っても、それが本当かどうかなんてわからないし…。
どうやったら、自分が本人であると認めてもらえるのだろう?
これは悩む。
星新一のショートショートとか、世にも奇妙な物語なんかで出てきそうなことが、現実になってしまいそうだ。