ディープフェイク
AI(人工知能)の深層学習を意味する「ディープラーニング」と、偽物を意味する「フェイク」を掛け合わせた造語。AI技術を応用して著名人などの顔を既存の動画に合成する技術、または作成された静止画や動画を指す。中でも著名人などの顔を既存のアダルト動画と合成したものは「フェイクポルノ」と呼ばれている。
2017年末、アメリカのインターネット掲示板で「ディープフェイクス」を名乗る人物が「フェイクポルノ」を公開したことを機に注目された。その後、ディープフェイクのアルゴリズムがコード共有プラットフォームに一般公開され、誰でもその技術やノウハウを習得できるようになり、急速に広まったといわれている。
ディープフェイクは、単純に顔の静止画を切り抜いて動画に当てはめるのではなく、フェイススワップ(顔交換)と呼ばれるAI技術を使い、元の動画の人物の表情に合わせてそれぞれのパーツが自在に動くので、一見すると加工された動画と気付きにくい。ディープフェイクを使うと、実際には言っていない発言を動画の中でさせたり、性行為を行わせたりすることが可能のため、虚偽報道やでっち上げ、リベンジポルノなどにも使われる危険性がある。また、政治や外交、経済など、社会情勢にも影響を与えることが危惧されている。
インターネット上では、ディープフェイクが広まる以前からアイドルの顔写真とヌード写真をコラージュした「アイコラ」と呼ばれる画像が公開され、名誉毀損(きそん)や著作権侵害などの問題に発展したケースが多々あった。2020年10月にはディープフェイク関連の取り締まりが行われ、熊本県の大学生など3人の男が名誉毀損と著作権法違反容疑で逮捕された。