世の中はニセモノ(フェイク)で溢れています。
AI技術が発展したおかげで、ニセモノのクオリティも高くなってしまいました。
・ディープフェイクのビデオや音声
・AIが自動生成したテキスト、詩、歌詞
・ニセモノのサイト
・ニセモノのインフルエンサー
・フェイクニュース
ディープフェイク(deepfake)は「深層学習(deep learning)」と「ニセモノ(fake)」を組み合わせた混成語(かばん語)で、人工知能にもとづく人物画像合成の技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。
(Wikipediaより)
いつの時代もニセモノは存在しています。
デジタル化が進んだことで、ニセモノの生成と配布の両面において「より簡単に」「より早く」「より広範囲に」することが可能なりましした。
また冒頭で述べたとおり、AIの発展によって、従来では考えられないくらいの高いクオリティレベルに到達し、誰でも完璧なニセモノを作成できるようになったわけです。
僕たちはニセモノが溢れる世界でどうしたら良いでしょうか。
今回は、AI技術の側面から、ニセモノの世界になりつつある現実についてお伝えします。
AIが完璧なニセモノを作り出す方法
ディープフェイクを作成するには、2つの方法があります。
1つ目は、フェイススワップと呼ばれる方法です。
これは、エンコーダーとデコーダーを使用して、ビデオに登場するの人物の顔だけをフレームごとに一致させて置き換える技術です。
2つ目の方法は、GAN(ギャン)と呼ばれる技術を使う方法です。GANは日本語では「敵対的生成ネットワーク」と呼ばれます。この方法は、あらゆる種類の偽のデータを作成するために活用できます。GANでは、以下の2つのAIアルゴリズムを使用します。
・偽データを生成するアルゴリズム【ニセモノ生成アルゴリズム】
・偽データかどうかを判別するアルゴリズム【ニセモノ判別アルゴリズム】
1つ目のアルゴリズムで偽のデータを生成し、もう1つのアルゴリズムでそれをニセモノかどうかを判別します。そして、判別した結果を作成側アルゴリズムにフィードバックします。
この流れを大量に繰り返すことで、ニセモノ生成アルゴリズムの精度が向上し、ニセモノのクオリティが高くなるという仕組みです。
最終的には、ニセモノ生成アルゴリズムは洗練され、人間の目では本物かニセモノなのか判断できなくなるわけです。
これによって、ニセモノ(ビデオ、オーディオ、文章、指紋など)を大量に作り出すことが可能になります。
今後、誰もが完成度の高いニセモノを作成できるようになるのは時間の問題です。だからこそ、ニセモノを検出する方法を見つけ出す方法を見つけること、そして、ニセモノで溢れる世界でどう生きるのかを理解しておくことが大切なんです。
偽造とニセモノ判別の『いたちごっこ』
ある調査によると、あらゆるソーシャルメディアアカウントの4分の1がニセモノまたは不正な状態であるそうです。
偽のアカウントは無害であるように聞こえますが、偽のニュース、スパム、サイバー犯罪と密接に関連する可能性があります。
この調査によると、偽のアカウントを検出することは、今のシステムではうまくいっていないということです。NATO(北大西洋条約機構)の調査では、偽アカウントの約95%が、自動で偽アカウントを判別するプログラムを実行しても正確に検知されず、数週間以上経ってもアカウントが生き続けていることがわかりました。
これは驚くべき事実です。
FacebookやTwitterをはじめ、その他のSNSが何十億ドルもの投資をして偽アカウントを検出するシステムに長年にわたって取り組んできているわけです。
それを考えると、これは驚くべきことですよね。偽造技術が検出技術より先にいることを意味しています。
前述したとおり、クオリティの高いニセモノを作るには、ニセモノ生成アルゴリズムで偽のデータを作り、判別アルゴリズムでそれをニセモノかどうかを判別し、そして、作成側アルゴリズムにフィードバックを提供します。
要するに、故意に「いたちごっこ」の状況を作り出してニセモノのクオリティを高めているわけです。
この「いたちごっこ」は無限に続く可能性が高いです。
そして、人間の知覚は完全に取り残され、もはや人間では判別が不可能になります。この「いたちごっこ」は人間が介入できる余地はなく、AIシステム間だけで行われるわけです。
ニセモノを活用できるケース
しかし、ニセモノのクオリティが高くなることに対して、悲観することばかりではありません。
この技術をうまく活用できるケースは存在します。
それは「学習データのカサ増し」です。
AIの出力精度を上げるためには、それなりの量の学習データが必要となります。
しかし、実際のAIプロジェクトでは、最初から十分なデータが揃っていることは稀です。データが不足しているケースは少なくありません。そういったときに、このニセモノデータの生成が役に立ちます。
データの不足をニセモノデータを作ることで補完するということです。
とはいえ、話は簡単でないことも多いです。
ニセモノを作るためには、まず本物のデータから特徴を学習する必要があります。なので、そもそものデータ(実際の本物のデータ)の量が少なければ、ニセモノのデータの精度も上がらないという問題があるわけです。
先に紹介したGANについても、亜流が様々出てきていて、こういった問題を解決しようとする技術が日々研究されています。今後に期待です。
まとめ
諦めるわけではないですが、現状ではここで紹介した事実は覆されないでしょう。
・ニセモノのクオリティが高くなる
・もはや人間では判別できなくなる
これは「AIが人間の能力を超える」良い例ですね。
今後はより一層、僕たち人間側がAIのような先端技術を使う「モラル」が問われる時代になってくるのではないでしょうか。