ディープフェイク(deepfake)で顔認証は突破できるのか?生成AIを使ったなりすまし行為を防止する技術とは?
FaceMe®
< 全ての記事

ディープフェイク(deepfake)で顔認証は突破できるのか?生成AIを使ったなりすまし行為を防止する技術とは?

2024/10/30

ディープフェイク(Deepfake)とは?

2017年にGoogleがTransformer技術を発表して以来、企業や研究機関がこれを応用し、生成AIの時代が始まりました。2022年末に登場した ChatGPTをはじめ、AI技術の革新的な進歩により、現在では多くの分野でその活用が広がっています。

こうした生成AIの進歩に伴い、近年なにかと話題になることが多いのが「ディープフェイク(Deepfake)」です。ディープフェイクとは、一般的に深層学習(deep learning)を用いて、人物の顔や声を高度に偽造し、本物そっくりの画像、動画、音声を生成する技術のことを言います。この技術により、まるで実在する人物が発言や行動をしているようなコンテンツを作り出すことができます。

映画や映像制作における故人の再現、プロモーション動画作成の効率化など合理的な使用によって価値を生み出すこともありますが、一方でディープフェイクは詐欺や誤情報の拡散、選挙への干渉などにも悪用されるリスクがあり、社会全体での対策が急務となっています。

ディープフェイクの脅威

0

顔の入れ替え、映像編集、後処理技術は以前から存在していましたが、ディープフェイク技術によってこれらが新たなレベルに達し、人の目では真偽を見分けることが難しくなっています。現在、偽のコンテンツをリアルタイムで生成することさえ可能になっており、その潜在的な危険性は計り知れません。

1.フェイクニュースの拡散

ディープフェイクを悪用すると、実在人物の映像や音声を不正に加工する事で、本人が発言していない内容をあたかも話しているかのように見せかけ、意図的に嘘や架空の出来事を捏造することが可能となります。

たとえば、ウクライナのあるYouTuberは顔と声が不正に使われ、ロシア支持を訴える虚偽動画が拡散されるというケースがありました。このディープフェイクによるフェイクニュース動画は本人のものではないにもかかわらず、多くの人々を誤解させ、国際世論の混乱を招きました。

2.政治と選挙への干渉

ディープフェイクの影響はフェイクニュースに留まらず、政治や選挙にも深刻な影響を及ぼします。米国大統領選挙では、著名人がある候補者を支持するかのような虚偽映像の拡散が起こっており、こうした内容は、有権者の判断を混乱させるリスクが高く、公正公平な選挙への大きな脅威となっています。

3.詐欺や犯罪

香港では、詐欺グループがある多国籍企業のビデオ会議において、ディープフェイク技術を悪用して同社の最高財務責任者になりすまし、2500万米ドル(約38億円)を送金させる事件が発生しました。

また日本でもディープフェイクを悪用して他人になりすます事によって、顔認証や免許証などによる本人確認を突破し、銀行口座やクレジットカードを契約するなど金融サービスの不正利用に対する懸念が高まっています。

ディープフェイクに対する各国の対策と現状

ディープフェイク技術がもたらす潜在的なリスクに対処するため、各国はその利用を規制する関連法案や対策を整備しつつありますが、まだまだ不十分な現状もあります。

  • 欧州連合(EU)
    EUはAI法(EU AI Act)において、ディープフェイク技術を使用する企業に対し、生成された映像にデジタル透かしを埋め込み、AI生成のコンテンツを簡単に識別できるよう義務付けています。さらに、個人や企業、団体がディープフェイク技術を使用する場合、その内容がAI生成であることを明確に表示し、視聴者が即座に識別できるようにすることを必須としています。
  • アメリカ
    テキサス州は2019年に、ディープフェイク技術を使って政治関連の映像を制作・拡散することを禁じる法律を可決しました。これは、虚偽の映像で候補者を攻撃したり、選挙結果を妨害したりすることを防ぐためのものです。加えて、カリフォルニア州のAB 602号法案とAB 730号法案は、特に選挙やポルノに関するディープフェイクコンテンツの乱用を明確に制限しています。
  • 日本
    経済産業省や総務省は、ディープフェイク技術の進展に伴うリスクに対処するため、AIやデジタル技術に関するガイドラインを策定し、技術の倫理的な利用を促進しています。また、フェイクコンテンツの検出技術を開発するための研究開発支援も行われています。しかし、ディープフェイクの新たな法的課題に対応するための特別な規定は、まだ十分に整備されていません。
  • ソーシャルメディア
    Facebookは2020年から、誤解を招く意図で生成された映像の投稿を禁止しており、YouTubeも2023年にプライバシーポリシーとプラットフォーム規約を更新し、ディープフェイクコンテンツに対する管理を強化しました。しかし、これらの法規や政策は主に法を守る人々に向けられており、現時点ではディープフェイク技術を悪用する犯罪者の悪質な行為を完全に防ぐことはできていません。

顔認証を使用した eKYC(オンライン本人確認)に対するディープフェイクの脅威

eKYCは、インターネットやデジタル技術を活用して、リモートで顧客の本人確認を行うプロセスであり、サービスを提供する企業が迅速かつ信頼性の高い方法で顧客の身元を確認できるようにするものです。このeKYC技術は金融業界や電子商取引などの分野で広く利用されており、業務効率の向上や運営コストの削減に役立っています。しかし、リモートで顔認証による顧客の本人確認を実行する過程において、ディープフェイクによる潜在的なセキュリティリスクが発生しており、特に以下の方法を利用しeKYCの突破を図る攻撃が懸念されています。

deepfake-attack

他人の写真や身分証をアップロード

eKYCのプロセスにおいて、顧客が自分で写真をアップロードする場合、悪意のある人物が他人の身分証明書や写真を悪用する事によって、ディープフェイクを使って偽の写真を生成し、他人になりすます可能性があります。このような場合、サービスを提供する企業はこれらの偽造画像を効果的に検出することが困難で、データの真偽を確認するために多くの人手が必要となってしまいます。

他人の写真や動画を再生

安全性を向上させるため、一部のeKYCでは、ユーザーにカメラを使用した自撮りを要求することで、他人の写真を使ったなりすましリスクを低減しています。しかし、悪意のある人物がPCやタブレットで偽の顔写真や動画を再生したり、ディープフェイクを使って動画を生成し、スマートフォンのカメラを通じてシステムを欺くことも可能です。この場合、実際の人間による審査を行うことでこれらの攻撃を阻止できますが、負担が大幅に増え、効率の問題が生じます。

カメラストリームをハッキングし、エンコードした映像を送信

さらに高度な手法としては、eKYCが実行されるデバイスをハッキングする事で、ディープフェイクで生成された偽の映像ストリームをカメラ映像として挿入することが考えられます。eKYCのシステムは再生された偽造映像を実際の人物のリアルタイム映像と誤認してしまう可能性があります。このタイプの攻撃は技術的に高度であり、実行の難易度は大幅に上がりますが、同時に防御対策も複雑になります。現在、この攻撃はまだ大規模には発生していませんが、金融機関をはじめとする企業は、このようなリスクに対し、早めに対策を講じるべきと言えます。

AI顔認証エンジンFaceMeのディープフェイク対策

deepfake-attack

FaceMe®は、eKYC(オンライン本人確認)プロセスにおいて、上述のようなディープフェイクやその他のなりすまし攻撃を効果的に防ぐための多層的な機能を有しています。これらを使い分け、または組み合わせることにより、認証結果の高い信頼性と安全性を確保します。

高精度な顔認証エンジン

FaceMeは正確なアリゴリズムと認証精度で、アメリカ国立標準技術研究所(NIST)の顔認証ベンチマークテストにおいて、継続的に世界トップクラスの評価を獲得しており、極めて高い精度で本人確認を実行可能です。

リアルタイム映像解析

FaceMeは、カメラからのストリーミング映像をリアルタイムで処理できる強力な AI分析能力を持っており、他人の写真や動画、またはディープフェイクによって生成されたコンテンツの使用を効果的に防止し、認証の信頼性を保証します。

なりすまし防止機能

FaceMe のなりすまし防止機能は、「2Dなりすまし防止機能」と「3Dなりすまし防止機能」があります。「2Dなりすまし防止機能」は、PCやスマートフォン、タブレットの内蔵カメラをはじめとするRGBカメラを、「3Dなりすまし防止機能」は、3D深度カメラ、IRカメラを使用し、人間らしさの判定や深度情報を利用することで、写真や動画、またディープフェイクで作成された動画をカメラに映し他人になりすます行為を防止することができます。

なりすまし防止に関する関連記事はこちら : https://bit.ly/40dIIFx

ディープフェイク検出

カメラストリームを乗っ取る形で、ライブカメラに見せかけ、エンコードした偽の映像を送信するような高度ななりすまし攻撃を受けた場合、通常のなりすまし防止機能だけでは対策が不十分な可能性があります。そこでFaceMeが独自に設計、開発、トレーニングを行った、ディープフェイク検出機能を組み合わせることで、映像がディープフェイクによって生成されたものであるかどうかを識別し、本人確認の精度、安全性をさらに確保します。

まとめ

ディープフェイク技術の発展により、なりすまし行為が巧妙化する中、特にeKYCの分野では、単なる顔認証による本人確認だけでなく、総合的ななりすまし防止対策が不可欠です。

FaceMe®のAI顔認証エンジンは、なりすまし防止機能にディープフェイク検出機能を組み合わせることで、あらゆるなりすまし行為を阻止し、安全で信頼性の高い認証システムの構築を実現します。

FaceMe® の製品詳細はこちら : https://bit.ly/3YwlBo5

FaceMe®: サイバーリンクの顔認証トータルソリューション

FaceMe について
のお問い合わせ

FaceMe に関するお問い合わせ