2019年06月21日

動画も偽造の時代へ(フェイクは社会システムを破壊する)

顔認証技術とAIが連携し動画の世界のねつ造が日常的になると予想されます。CNETは『ディープフェイクとは、人が実際とは違うことをしたり言ったりしているように見せかける偽造動画のことだ。「Photoshop」で画像の修正がいともたやすくなったように、ディープフェイクのソフトウェアが登場して以来、そうした動画に容易にアクセスできるようになっただけでなく、フェイクだと見分けることが、ますます困難になっている』と指摘しています。
日常生活とも関係しており、『ディープフェイクは、顔認識の悪い一面が表れた使い方だ。本来の顔認識は、既に日常生活のなかで重要な機能を果たしつつある。「Googleフォト」で、特定の友人のスナップ写真を検索する技術もそのひとつだ。一方、空港やコンサート会場で、知らないうちに顔をスキャンされている可能性もある』といいます。
悪用されると取り返しのつかない事態を招くとされ、『通例の顔認識が、人の顔の特徴をコンピュータに分かる独自のコードに変換するのに対して、ディープフェイクのソフトウェアは、本物かどうか疑われもしないほど巧妙に、人のアイデンティティを合成しようとする。人の人生を台無しにするだけでなく、国家元首や有力な経営トップ、政治家候補者などに対する市民の認識すら操作できるという点で、悪夢のような事態をも引き起こしかねない技術だ』としています。
政治制度や経済システムを根底から揺るがす恐れがあります。イデオロギーのレベルを超えています。
技術の「独走」をいかに制御できるかが問われています。


広まる「ディープフェイク」の脅威--虚実の分からない世界が到来する
CNET 2019年04月12日
https://japan.cnet.com/article/35135448/
Joan E. Solsman
 ディープフェイクについて考えると、ともすれば哲学的な問題に行き着く。例えばこうだ。ディープフェイクが、大国に対する妨害行為に利用されるというときに、自分の顔がハードコアポルノ動画の出演者の顔にすげ替えられることを心配している場合だろうか。

 ディープフェイクとは、人が実際とは違うことをしたり言ったりしているように見せかける偽造動画のことだ。「Photoshop」で画像の修正がいともたやすくなったように、ディープフェイクのソフトウェアが登場して以来、そうした動画に容易にアクセスできるようになっただけでなく、フェイクだと見分けることが、ますます困難になっている。

 そして、自分の画像をインターネットに載せないよう細心の注意を払っていない限り、今日にでも自分がディープフェイクに登場してしまう可能性がある。

 「オンラインで自分の画像を公開するというのは、自分を人目にさらす行為だ。しかも、制限なく公開している。強制されたわけではなく、まして盗まれたわけでもない」。こう警鐘を発しているのは、ダートマス大学教授のHany Farid氏だ。同氏は、デジタルフォレンジックの専門家として、ディープフェイクのような行為の根絶を目指している。

 ディープフェイクは、顔認識の悪い一面が表れた使い方だ。本来の顔認識は、既に日常生活のなかで重要な機能を果たしつつある。「Googleフォト」で、特定の友人のスナップ写真を検索する技術もそのひとつだ。一方、空港やコンサート会場で、知らないうちに顔をスキャンされている可能性もある。

 通例の顔認識が、人の顔の特徴をコンピュータに分かる独自のコードに変換するのに対して、ディープフェイクのソフトウェアは、本物かどうか疑われもしないほど巧妙に、人のアイデンティティを合成しようとする。人の人生を台無しにするだけでなく、国家元首や有力な経営トップ、政治家候補者などに対する市民の認識すら操作できるという点で、悪夢のような事態をも引き起こしかねない技術だ。

 だからこそ、Farid氏のようなデジタルフォレンジックの専門家、さらには米国防総省の研究者までもが、ディープフェイクの検出方法を確立しようと急いで取り組んでいる。だが、米国防総省の国防高等研究計画局(DARPA)でメディアフォレンジックプログラムのマネージャーを務めるMatt Turek氏によると、よくできた今のディープフェイクは、検出するより作成するほうがずっと容易になっているという。

 ディープフェイクは、人の顔のさまざまな点がカメラ上でどう動くかをとらえ、動いたり話したりする人物を、いかにしてそれらしく作り上げるかを追求する技術だ。写真のようにリアルなデジタルパペットを思い浮かべるといい。人工知能(AI)によってその発達は加速しているが、動画を作るには、顔の画像を大量に供給しなければならない技術でもある。

 悪いことに、ディープフェイクが登場したときにはもう、ほぼあらゆる人の顔がソーシャルネットワーク上で共有されるようになってから10年以上が経過していた。もっとも、世間の目を避けたところで、ディープフェイクから逃れることにはならない。今日の世界では、ほとんど誰もが人目にさらされているからだ。

フェイススワップ(顔の入れ替え)
 ディープフェイクをめぐる興味深い次の問題は、どこまで悪質になったら掲示板サイトRedditやポルノサイトPornhubで禁止されるか、ということである。

 ディープフェイクは、形も規模も、食欲がなくなるような醜悪さの程度も多岐にわたる。大きく分けると3種類あるが、最も簡単でよく知られているのが、フェイススワップ(顔の入れ替え)だ。

 フェイススワップに分類されるディープフェイクは、無害な遊びにとどまっている場合もある。例えば、俳優Nicolas Cageの顔を、実際には出演しなかった映画やドラマのいろいろな場面に貼り付けて登場させている動画がネット上では有名だ。映画「インディ・ジョーンズ」シリーズのインディアナ・ジョーンズにすりかわったり、ドラマ「フレンズ」のメインキャラクターたちになったりしている。また、俳優Steve Buscemiの顔を女優のJennifer Lawrenceに乗せたツイートも、その異様さで話題になった。

 だが、何も知らない被害者の顔を生々しいポルノ動画に利用するといった、陰湿な使い方もある。悪質なフェイススワップでは、Scarlett JohanssonやGal Gadotなどの有名女優が被害に遭っている。だが、同様の被害を受けているのは有名人だけではない。このように被害者が意図せずに出演する形になっているフェイクポルノは、RedditでもPornhubでも禁止されている。

 ある人のディープフェイクを作るときに主なリソースとなるのが、数百枚分の顔の画像だ。ディープフェイクのソフトウェアは機械学習を利用するので、顔をそれらしくすげ替えるには、すげ替える顔のデータと、動画に出てくる元の顔のデータとがセットで必要になる。有名人や公人が狙われやすいのは、これも理由のひとつだ。フェイク画像を作る元となる写真や動画が、インターネットには大量に出回っている。

 ディープフェイクに出演してしまわないための最善の防衛策は、自分の画像が人の手に渡らないように、どこまで対策をとるつもりがあるのかによって異なってくる。そこには当然、インターネットから自分の情報を取り除くことまで含まれる(せいぜい、頑張ってみるといい)。

 画像を数百枚というと、集めるのは大変そうに聞こえるかもしれないが、1枚1枚の静止写真や自撮り写真である必要はない。動画から複数のフレームを取り出せば、十分な枚数になるのだ。「iPhone」で自分の動画を撮るたびに、毎秒30フレーム以上が記録されている。

 しかも、ディープフェイクのデータセットでは、量より質がものを言う。ぼけや障害物がなく、いろいろなアングルで表情も豊富な顔の画像が十分あるのが理想だ。アングルと表情が入れ替え先の動画とうまく一致していれば、必要な画像は少なくて済む。

 このように、必要なデータセットの特性を考えると、被害を受ける危険性を減らす方策のアドバイスも、奇妙な内容になってくる。例えば、厚化粧が良い自衛策になる。特に、がらっと変えるといい、といったアドバイスだ。

 顔の前に障害物が映ると、たとえ短時間であっても、ディープフェイク画像を作るのが特に難しくなる。だが、この弱点を利用する対策も、有効とは限らない。Farid氏は、ある政治家に、自衛できる対策のひとつとしてこんなジョークを口にしたことがある。「人に囲まれて話をするときは、ときどき顔の前で手を振ると自衛策になる」。同氏は政治家にその話を伝えたときの様子を語ってくれた。その後、このアイデアが役に立たないことはその政治家が証明してくれた。

懸念される未来
 フェイススワップに使うディープフェイクプログラムは、既にネット上に無料で出回っている。動機があって、少しの簡単な技術的ノウハウと、強力なコンピュータがあれば、誰でもわりと容易に使える技術だ。

 これ以外のディープフェイクは、さらに手が込んでいる。幸いなことに、その被害に遭う可能性は低いことになるが、伴う危険度は大きくなる。

 この手のディープフェイクを世に知らしめたのが、コメディアンであり映画監督でもあるJordan Peele氏だ。1年ほど前、Barack Obama元大統領になりすまし、「パペットマスター」(ものまね)と呼ばれるフェイクを演じてみせた。Peele氏はObama元大統領の声を演じたが、ディープフェイク動画では元大統領の口とあごの動きが合成され、音声とぴったり合っていた。

 ただし、この動画を作成するのに、実際にはかなりの熟練スキルが必要だった。Peele氏の台本は、Obama元大統領の頭の動きや身ぶりに、話し方が隅々まで一致するように作られていた。何より、音声がそっくりだったのは、Peele氏の絶妙なものまねがあってこそだった。

 だが、ディープビデオポートレートと呼ばれる、さらに高度な技術もある。それはディープフェイクの強化版のようなものだ。ディープフェイク動画の大半は顔の表情に限られるが、国際的な研究者チームが、3D頭部の位置や回転、視線の方向、瞬きなどを1人の人物から別の人物に置き換えてみせている。


 でき上がった動画を見ると、動きはモーションキャプチャのようにも見えるが、実際には動画撮影時に動きを記録する必要がない。ごく普通の2つの動画を使用して、この研究者グループのプログラムは動き、瞬き、視線の方向を別人の顔と同期しているのである。

 しかし、ディープフェイクの本当の脅威は、その技術がどこまで巧妙になるかということではない。一般ユーザーが、どのくらい容易にフェイクを真実と受け止めてしまうか、あるいは本物ではないと否定する虚偽の発言を信じてしまうかということだ。もはや何が真実か、誰も分からなくなるのだから。

 「こうした手口が存在することを、人々は知る必要がある。(中略)テクノロジがどんな段階にあるのか、何がフェイクになって、何がならないのか。いま一度、落ち着いて理解したほうがいい。人は一瞬で激昂し、荒れ狂うものだからだ。みんな、どうか立ち止まって考えてほしい」(Farid氏)


米「ディープフェイク」で公聴会開催

TBS 2019年6月14日
https://news.tbs.co.jp/newseye/tbs_newseye3699708.htm
AI=人工知能を使って巧妙なニセの動画を作る「ディープフェイク」と呼ばれる技術が、アメリカで議論を呼んでいます。

 「ちょっと想像してみてください。1人の男が、数十億人の秘密や暮らし、未来に関する個人データをコントロールできることを」

 これは、アメリカのアーティストらがAIを使って作り、先週、フェイスブック傘下のインスタグラムに投稿したニセの動画です。ザッカーバーグCEOが実際には言っていないことを、あたかも言っているかように加工されています。

 この動画が拡散され大きな話題となる中、13日、アメリカ下院の情報特別委員会は、AIを使って本物と見分けがつかないほど巧妙なニセの動画を作る「ディープフェイク」技術に関する公聴会を開催しました。出席した識者からは、「近い将来、ニセ動画を見分けるのはほぼ不可能になる」「来年の大統領選や株価に重大な影響を与える可能性がある」などと、懸念の声が相次いだということです。



posted by ichi3 at 11:23| 東京 ☔| Comment(0) | 日記 | このブログの読者になる | 更新情報をチェックする

2019年06月20日のつぶやき












posted by ichi3 at 00:01| 東京 ☀| Comment(0) | 日記 | このブログの読者になる | 更新情報をチェックする