東京科学大学 環境・社会理工学院 イノベーション科学系 教授
笹原 和俊
1976年福島県生まれ。理化学研究所BSI研究員、日本学術振興会特別研究員PD、名古屋大学大学院情報学研究科講師などを経て、2020年より東京工業大学(当時)環境・社会理工学院准教授。2024年4月より現職。フェイクニュースを、情報環境やアルゴリズム、人間の認知バイアスが相互作用して生じる創発的な社会現象として定量的に分析している。
researchmap生成AIの爆発的な普及により、私たちの情報環境は今、劇的な変容を遂げています。
誰でも手軽に高度なコンテンツを作成できるようになった一方で、深刻な社会問題として浮上しているのが「フェイクニュース」や「ディープフェイク」の氾濫です。AIが生み出す“偽”のテキストや画像、動画は、もはや本物との判別が困難なレベルに達しており、「真偽の壁」はかつてないほど曖昧なものになっています。
その影響はデジタル空間内に留まりません。ディープフェイクを用いた世論操作や、特定の意図を持った動員に利用されるなど、実社会をも揺るがす事態も生じています。
「インフォカリプス(情報の終焉)が現実のものになりつつある」――東京科学大学教授であり、計算社会科学者としてフェイクニュース・ディープフェイク問題の定量的な研究や、対処法のリサーチを進めている笹原和俊さんは警鐘を鳴らすとともに、「問題の本質は、『情報の真偽』ではない」と指摘します。
その言葉の真意とは? 私たちが直面している真の脅威とは何なのか? テクノロジーによる「フェイク」への防衛策は追いついているのか? それとも、ネット空間はもはや手遅れなのか。情報空間を守る戦いの最前線に立つ笹原さんに、お話を聞きました。
問題の本質は「情報の真偽」ではなく、人間の「悪意」
——昨今、インターネット上の「偽情報」や「ディープフェイク」が大きな社会問題となっています。私たちは、いかにしてこの深刻な事態に向き合っていくべきなのでしょうか。
笹原: まず強調しておきたいのは、ディープフェイクを始めとする情報環境に関する問題の本質は、「情報の真偽」そのものにはないということです。もちろん、目の前の情報が正しいか否かを判断することは重要です。
ですが「いかに正確に情報の真偽を見極めるか」にこだわり続ける限り、仮に対処法が生まれたとしても「それをさらにすり抜けようとする巧妙な偽物」とのいたちごっこが続くだけですし、根本的な解決にはならないのでは、と考えています。
最も根絶すべきは「偽の情報」ではなく、その背後にある「悪意」です。誰かを陥れようとしたり、特定の国を攻撃しようとしたりする悪意は、いかなる形であっても許されるものではありません。しかも厄介なことに、悪意に基づいた攻撃は、必ずしも偽の情報だけを使うとは限りません。事実に基づいた「正しい情報」を悪意を持って利用し、相手を攻撃する「マルインフォメーション」という手法も存在します。
とはいっても、偽情報やディープフェイクを放置するわけにもいきません。なので、それらを見抜くための研究も進めていますが、それはあくまでもより大きな問題の解決への第一歩に過ぎません。
——この問題が、これほどまでに深刻化した背景には何があるのでしょうか。
笹原: そもそもの契機はSNSが普及し、誰もが情報の発信者になれるようになったことです。ジャーナリズムのトレーニングを受けていない一般の方々が、真偽を確認せずに自由に情報を投稿できるようになったことが非常に大きいですね。
偽情報が「問題」として明確に表面化したのは、2016年のことです。米大統領選挙に関連するフェイクニュースが飛び交い、偽情報が世論や政治に大きな影響を与えるようになりました。その裏側では政治的な目的以外にもさまざまな思惑が働き、中には東欧の学生が広告収入を得る目的で大量のフェイクニュースを作成したという報道も見られました。
ただ、当時のニュースはあくまで人の手でつくられており、ディープフェイクにも専門知識が必要だったため、現在に比べれば量も少なく質も低かった。
ところが、2023年を境に状況は一変しました。きっかけは、ChatGPTをはじめとする生成AIが実用レベルになったこと。偽情報の作成コストが劇的に下がり、リアリティも飛躍的に向上したのです。そしてテキストだけではなく、偽の画像や映像といったディープフェイクも氾濫するようになりました。実際、2023年を境に、ディープフェイク関連のインシデントが急増しているんです。
この変化は、日本にも大きな影響を及ぼしています。
2017年以降のディープフェイク関連のインシデント数を示したグラフ。2023年を機にその数が急上昇している(Surfsharkの調査よりスクリーンショット)
——と、いうと?
笹原: これまで日本は、ある種の「言語の壁」に守られてきました。
従来の機械翻訳の精度は高くなく、英語で書かれたフェイクニュースに日本語翻訳をかけても、日本語話者からすれば違和感が残り「これはフェイクだ」と気づけた。
しかし、生成AIの急激な性能向上でほぼ完璧な翻訳ができるようになり、この「言語の壁」は消滅しました。今や日本独自の文化に配慮した、日本人に刺さるフェイクニュースも低コストで簡単につくれます。翻訳技術の進化は多大なメリットをもたらす一方で、悪意を持つ者にとっても強力な武器になっているのです。
——ChatGPTが本格普及した2023年以降、インターネット上の情報環境は深刻化したのですね。
笹原: はい。ただし、2023年以前から「インフォカリプス」、つまり「情報の終焉」が訪れるという危機感は、一部の専門家や研究者の間でささやかれていました。
――インフォカリプス?
笹原: 技術の発展により、何が真実で何が嘘かを見分けることが不可能になる状況を指す言葉です。
インフォカリプスの厄介な点は、ネット空間のすべてが嘘で埋め尽くされる必要はない、ということです。情報のエントロピー(無秩序さ)が最大化するのは、「すべてが嘘」の状態ではなく「半分が本当で、半分が嘘」の状態だからです。
「すべてが嘘」とわかっていれば、そこにある情報はすべて無視してしまえばいいだけの話ですが、「半分が本当で、半分が嘘」であれば、本当のことも混ざっているはずなのにそれが峻別できず、本当のことすらも信じられなくなってしまう。情報の信頼性が完全に失われ、「本当の情報」が伝わらなくなってしまうわけですね。
そして現在、このインフォカリプスは学者の空言ではなく、いよいよ深刻に考えなければいけない、現実的な脅威になりつつあります。
——このままいけば、インターネットという情報空間が「終焉」してしまうのでしょうか。
笹原: そういった事態も、真剣に考えなければいけないところまで来ていると思っています。すでにその兆候は、インターネット上での「情報取得のあり方」にも現れています。
——詳しく教えてください。
笹原: 最近では「ググる」のではなく、AIに知りたいことを尋ねる人が増えていますよね。
「ググる」という行為は、ある意味では健全な行為だったのです。検索ワードに関連するウェブページが一覧で表示される仕様は、ユーザーに複数のソースを見比べさせ、「このページは怪しい」「こっちは参考文献が明示されており、信頼できる」と情報の品質を判断する機会を提供してきました。
その過程では、検索の本来の目的ではなかった情報との偶然の出会いもあったはずで、認知の幅を拡大する上で非常に重要なプロセスでした。
しかし、AIに何かしらの問いを投げかけると、そういったプロセスを飛ばしていきなり「答え」に辿り着きます。これに満足してしまうと、能動的に情報を探しに行く行動自体が消失し、ユーザーは「知りたいこと」だけを知る状態になってしまう。
すると、AIがユーザーの好みに合わせた回答を生成しやすいことも相まってフィルターバブルは加速し、そのバブルの中で得た情報を今度はSNSなどで拡散することで、今度はエコーチェンバーが形成されてしまいます。そして自らが「信じたいもの」だけを「真実」だとみなし、その真偽を疑うことなく、さらに発信を重ねることになる。
このように、情報取得をAIに依存すると、「異質なものに触れる機会」が連鎖的に奪われる事態につながるわけですね。
情報空間はすでに汚染が進んでおり、何が嘘で何が本当か見分けるのが難しくなった結果、そうした「答えらしきもの」に飛びつき、「これが答えだ」と拡散してしまう心情は理解できなくもありません。
しかし、安易な発信を行う前に、そうした行動の繰り返しがさらに情報空間を汚染してしまうことも知るべきです。そして、そうした行動を取る人が増えているこの現状を、私たちは重く受け止める必要があるでしょう。
最大の壁は「テクノロジー」ではなく、人間の「怠惰」
——では情報空間の汚染を食い止めるために、現在どのような技術の開発や取り組みが進んでいるのでしょうか。
笹原: 日本でもここ数年でフェイクニュース関連の研究が進み、研究助成の数も額も増えています。
例えば、総務省がフェイクニュースの対策技術の研究・開発に助成金を拠出し、内閣府「K Program」という経済安全保障重要技術育成プログラムには、60億円の予算が投じられています。私も「K Program」に参加し、この偽情報の検出や影響度を測定する技術開発に参加しています。
すでに具体的な成果もあります。私の研究室や国立情報学研究所、大阪大学のグループが共同で進めるプロジェクト「CREST Fake Media」では、動画の真贋を識別する技術を開発中です。現時点で、本物の動画なら9割以上「本物である」ことを、ディープフェイク動画でも8割近くの精度で「偽物であること」を判定できるようになっています。
——それほど高い精度で検知できるのであれば、問題解決の見通しは明るいのではないでしょうか。
笹原: そうとも言い切れません。完全な解決を阻む壁は、いくつもあるのです。
——具体的には、どのような壁が?
笹原: さまざまな障壁があります。
研究を進めるなかで私が特に痛感した根本的な問題は、私たち人間は、想定しているよりもはるかに「レイジー」であるという現実です。
——人間の「怠惰さ」が、フェイクニュースやディープフェイク問題を解決する上でのボトルネックになっている?
笹原: 私はそう感じています。
どれだけ高い精度でフェイクを見抜けるツールを開発したとしても、それを使ってもらえなければ意味がありません。他方、これまでの研究の中で見えてきたのは——自戒も込めて言うと——人間はとても怠惰な生き物であり、ツールを用意してもなかなか使ってくれないということ。
つまり、「技術をいかに実現するか」以上に、「いかに使ってもらうか」が大きな課題になるわけです。これは先ほど触れた検知ツールと、架空のSNSを用いた実験を行った際に気づかされました。
実験のSNSでは「ユーザーがボタンを押すと、表示されている動画の真贋判定ツールを利用できる環境」「ツールがない環境」などを用意し、ユーザーの行動を観測しました。
「CREST Fake Media」が開発したツールの画面。ユーザーがツールを使用し、動画が改ざんされていることを検知すると、このような画面が表示される(画像提供:笹原和俊さん)
笹原: すると確かに「ツールを使ったユーザーは、本物のビデオをシェアする確率が向上する」ことがわかりました。「AIも『この動画は本物である可能性が高い』と言っているから」と自信を持ってシェアする人が増えるわけですね。
ところが、ツールが存在する環境全体の結果を調べると、ディープフェイク拡散の抑制効果は、条件間の比較では顕著な効果はみられませんでした。ツールを使ったユーザーに限ると、抑制効果が統計的有意なレベルでみられるにもかかわらず、です。
なぜこのような違いが出たのかというと、「ツールがあっても、使わない人」がいるからです。フェイクか見抜ける道具があっても、そのボタンを押すワンステップを面倒だと感じる人が少なからず存在したのです。
——精度が高いツールがあっても、多くの人が「怠惰さ」からそのツールを使用しなかった。
笹原: そういうことになります。ツールを使わない人が一定数存在する以上、「ツールの存在が情報環境の正常化に必ず寄与する」とは言い切れないわけですね。
ツールを多くの人が「使用してくれれば」、本物の動画がシェアされやすく、ディープフェイク動画はシェアされにくくなる、といえるわけですが、問題は「使用してくれれば」という点にあります。
「現在のAIにも間違いはあるが、無いよりはマシだ」と認識してもらい、いかに多くのユーザにツールを使ってもらうか。「ツールの精度」以上に、その先の「人間に使わせるハードル」の方が大きな課題なのです。
しかし、それが非常に難しい。
——ツールを「使わせる」、つまりSNS上で強制的にツールを作動させるような方法はないのでしょうか。
笹原: その場合、別の副作用が生じます。
たとえばすべての動画を自動的に分析して、疑わしいものには「この動画はディープフェイクの可能性がある」といったラベルを貼るとしましょう。しかし、この方法は「ラベルが付いていないものはすべて本物の動画である」とユーザーに誤認させてしまうリスクを生みます。
——難しいですね。技術面以外にも、いろいろな障壁があることがわかってきました。
笹原: はい。このように真贋判定ツールを社会実装するだけでも、一筋縄ではいきません。
またこのツールに限らず、偽情報対策をめぐる研究や取り組みを広く見ても、課題は依然山積みです。
例えば、人材面の問題。現在、情報環境を「守る」側のプレイヤーが圧倒的に不足しています。AI関連技術を専門とする研究者自体は近年大きく増えましたが、やはり「AIを使って新しいもの、クリエイティブなものをつくる」方が面白いと捉えられがちなのです。
つまり、若い才能は画像、動画生成といった「つくる」側の研究分野にどんどん流れていきます。一方で、それらが生み出したものの真贋を「見抜く」側には、なかなか人が集まらないのが現実です。
――防御する側の研究者が不足しているのですね。
笹原: はい。さらには、経済合理性に関する問題もあります。
特に近ごろ、この分野の研究にとって致命的な変化が起こりました。「データが取れなくなった」ことです。AIの学習や、フェイクニュースがいかに拡散するかなどのトレースには膨大なデータが必要不可欠ですが、一部の主要プラットフォームがデータを外部に供出しなくなってしまったんです。
象徴的なのは、Xの変化です。かつて、Twitter時代には「Academic Research API」という研究者向けのAPIがありました。もちろん上限はあったものの、申請さえ通ればどれだけでも遡ってTwiter上のデータを取得することができました。
しかし経営体制が変わったことでこのAPIは廃止され、現在は高額な有料プランを利用しなければいけません。研究に資するビッグデータを得るには、月間で数百万円単位のコストをかけつづける必要があるのです。
キャッシュリッチな企業などであれば、それも可能かもしれませんが、私たちのような研究室にそんな資金はありません。またFacebookは規約の厳格化などを理由に、学術目的でのデータ取得が極めて困難になっていますし、TikTokの研究用データも、日本においては基本的に利用できません。
これはプラットフォーマー側からすると「データを無償提供したところで、大きな利益やメリットにつながらない」との判断もあるからでは、と考えています。
――ビジネスである以上、利益に直結しないことに消極的になるのは、理解はできます。
笹原: だからこそ、プラットフォーマー側が自発的に真贋判定ツールなどを導入することも、すぐには期待できないと思うのです。
仮に、先ほどお話ししたような検知ツールをシステム全体に組み込んだとしましょう。しかし、一部のユーザーはその確認作業を煩わしく感じ、結果としてアプリの滞在時間が短くなってしまう可能性があります。
そして滞在時間の減少は、彼らの最大の収益源である「広告に触れる機会」を直接的に毀損してしまいます。プラットフォーマー自らが、そのようにしてビジネスのブレーキとなるような対策を積極的に進めるとは、構造的に考えにくい。
突き詰めていうと、この状況は「環境問題」に似ています。インフォカリプスが最終的に人類全体にとって深刻な問題になる予感がしていても、目の前の経済合理性を損なってまで本気で対策に乗り出すインセンティブが働かないわけです。
できれば「遅く、『訂正可能』なインターネット」にしたいけれど
——単にフェイクを検出するツールをつくるだけでは、解決せず、研究者は少なく、プラットフォームの動きも期待しづらい。では、フェイクが拡散し続ける「悪いサイクル」を止めるために、他にどのようなアプローチが必要でしょうか。
笹原: まず、繰り返しになりますが、「真か偽か」だけに囚われていてはいけません。本質的な課題は「いかに分断を煽る悪意を根絶するか」です。
——悪意を持つ者が、必ずしも「偽の情報」だけを使うとは限らないからですね。正しい情報を悪用して分断を煽るケースもあると。
笹原: はい。加えて言えば、「間違った情報は、なんでも根絶すべきだ」とする考え方にも、賛同できないからです。
世の中には、悪意のない「正しい間違い」も存在します。 例えば、科学の世界は「正しい間違い」の積み重ねによってできているといえます。実験を繰り返して新しい法則や原理を発見しても、それが後に「間違っていた」と判明することは少なくありません。かといって、それを「フェイク」と呼んで研究者を学術界から追放してしまえば、科学そのものが成立しなくなってしまいます。
――真偽に固執するあまり、悪意のない間違いすら許されない「不寛容な空間」になってしまうのは、本末転倒だということですね。
笹原: だからこそ、目下重要なのは「悪意のない『間違い』を許容できる情報環境と、その仕組みづくり」だと考えています。
「間違えた」としても、それが生じた理由を究明して訂正し、コミュニティに説明する。周囲も、それを受け入れる。そうしたレジリエンスの高いコミュニティをつくることの方が、「すべての『間違い』を根絶すること」よりも本質的ではないでしょうか。
もちろんネット上の情報空間、ひいては実社会のレジリエンスを高めるのは一筋縄ではいきませんが、これこそが、「フェイクニュース・ディープフェイク問題」を解決するための第一歩だと私は考えます。
その実現は、私ひとりの力では到底無理ですし、さまざまな組織や専門家の力が必要です。しかし、現状はまだ「何が問題か」の共通認識すら持てていません。まずはその目線を合わせるところから始めなければなりません。
——真偽判定に必死になりすぎては、別の問題が起きてしまう。そこで間違いを訂正できる「レジリエンス」こそが、情報空間を守る鍵になるのですね。とはいえ、他にも問題は尽きないかと思います。笹原さん自身は現在、どのような研究を進めているのでしょうか。
笹原: 先ほどお話ししたように「プラットフォームからデータが取れない」ことが大きな壁なので、まずは「自分たちでデータをつくる」ことから始めています。
AIに多様な属性を持つ人になりきってもらい、コンピュータ上に仮想社会をつくり、そこにAIなどで生成したフェイクニュースを流通させ、どう拡散するのかをシミュレーションをして分析するんです。そして、プラットフォームにどんな介入をすれば偽情報の拡散スピードが落ちるかを検証し、実社会に応用できる方法を模索しています。
その中で感じているのは、今後「生成社会科学(ジェネレーティブ・ソーシャルサイエンス」という分野が本格的に立ち上がるのではないかということです。この言葉は以前からありましたが、かつてはルールベースの単純なシミュレーションに留まり、現実社会と乖離していたため、大きなブレイクスルーは生まれませんでした。
しかし、生成AIの性能向上により、事細かにペルソナを設定して「特定の属性を持った人らしい振る舞い」を再現できるようになりました。つまり、コンピュータ上でよりリアルな社会を構築できるようになったのです。私たちもこの「生成された社会」を用いたアプローチで、フェイクニュースへの対処法を研究しています。
——最後に、私たちが日常的にインターネットと接する上で心がけるべきことがあれば、教えてください。
笹原: 単純ですが、「立ち止まって考えること」が必要なのではないでしょうか。
とてもクイックに情報にアクセスできるようになったせいで、私たちの思考は直感的かつ反射的になりがちで、アテンションエコノミーの格好の餌食になっています。それがしばしば、偽情報の拡散につながってしまう。まずはその自覚を持ち、「ゆっくりと考える」ことが必要だと感じます。
現実性を度外視して極論をいえば、インターネットは「もっと不便に、スローになった方がいいのでは」と私は考えているんですよ。実際、SNSに適度なブレーキを組み込むことで、ユーザーの反射的な拡散が減り、結果的にプラットフォームを巡る情報の質が改善される、との研究報告もあります。
例えば、ユーザーがシェアされたニュースを拡散しようとすると、「プラットフォームの利用規約」に関するクイズを出題する。すると、一呼吸置いたことで冷静になり、さらにプラットフォームに関する知識も学習され、拡散される情報の質が上がる――このような研究もあるのです。
この研究のチームは「毎回表示すると煩わしいので、10回に1回程度の割合でクイズを出してはどうか」との提案もしています。仕組みを実装してくれるプラットフォーマーも探しているようですが、残念ながらまだ見つかっていません。
結局のところ、嘘や間違いの根絶は容易ではありません。人は間違えますし、私を含めレイジーな面があり、信じたい情報ばかりを信じてしまいがち。それでも、「間違いを許容し、訂正できる情報空間」はきっと不可能じゃないはず。まだまだ工夫の余地はありますし、諦めることなく研究を続けていきたいと思っています。
取材・執筆:鷲尾 諒太郎
編集:田村 今人
撮影:赤松 洋太


