ICTコラム

偽・誤情報が拡散し、騙される人が多い理由

記事ID:D40070

現代社会では、インターネットやソーシャルメディアの普及により、流通する情報が爆発的に増えました。同時に、偽・誤情報の拡散や誹謗中傷といったトラブルが深刻な社会問題となっています。本連載(全3回)の第1回は、問題の背景にある人間の特性とソーシャルメディアの仕組みについて解説します。こういった知識はネットを利用する上で必要不可欠ですが、ほとんど知られておらず、それが問題を悪化させる原因ともなっています。

偽・誤情報とは何か、その影響は

 一般的には「フェイクニュース」とも呼ばれますが、ファクトチェックの世界では、意図と正確性の二つの観点から、意図的ではないが間違っている情報を「誤情報」、意図的に間違っている情報を「偽情報」と定義しています。
 日本ファクトチェックセンター(JFC)と国際大学グローバル・コミュニケーション・センター(GLOCOM)が2024年に実施した調査によると、日本で実際に拡散した偽・誤情報15本を見た人のうち、それが間違いであると気づけたのは平均で14.5%にとどまり、51.5%は「正しい」と答えました。
 世の中には大量の偽・誤情報が氾濫していますが、約半数の人がその情報を「正しい」と受け止め、自分が偽・誤情報を見ているということにさえ気がつきません。なぜ、人は簡単に騙され、しかも、こういった情報が拡散するのかを見ていきます。

なぜ、誤った情報を「正しい」と思ってしまうのか

 すべての人間には「バイアス」があります。直訳で「偏り」「先入観」、辞書的には「自分自身の経験などに基づいて無意識のうちに非合理的な考えをしてしまうこと」を指します。「バイアス」にはさまざまな種類があり、情報を客観的に見ることを難しくします。
 例えば、「確証バイアス」。「自分の考えに近ければ正しい、そうでなければ誤っている」と考えがちで、無意識に自分の考えに近い情報を求める傾向を指します。情報の質ではなく、自分の考えを支えてくれるかどうかが評価基準になってしまうのです。また、「単純接触効果」というものもあります。これは繰り返し接触することで、徐々にその情報に対して好意的になっていくというものです。
 すべての情報を客観的に分析するのは大変です。これまでの経験に基づいて自動的にものごとを判断することは、人類にとって便利な機能とも言えます。しかし、このようなバイアスの存在を知らなければ、偏りは徐々に強化される恐れがあります。
 しかも、インターネットやソーシャルメディアはその偏りを加速させる危険性もあります。

その情報はどうやってあなたのもとに届いたのか

 YouTubeは今やすべての世代の人たちに人気のソーシャルメディアです。個人の日常や趣味、ニュースやフィクション、あらゆる動画が世界中から集まり、アップロードされる量は1分間で500時間分を超えています。
 テレビで地上波のチャンネルを選ぶなら、NHKと民放数局の中から見たいものを探すだけです。しかし、YouTubeにはこれまでにアップされた莫大な数の動画が存在します。その中で自分が見たい動画を毎回自分で選ぶのは大変です。
 実際にはYouTubeをネットやアプリで開けば、自分が見たくなる動画がずらりと並びます。これはYouTubeがユーザーのこれまでの視聴履歴や登録しているアカウントなどの情報から「このユーザーはこの動画を見たいだろう」と予測して自動的に選んでくれるわけです。
 このようにデータや法則に従って動画を選ぶメカニズムを「アルゴリズム」といいます。情報が氾濫する時代には不可欠で便利な仕組みですが、副作用もあります。自動的に運ばれてくるおすすめ動画ばかりを見てしまうことです。
 あなたが政党Aに関心を持って、政党Aに好意的な動画を見たとします。アルゴリズムはあなたが政党Aに好意的な動画に関心があると判断し、そうした動画を集中的にあなたにおすすめするようになります。その結果、政党Aに批判的な動画や政党Bに好意的な動画を見る機会は減ります。
 これが「フィルターバブル」(図1参照)です。アルゴリズムというフィルター(膜)でできたバブル(泡)の中に入っているあなたは、フィルターを通ってきた動画ばかりを見ることになります。さらにYouTubeなどのソーシャルメディアには「フォロー」や「チャンネル登録」という機能があります。政党Aのチャンネルに好意的な動画をたくさん見たあなたは、もっと見たいと思って、政党Aや政党Aに好意的なユーチューバーのチャンネルを登録するようになるでしょう。

  • 【図1:フィルターバブルの仕組み】
    出典:日本ファクトチェックセンターの図より作成

  • 【図2:エコーチェンバーの状態】
    出典:日本ファクトチェックセンターの図より作成

 さらにYouTubeなどのソーシャルメディアには「フォロー」や「チャンネル登録」という機能があります。政党Aのチャンネルに好意的な動画をたくさん見たあなたは、もっと見たいと思って、政党Aや政党Aに好意的なユーチューバーのチャンネルを登録するようになるでしょう。
 結果として、同じような考え方を持ったユーザーがそこに集まり、コメント欄も含めて「政党Aは素晴らしい」という意見ばかりを目にするようになります。これは、小さな部屋の中で同じような声がこだまする空間にいるようなもので、このような状態を「エコーチェンバー(反響室)」(図2参照)と呼びます。

偽・誤情報に騙されず、分極化を防ぐために

 フィルターバブルとエコーチェンバーは確証バイアスと相性が良く、「政党Aに関心を持った私の考えは正しかった。この素晴らしさに気づいている仲間たちもこんなにいる」と自らの偏りを強化していきます。別のユーザーは政党Bに対して同じような状況になり、政党Aと政党Bの支持者の間の分断も強化されていくことになります。
 こういう状況を「政治的分極化」と呼びます。人それぞれ、意見や支持政党が異なるのは自然ですが、その違いが強化され、違いが分断や対立や争いへと深まっていくことに問題があります。また、そういった意見の違いを生んでいった情報の中に、大量の偽・誤情報が紛れ込んでおり、しかも、人はそれを間違っていると気づかないことのほうが圧倒的に多いのが現実です。
 偽・誤情報に騙されず、社会の分極化を防ぐために、個人や組織で取り組める対策があります。それは、次回以降に解説します。

※ ファクトチェック
情報が事実に基づいているかどうかをリサーチする作業のこと。

古田(ふるた) 大輔(だいすけ)

早稲田大学政治経済学部卒。朝日新聞記者、BuzzFeed Japan創刊編集長を経て独立し、ジャーナリストとして活動するとともに報道のDXをサポート。2020-2022年にGoogle News Labティーチングフェローとして延べ2万人超の記者や学生らにデジタル報道セミナーを実施。2022年9月に日本ファクトチェックセンター編集長に就任。そのほかの主な役職として、デジタル・ジャーナリスト育成機構事務局長など。早稲田大、慶應大、近畿大で非常勤講師。ニューヨーク市立大学院ジャーナリズムスクール News Innovation and Leadership 2021修了。

PDF版はこちら

入会のご案内

電話応対教育とICT活用推進による、
社内の人材育成や生産性の向上に貢献致します。

ご入会のお申込みはこちら