2018年、英国の政治コンサルティング会社ケンブリッジ・アナリティカが少なくとも5000万人のフェイスブックユーザーの個人データを無断で収集し、それを使って米国や海外の選挙に影響を与えていたことを知って。世界が衝撃を受けた。

チャンネル4ニュースによる調査の結果、当時のCEOであるアレキサンダー・ニックス氏が自社の政治的クライアントを支援するために有権者を意図的に誤導することに何の問題もないと示唆する映像が撮影され、彼は次のように述べていた。

「恐ろしいことを言うようだが、必ずしも真実である必要はない。信じられてさえいればそれでいい」

このスキャンダルは、ソーシャルメディアとビッグデータの危険性、そして急速な技術変革の波にさらされた民主主義の脆弱性について、警鐘を鳴らすものであった。

人工知能

では、人工知能(AI)はこの状況にどのように絡んでくるのだろうか? AIもまた、選挙に影響を与え、世界中の民主主義の信頼性を脅かすことができるのだろうか?

ディーキン大学のトリッシュ・マクラスキー准教授など多くの人々によれば、その答えははっきりと「イエスだ」と言う。

マクラスキー氏は、OpenAIのChatGPTのような大規模言語モデルは「人間が書いたテキストと見分けがつかない内容を生成することができる」とコインテレグラフに語る。そして、これがディスインフォメーションキャンペーンやオンラインでのフェイクニュースの拡散に寄与する可能性があると同氏は言う。

マクラスキー氏は、AIが民主主義を脅かす可能性がある他の例として、AIがディープフェイクを生み出す能力を挙げる。これにより大統領候補などの公人のビデオが作り出され、市民の意見を操作することが可能になってしまう。

現時点では、ある動画がディープフェイクであるかどうかを見分けるのは一般的にはまだ比較的容易であるが、この技術は急速に進化しており、やがては現実と見分けがつかないようになるだろう。

例えば、以下に示すようなFTXの元CEOであるサム・バンクマン-フリード氏のディープフェイクビデオ(フィッシングサイトにリンクされている)は、口唇の動きが言葉と同期していないため、視聴者は何かがおかしいと感じるだろう。

AI起業家であり、『AIの再起動:信頼できる人工知能の構築』の共著者であるゲイリー・マーカス氏もマクラスキー氏の評価に同意し、近い将来におけるAIによる最も大きなリスクについて次のように話す。

「大量の、自動化された、説得力のあるディスインフォメーション(偽情報)が民主主義を圧倒する可能性だ」

ノエミ・ボントリッダー氏とイヴ・プーレ氏による2021年の論文「ディスインフォメーションにおける人工知能の役割」でも、AIシステムがディスインフォメーションに寄与する能力を強調し、それが2つの方法で行われるだろうと記している:

「まず、AIは悪意のある利害関係者によって、特に効果的な方法で大規模に個々人を操作するために使われるだろう。第二に、AIはそのようなコンテンツの拡散を直接増幅する」

リスクを軽減する方法

AIが世界中の民主主義と選挙を脅かす可能性があるわけだが、AIが民主主義に肯定的な役割を果たし、ディスインフォメーションと戦うことも可能であることにも言及するべきだろう。

例えば、マクラスキー氏は、AIが「ディスインフォメーションを検出し、それを警告し、ファクトチェックを容易にし、選挙の正当性を監視する」ためにも使用できるだけでなく、また民主的なプロセスに市民を教育し、関与させるためにも利用できると話す。

鍵は、AI技術が責任を持って開発・使用され、適切な規制と安全対策が講じられていることを確保することだ」とマクラスキー氏は付け加える。

AIがディスインフォメーションを生み出し、拡散する能力を軽減するのに役立つ規制の一例として、欧州連合(EU)のデジタルサービス法(DSA)が挙げられる。

DSAが完全に施行されると、ツイッターやフェイスブックのような大規模なオンラインプラットフォームは、ディスインフォメーションを最小限に抑えるための一連の義務を満たす必要があり、それに違反すれば年間売上の最大6%の罰金が科せられる。

DSAはまた、これらのオンラインプラットフォームに対する透明性要件を強化し、ユーザーに対してどのようにコンテンツを推奨するか(通常はAIアルゴリズムを使用して行う)や、どのようにコンテンツをモデレートするかを開示することを要求する。

前述のボントリッダー氏とプーレ氏は、企業がAIをコンテンツのモデレーションにますます使用していることを指摘し、これが「特に問題となるだろう」と書いている。なぜなら、AIは過度にモデレートし、言論の自由を侵害する可能性があるからだ。

DSAはEU内の事業にのみ適用されるため、AIを規制し、ディスインフォメーションと戦うためには、全世界的な現象として国際的な協力が必要であるとマクラスキー氏は指摘している。

マクラスキー氏は、これが「AIの倫理に関する国際的な合意、データプライバシーの基準、ディスインフォメーション活動を追跡し、対抗する共同努力を通じて実現することができるかもしれない」と提案している。

最終的には「AIがディスインフォメーションに寄与するリスクと戦うためには、多面的なアプローチが必要だろう」とマクラスキー氏は言う。同氏によれば、「政府の規制、テクノロジー企業の自主規制、国際協力、公共教育、技術的な解決策、メディアリテラシー、継続的な研究」といったアプローチが必要になるだろう。

翻訳・編集 コインテレグラフジャパン