情報工作はどの国が一番多いのか? ― ロシア・米国・中国を比較し、日本が本当に警戒すべきこと

情報工作はどの国が一番多いのか?

― ロシア・米国・中国、そして日本が警戒すべきこと ―

日経新聞が「衆院選、中国系400アカウントが『反高市工作』 日本語発信やAI活用で巧妙に」という記事 を出した。

私はこの記事に強い違和感を覚えた。

違和感の理由は単純だ。
それが本当に「情報工作」なのかどうか、そしてその位置づけが国際的な文脈でどこにあるのか、ほとんど比較されていないからだ。

外国による情報工作は現実に存在する。
ロシアの選挙介入は実証されているし、米国発の陰謀論は国境を越えて拡散してきた。
中国もまた、対外ナラティブ形成を行っている。

問題は、どの国がどの規模で、どの構造で影響を与えているのかである。

400アカウントという数字は、X全体の母数から見てどの程度の規模なのか。
ロシアの事例と比べてどうなのか。
英語圏発の陰謀論拡散と比較すると、どう位置づけられるのか。

そしてもう一つ。
情報工作を報じるとき、私たちは本当に「行為」を基準にしているのか。
それとも「誰を批判しているか」を基準にしていないか。

この疑問を感情論ではなく、国際的な統計と構造比較で整理してみたい。


1. なぜ「中国工作」だけが強調されるのか

日経の記事は、投稿パターンの類似性、アカウント開設時期の集中、日本語への急激な切り替え、 中国語特有の表現痕跡などを根拠に「中国系アカウント」と推定している。

データ分析として一定の説得力はある。

しかし、ここで立ち止まるべき問いがある。

なぜこの事例は「反高市工作」という見出しで大きく扱われたのか。

記事によれば、対象は約400アカウント。 投稿は衆院選直前に集中し、「旧統一教会」と高市氏を結びつける内容が拡散されたとされる。

だが、規模の問題はどうだろうか。

X全体の日本語アクティブアカウント数と比較すれば、400という数字は極めて限定的である。 日経自身も、選挙全体への影響は「限定的」と記している。

それでも見出しでは、 「中国系400アカウント」「反高市工作」 という構図が前面に出る。

ここに、もう一つの問題が浮かぶ。

情報工作の定義は「協調的不自然行動」なのか。 それとも「国家が直接関与した政治的操作」なのか。

日経記事は前者の観測を提示している。 だが見出しは後者を強く連想させる。

もし「協調的不自然行動」であれば、 対象は国籍ではなく行為であるべきだ。

しかし見出しが「中国」という属性を強調した瞬間、 議論は行為分析から国家ラベリングへと移動する。

問題は中国かどうかではない。

どの基準で“工作”と呼ぶのかが一貫しているかである。

基準が立場や対象によって変わるなら、 それは情報分析ではなく、ナラティブ形成になる。


2. ロシア:国家主導の分断型情報戦

ロシア型の特徴は、国家戦略としての「分断最大化」にある。

特定の候補を直接勝利させることよりも、 社会内部の不信と対立を拡大させ、 制度への信頼を揺るがすことが主眼とされてきた。

2016年米大統領選をめぐる調査では、 ロシアの「インターネット・リサーチ・エージェンシー(IRA)」が 大規模な偽アカウント運用を行っていたことが、 モラー特別検察官報告および米上院情報特別委員会報告で確認されている。

Facebookは2017年の議会証言で、 IRA関連コンテンツが約1億2600万人の米国ユーザーに 到達した可能性があると説明した。

Twitterは約3,800のIRA関連アカウントを特定し、 それらの投稿が累計で1,000万件を超えたと公表している。

これは数百規模ではなく、 数千アカウント規模・数千万〜1億超リーチ規模 で展開された情報戦だった。


その手法は単純な「親トランプ」一色ではなかった。

  • 人種問題を煽るアカウント
  • 警察擁護を強調するページ
  • 移民排斥を主張する投稿
  • 逆に移民擁護を過激に煽る投稿

左右両極端を同時に刺激し、 社会を分断状態に置く構造が確認されている。

さらに2016年以降、QAnonなどの陰謀論が急速に拡散した。

「ディープステート」 「選挙不正」 といった物語は、 2021年1月6日の連邦議会議事堂襲撃事件にも影響を与えたと広く分析されている。

QAnon自体は主に米国内発だが、 ロシア関連アカウントがこれらのコンテンツを 増幅していたことも複数の研究で指摘されている。


ロシアの介入が選挙結果を直接決定づけたかどうかは、 公式には断定されていない。

しかし、 分断の拡大と制度不信の増幅が、 結果としてトランプ候補に有利な情報環境を形成したとする分析は多い。

重要なのは、 ロシア型は「勝たせる」より「壊す」戦略である という点だ。

この規模と影響力を踏まえたとき、 数百アカウント規模の活動を どのように位置づけるべきかという問いが生まれる。


3. 米国:国家より〈自己増幅型情報構造〉

■ 定義:自己増幅型情報構造

国家が一枚岩で外部に仕掛ける形ではなく、 アルゴリズム、商業モデル、分極政治が相互に作用し、 分断や陰謀論が自律的に拡散していく仕組み。

米国はロシアや中国とは構造が異なる。

近年問題になっているのは、 国家が一枚岩で外部に仕掛ける工作というより、 国内で生成された過激化や陰謀論が、 プラットフォームを通じて自己増殖し、 国際拡散していく現象である。

象徴的なのがQAnonだ。

「ディープステート」 「大規模選挙不正」 「エリートによる陰謀」 といった物語は、 アルゴリズムを通じて急速に拡散し、 2021年1月6日の連邦議会議事堂襲撃事件にも影響を与えたと広く分析されている。


この現象の特徴は、 国家主導というよりも 市場・分極政治・SNS設計が結合した構造 にある。

  • アルゴリズム最適化された“怒り”コンテンツ
  • クリックや広告収益を生む煽動型メディア
  • 寄付・サブスクモデルによる過激言説の収益化
  • 分極政治と相互強化する陰謀論
  • 排外主義・スケープゴートの拡大

怒りや恐怖は拡散されやすい。

研究では、 感情を強く刺激する投稿は 中立的な投稿よりも拡散速度が速く、 リツイートや共有が増えやすい傾向が示されている。


2016年のケンブリッジ・アナリティカ問題は、 データ解析とターゲティング広告が 政治メッセージの精密配信に使われ得ることを示した。

2020年大統領選では、 「選挙不正」ナラティブが 主に国内政治アクターから拡散され、 それが国際的にも広がった。

ここで重要なのは、 ロシア型のような“外部からの破壊”とは違い、 米国型は内部構造そのものが増幅装置になる という点である。

つまり、 国家が仕掛けなくても、 アルゴリズムと商業モデルが 分断を自己増殖させる環境が成立している。


この構造は国境を越える。

英語圏発の陰謀論や過激言説は、 翻訳され、日本語圏にも流入する。

それは必ずしも国家工作ではない。 だが、 結果として他国の政治空間にも影響を及ぼす。

この意味で、 米国型は「国家」よりも 自己増幅型情報構造 に近い。


4. 中国:ナラティブ形成型

中国の情報活動は、ロシア型の「分断最大化」とは性格が異なる。

より特徴的なのは、テーマを集中させ、 「望ましい物語(ナラティブ)」を形成し、長期的に定着させようとする点である。

ただしここで重要なのは、 中国の場合「国家主導」と言っても、単一の指揮系統で一律に動く形とは限らない、ということだ。


国際的な研究や各国の報告で指摘されている中国型の特徴は、 国家・準国家・民間が層状に重なりやすい点にある。

  • 公然型:外交当局や国営メディアなど、公式アカウントによる発信
  • 準公式型:政府に近い組織・関連団体・インフルエンサー的運用による論調の補強
  • 委託・外注型:PR会社やデジタルマーケ企業などを介した拡散(指揮の透明性が下がる)
  • 群衆動員型:いわゆる「五毛党」的に、個人を動員して空気を作る(真偽・自発性が混在)

このため「国家が直接命令した」と断定できるケースもあれば、 国家に近い方向性を周辺が忖度・増幅しているケースもある。

ロシア型のように左右両極を同時に煽って社会を壊すというより、 中国型は一つの立場・一つのフレームを強く通す方向に向かいやすい。


テーマは比較的集中することが多い。

  • 対中イメージの改善(経済協力・平和的発展など)
  • 台湾問題に関する正統性主張
  • 香港・新疆など人権批判への反論
  • 南シナ海をめぐる主権正当化

ここで使われる技法は、 短期的な炎上で爆発させるより、 同一テーマを反復し、認識を固定する方向に近い。

そのため、国際比較の文脈では、 中国型は「爆発的拡散」よりも、 特定認識の補強・論点の誘導・批判の相殺に向かいやすいと整理できる。


また近年は多言語発信の比重が増している。

英語だけでなく日本語・スペイン語などでも発信し、 翻訳を介して同一メッセージを展開する。

今回の日経記事も、 日本語投稿の急増や、中国語特有の表現痕跡などを手がかりに 「中国系アカウント」と推定している。

ただし重要なのはここだ。

「中国語の痕跡がある」ことと、「国家が指揮した」ことは同義ではない。

中国語話者の個人アカウント、海外在住者、政治的立場を持つコミュニティ、 外注型の運用、準公式的運用―― 中国由来の発信には複数の層があり、 どの層なのかで意味が変わる。

だからこそ、議論の焦点は 「中国かどうか」ではなく、 どの行為が、どの程度の協調性・組織性を持ち、どんな目的で動いたのか に置くべきだ。


整理すると、

  • ロシア型=分断最大化(破壊型)
  • 米国型=内部エコシステム増幅(市場+分極+SNS設計)
  • 中国型=国家関与が混在し得るナラティブ形成(構築型)

この三類型を踏まえたとき、 数百規模のアカウント活動を どこに位置づけるべきか。

次章では、その規模と影響を比較し、 「400アカウント」を国際文脈の中で整理する。


5. 400アカウントは国際的にどの位置か

ここまで、 ロシア型・米国型・中国型という三つのモデルを見てきた。

では、日経記事が指摘する 約400アカウントは、 国際的な情報戦の文脈でどの位置にあるのか。


2016年米大統領選では、 ロシア関連として特定されたアカウントは 約3,800(Twitter公表)。

Facebookでは、 関連コンテンツが最大で約1億2600万人に到達した可能性があると証言されている。

これは、 数千アカウント規模・数千万〜1億規模リーチ の事例だった。

一方、EUの対外行動局(EEAS)が追跡してきた ロシア関連キャンペーンでも、 複数言語・複数年にわたる持続的拡散が確認されている。


それと比較すると、 400という数字は、 規模としては限定的である。

日経記事自身も、 選挙全体への影響は「限定的」と記している。

もちろん、 規模が小さいから無視してよい、 という話ではない。

しかし、 国際的な介入事例と同列に扱うには、 桁の違いが存在する。


さらに重要なのは、 アカウント数と影響力は必ずしも比例しないという点だ。

ロシア型では、 組織的連動・広告出稿・アルゴリズム活用によって 拡散が指数関数的に増幅された。

今回の400アカウントについては、 そうした広告連動や大規模ネットワーク運用の 証拠は記事中では明確に示されていない。

仮に協調的な投稿があったとしても、 それが国家戦略レベルの大規模介入なのか、 限定的な影響活動なのかは、 慎重に区別する必要がある。


国際比較で見れば、

  • 数千〜数万規模の持続的運用(ロシア型)
  • 国内構造が増幅装置となるエコシステム型(米国型)
  • 国家関与が混在するテーマ集中型(中国型)

これらと比べたとき、 400アカウントは 大規模分断戦の水準とは性格が異なる可能性が高い。

問題は、 規模そのものよりも、 それをどう位置づけ、どう語るかである。

小規模事例を過度に国家的脅威として描けば、 議論は冷静さを失う。

逆に、 小さいからといって軽視すれば、 検証の目を緩めることになる。

必要なのは、 恐怖でも否認でもなく、 比較に基づく評価である。

本稿の比較は、外国による影響の存在を否定するものではない。
問題は、その規模と構造をどの文脈で評価するかである。
本稿は、それを国際比較の中で位置づけようとする試みである。


6. 日本国内発の構造

外部だけを見ていると、肝心なものを見落とす。

分断や過激化は、必ずしも外から持ち込まれるとは限らない。

日本国内にも、情報を増幅する構造は存在する。


たとえば、

  • 選挙期間中に特定ワードが急増する現象
  • 匿名まとめサイトとSNSの相互連動拡散
  • 同一論点の同時多発的投稿
  • 極端ナラティブ(排外主義・陰謀論・敵認定)の量産

これらは必ずしも国家工作とは限らない。

しかし、 アルゴリズム構造や広告モデルと結びつくことで、 急速に可視化・拡散される。


さらに、政府や政党による広報・広告費の拡大も、 情報空間に影響を与える構造的要因の一つである。

近年、デジタル広告や広報予算は増加傾向にあり、 政策メッセージや政権側の主張が プラットフォーム上で大量配信される環境が整っている。

これは違法でも不正でもない。

しかし、 資金力を持つ主体が露出を拡大できる構造そのものは、 世論形成の力学に確実に影響を与える。

外部からの数百規模の活動を議論する際、 同時に国内の資金力・広告力・拡散構造も 視野に入れなければ、 全体像は見えてこない。


特に注意すべきは、 「誰かが操っている」という物語そのものが、 分断を単純化する装置になり得るという点である。

複雑な社会現象を、 単一の外部勢力に還元することで、 議論は理解しやすくなる。

だが同時に、 国内要因の検証は後景に退く。


情報空間は、

  • 外部ナラティブ
  • 国内政治対立
  • 商業的煽動構造
  • アルゴリズム最適化
  • 資金力による露出差

が重なり合って形成される。

外部からの働きかけがあったとしても、 それが拡散・定着するかどうかは、 国内構造に依存する。

影響を決定するのは「外からの量」だけではない。

社会の分極度、 制度への信頼水準、 メディアリテラシー、 そして政治的言説の質である。


外部要因を強調するあまり、 国内構造の問題から目を逸らすことは、 長期的にはより大きなリスクになる。

必要なのは、 外部脅威の有無をめぐる感情的応酬ではなく、 増幅構造そのものをどう設計し直すか という議論である。


7. 日本がこうした記事を出すときに警戒すべきこと

情報工作を扱う報道は、社会にとって重要である。 透明化と検証は民主主義の前提だからだ。

しかし同時に、その報道の仕方そのものが、 新たなナラティブ形成に利用される可能性もある。

外部脅威の存在を伝えることと、 外部脅威を単純化することは別である。 日本でこのテーマを語る際、特に警戒すべき点は三つある。


① 単一国家“悪玉化”の罠

「全部中国」「全部ロシア」といった単純化は、 理解しやすいが危険である。

現実の情報空間は、 国家主導型、商業煽動型、市場アルゴリズム型、 国内政治対立型など、 複数の要因が重なり合って形成されている。

それを単一国家に還元すると、 複雑な因果関係が見えなくなり、 別の“物語”を再生産することになる。

特定の国を固定的な「敵」として描く構図は、 短期的には分かりやすい。 だが長期的には、分析の精度を下げ、 政策判断を感情に寄せる危険がある。


② 批判=外国勢力化の危険

国内批判や異論を、 安易に「外部工作」とラベリングする傾向は、 言論空間を萎縮させる。

民主主義において、 批判は制度の自己修正機能である。

もし、政権批判や政策反対の声が 国籍や発信元を理由に “敵”とみなされるなら、 健全な言論まで疑われる社会になる。

外国発信であること自体は、 工作の証拠ではない。

重要なのは、 虚偽性、組織性、偽装性、協調拡散といった 具体的な行為の有無である。

基準が「立場」によって変わるなら、 それは検証ではなく、選別になる。


③ 脅威の誇張が、国内統制強化に使われる

外部脅威の強調は、 時に国内統制を正当化する材料になる。

  • 表現規制の拡大
  • 監視権限の強化
  • 異論への過剰な介入

もちろん安全保障は必要である。 だが、 「外敵」の物語は政治的に強力だ。

恐怖は合意形成を早める。 しかし同時に、 慎重な議論を省略させる。

歴史的に見ても、 外部脅威の物語は、 社会を団結させると同時に、 多様性を縮減させる作用を持つ。

だからこそ、 脅威の有無を検証することと、 自由を守ることは両立させなければならない。


外部からの働きかけがあったとしても、 それがどの程度の規模で、 どの程度の影響を持ったのかを冷静に測る必要がある。

そして同時に、 国内構造や報道の framing(枠組み)が、 どのようにその物語を増幅するのかも 検証されなければならない。

「誰が敵か」を強調するよりも、 「どの構造が分断を拡大するのか」を問うこと。

それが、情報戦時代における 成熟した民主社会の姿勢である。


8. 本当に警戒すべきもの

情報戦の本質は、国籍ではない。

外部からの働きかけが存在したとしても、 それが影響力を持つかどうかは、 社会の内部構造に依存する。


本当に警戒すべきなのは、 次のような構造である。

  • 分断を煽るアルゴリズム構造
  • 敵味方の二元論を強化する政治言説
  • 制度や選挙への不信を拡散する物語
  • 異論を排除する空気の形成
  • 恐怖を利用した動員型ナラティブ

これらが社会に根付いたとき、 外部工作は特別な力を必要としなくなる。

分断が深い社会では、 小さな火種でも大きく燃え広がる。

逆に、制度への信頼と 多様な言論が保たれている社会では、 外部からの働きかけは限定的な影響しか持たない。


問題は「どの国が敵か」ではない。

問題は、 社会がどれだけ二元論に傾き、 どれだけ恐怖に動員されやすくなっているかである。

情報工作を語るとき、 外部を警戒することは必要だ。

しかしそれ以上に重要なのは、 分断を増幅する国内構造をどう抑制するか、 自由な言論空間をどう維持するかである。

それが崩れたとき、 外部の介入は“原因”ではなく、 単なる“触媒”になる。


9. 何を「情報工作」と呼ぶのか(定義と基準)

ここまで見てきたように、 外国発の投稿が存在することと、 それが「情報工作」であることは同義ではない。

では、何をもって情報工作と呼ぶべきなのか。


① 意図性(Intent)

単発の意見表明ではなく、 特定の政治目的や社会的影響を狙って 設計された活動であるか。

偶発的な拡散や自然発生的な議論と、 計画的な影響工作は区別されるべきである。


② 組織性・協調性(Coordination)

複数アカウントが同時期に、 同一のハッシュタグ・文言・画像を 役割分担的に拡散しているか。

開設時期の集中、 投稿パターンの一致、 拡散ネットワークの偏りなどは、 組織性を示す一要素となる。


③ 偽装性(Deception)

発信元の身元や所在を意図的に隠し、 国内利用者を装うなどの偽装があるか。

透明性のない発信は、 民主的言論と異なる基準で評価される。


④ 虚偽性・歪曲性(Disinformation)

事実誤認や捏造、 切り取りによる誤導が含まれているか。

事実に基づく批判と、 虚偽の流布は明確に区別されなければならない。


⑤ 規模と影響(Scale & Impact)

活動がどの程度の規模で、 どの程度の影響を持ったのか。

数百規模のアカウント活動と、 数百万単位のエンゲージメントでは、 社会的影響は大きく異なる。


これらの要素が重なったとき、 初めて「情報工作」と呼ぶ合理性が生まれる。

重要なのは、 発信者の国籍ではなく、行為の性質である。

外国発信であること自体は、 直ちに工作を意味しない。

同様に、 政権批判であること自体も、 工作の証拠にはならない。


もし基準が曖昧なまま、 「気に入らない言説」を 外部工作とラベリングするなら、 その瞬間に検証は停止する。

それは安全保障の強化ではなく、 言論空間の萎縮につながる。

情報戦時代に求められるのは、 恐怖による単純化ではなく、 定義と基準による冷静な判断である。


結論

ロシア、米国、中国。 それぞれ異なる形で情報空間に影響を与えている。

しかし、日本にとって最大の問いは、 そこだけではない。

外から壊されるのか。
それとも、内から壊れるのか。

そして、もう一つ。

外部脅威を語ることで、
私たちは何を正当化しようとしているのか。

情報工作は現実に存在する。 だからこそ検証は必要だ。

だが、「誰が敵か」という物語に回収されたとき、 私たちは別のナラティブを強化してしまう。

分断を消費する社会は、 操作される前に、すでに傾いている。


この記事を読みながら、私は強い違和感を覚えた。

なぜ特定の批判だけが、 すぐに「外国の影」と結びつけられるのか。

なぜ立場によって、 「工作」という言葉の重みが変わるのか。

そして正直に言えば、 私は少し怖さも感じている。

批判が外部の脅威へと還元される空気が広がるなら、 その社会は、外から壊される前に、 内側から硬直していくのではないかと。


情報戦の時代に、
最も脆いのは国境ではなく、
社会の理性だ。

Which countries run the most information operations?

— Russia, the United States, China, and what Japan should be careful about

Nikkei published an article titled: “House of Representatives election: About 400 China-linked accounts conducted an ‘anti-Takaichi operation,’ using Japanese-language posts and AI in sophisticated ways” .

I felt a strong sense of discomfort reading it.

The reason is simple: the story strongly implies “information operation,” yet it does not sufficiently compare whether it actually meets that threshold—or where it sits in the international context.

Foreign information operations do exist. Russian interference in elections has been documented. Conspiracy ecosystems originating in the U.S. have crossed borders and spread internationally. China, too, engages in narrative-shaping efforts aimed at foreign audiences.

The real question is not “which country is the villain,” but what scale and what structure of influence we are looking at.

What does “400 accounts” mean in the context of X as a whole? How does it compare with Russia-related cases? And where does it sit when compared with the global spread of English-language conspiracy ecosystems?

And one more thing.

When we label something an “information operation,” are we truly judging it by behavior— or by who is being criticized?

I want to examine this question not through emotion, but by organizing it through international statistics and structural comparison.


1. Why is “China operations” the only focus?

Nikkei’s article infers “China-linked accounts” based on signals such as similar posting patterns, clusters of account-creation dates, a sudden shift into Japanese-language posting, and traces of Chinese-specific wording.

As data analysis, that has a certain level of plausibility.

But there is a question we should not skip.

Why was this framed so prominently as an “anti-Takaichi operation”?

According to the article, the targets were roughly 400 accounts. The activity concentrated during the Lower House election period, and it allegedly amplified narratives linking Ms. Takaichi to the former Unification Church.

Yet the issue of scale remains. Compared with the total number of Japanese-language active accounts on X, “400” is a very limited number. The article itself also notes that the overall impact on the election was “limited.”

And still, the headline foregrounds a powerful frame: “China-linked 400 accounts” and “anti-Takaichi operation.”

This raises another problem.

What exactly do we mean by “information operation”? Is it coordinated inauthentic behavior? Or is it political manipulation directly conducted by a state?

Nikkei’s body text leans toward the former. But the headline strongly pulls the reader toward the latter.

If this is about coordinated inauthentic behavior, then the proper focus should be the behavior, not the country label.

Once a headline emphasizes “China” as an attribute, the discussion tends to shift from behavioral analysis to country-based labeling.

The central question is not whether the actor is “China.”

It is whether our criteria for calling something an “operation” are consistent.

If the standard changes depending on who is being criticized, that is not information analysis—it is narrative formation.


2. Russia: State-led Polarization-Oriented Information Warfare

A defining characteristic of the Russian model lies in the strategic expansion of polarization as a matter of state policy.

Rather than directly securing victory for a specific candidate, the objective is often to amplify distrust and social confrontation, and to erode confidence in institutions.

Investigations surrounding the 2016 U.S. presidential election confirmed that Russia’s Internet Research Agency (IRA) operated large-scale inauthentic accounts, as documented in the Mueller Report and reports by the U.S. Senate Select Committee on Intelligence.

In congressional testimony in 2017, Facebook stated that IRA-related content may have reached approximately 126 million U.S. users.

Twitter announced that it had identified about 3,800 IRA-linked accounts, and that their posts exceeded 10 million tweets in total.

This was not a matter of a few hundred accounts. It was an information campaign conducted at the scale of thousands of accounts and tens of millions to over one hundred million in potential reach.


The method was not simply “pro-Trump.”

  • Accounts inflaming racial tensions
  • Pages emphasizing law-and-order themes
  • Posts advocating anti-immigration positions
  • Posts simultaneously amplifying pro-immigration messages

By stimulating both sides of ideological and social divisions, a structure aimed at placing society into a polarized state has been identified.

Since 2016, conspiracy narratives such as QAnon have also expanded rapidly.

Narratives such as the “Deep State” and “election fraud” were linked to the environment that culminated in the January 6, 2021 U.S. Capitol attack.

QAnon itself largely originated within the United States, but multiple studies have pointed out that Russia-linked accounts also amplified such content.


Whether Russian interference directly determined the election outcome has not been officially concluded.

However, many analyses argue that the expansion of polarization and institutional distrust ultimately created an information environment that was advantageous to then-candidate Trump.

The essential point is that the Russian model is characterized less by “making someone win” and more by a strategy of “breaking” societal cohesion.

When viewed against this scale and level of impact, the question naturally arises as to how activities involving only several hundred accounts should be positioned by comparison.


3. The United States: Less a State Actor, More a “Self-Amplifying Information Structure”

■ Definition: Self-Amplifying Information Structure

Not a model in which a state acts as a single, unified actor directing operations outward, but a mechanism in which algorithms, commercial incentives, and partisan polarization interact, allowing polarization and conspiracy narratives to spread autonomously.

The structure of the United States differs from that of Russia or China.

What has become a major concern in recent years is not so much a state acting as a single unit to target foreign audiences, but rather the phenomenon in which domestically generated radicalization and conspiracy narratives self-amplify through platforms and then spread internationally.

A symbolic example is QAnon.

Narratives such as the “Deep State,” “massive election fraud,” and “elite conspiracy” spread rapidly through algorithms, and are widely analyzed as having influenced the environment surrounding the January 6, 2021 U.S. Capitol attack.


The defining feature of this phenomenon lies less in state direction and more in a structure where markets, partisan politics, and platform design converge.

  • Algorithm-optimized “anger” content
  • Sensationalist media driven by clicks and advertising revenue
  • Monetization of extreme narratives via donations and subscription models
  • Conspiracy narratives that reinforce partisan polarization
  • The expansion of exclusionary rhetoric and scapegoating

Anger and fear are particularly easy to amplify.

Studies suggest that posts designed to strongly stimulate emotion tend to spread faster than neutral content, and are more likely to generate retweets and shares.


The Cambridge Analytica scandal in 2016 showed how data analytics and targeted advertising could be used to deliver political messaging with high precision.

In the 2020 U.S. presidential election, the “election fraud” narrative was largely amplified by domestic political actors, and then spread internationally.

The crucial point here is that, unlike the Russian model of “disruption from the outside,” the U.S. case has a domestic amplification mechanism that can become a source of influence itself.

In other words, even without external intervention, an environment can form in which algorithms and commercial incentives allow polarization to self-amplify.


This structure crosses borders easily.

English-language conspiracy narratives and inflammatory rhetoric are translated and flow into Japanese-language spaces as well.

That is not necessarily a state-led information operation. However, the result can still be influence on political discourse in other countries.

In this sense, the United States is closer not to a single “state actor,” but to a self-amplifying information structure.


4. China: Narrative Formation Model

China’s information activities differ in character from Russia’s strategy of maximizing polarization.

A more distinctive feature is the concentration on specific themes, the formation of a “desired story” (narrative), and the effort to establish that narrative over the long term.

However, it is important to note that in China’s case, even when described as “state-led,” this does not necessarily mean a single, unified chain of command operating in a monolithic manner.


International research and governmental reports often describe the Chinese model as layered, involving state actors, quasi-state actors, and private actors.

  • Official model: Statements from embassies, foreign ministry accounts, and state media
  • Quasi-official model: Amplification of narratives through government-affiliated groups and influencers
  • Outsourced model: Spread via PR firms and digital marketing companies (with lower transparency)
  • Mobilized participation model: So-called “50-cent party” style mobilization, where individuals create an atmosphere (mixing authenticity and coordination)

In some cases, it may be possible to conclude that “the state directly ordered it.” In others, actors aligned with state positions amplify messages in a looser, more decentralized manner.

Unlike the Russian model, which often inflames both sides simultaneously to destabilize society, the Chinese model more often moves in one direction, seeking to reinforce a particular frame or position.


Themes tend to be relatively concentrated.

  • Improving China’s international image (economic cooperation, peaceful development, etc.)
  • Claims of legitimacy regarding Taiwan
  • Counter-narratives to criticism over Hong Kong and Xinjiang
  • Justification of positions concerning the South China Sea

The technique used is often not short-term explosive spread, but repetition of the same themes to stabilize recognition over time.

In international comparative contexts, the Chinese model can therefore be characterized less as “viral explosion” and more as reinforcement of specific perceptions and framing, as well as counter-criticism.


In recent years, multilingual dissemination has increased.

Messages are communicated not only in English, but also in Japanese, Spanish, and other languages, with translation used to deploy consistent messaging.

The recent article referenced earlier infers “China-linked accounts” based on elements such as sudden increases in Japanese-language posts and expressions characteristic of Chinese usage.

However, an important distinction must be made: the presence of “traces of Chinese language usage” is not equivalent to proof that “the state directed the activity.”

Chinese-language personal accounts, overseas Chinese communities, politically aligned online groups, outsourced operators, and official state accounts— Chinese-origin messaging operates across multiple layers, and its meaning changes depending on which layer is involved.

Therefore, the focus of analysis should not be simply whether something is “Chinese,” but rather what kind of behavior occurred, to what degree it was coordinated or organized, and with what objective.


To summarize:

  • Russian model: Polarization maximization (disruptive model)
  • U.S. model: Internal ecosystem amplification (market + polarization + platform design)
  • Chinese model: Narrative formation with overlapping state and quasi-state layers (constructive model)

Given these three types, the question becomes: where should activities involving only several hundred accounts be positioned?

In the next chapter, we compare scale and impact, and place the “400 accounts” within an international analytical context.


5. Where Do the “400 Accounts” Stand Internationally?

So far, we have examined three models: Russia, the United States, and China.

Where, then, do the approximately 400 accounts identified in the recent article stand within the broader international context of information operations?


In the 2016 U.S. presidential election, approximately 3,800 accounts were identified as linked to Russia (according to Twitter’s official disclosure).

Facebook testified that related content may have reached up to 126 million users.

This was an operation conducted at the scale of thousands of accounts and tens of millions to over one hundred million in potential reach.

Similarly, campaigns tracked by the EU’s External Action Service (EEAS) have confirmed sustained, multilingual, cross-platform dissemination in Russian-linked operations.


Compared with such cases, a figure of 400 accounts is limited in scale.

Even the article itself notes that the overall electoral impact was “limited.”

Of course, a smaller scale does not mean it should be ignored.

However, treating it as equivalent to major international interference cases would overlook a clear difference in magnitude.


More importantly, the number of accounts and their impact do not necessarily correlate proportionally.

In the Russian model, organized coordination, advertising spending, and algorithmic optimization significantly amplified reach.

In the case of the 400 accounts discussed here, the article does not present evidence of such advertising operations or large-scale network coordination.

Even if influence is acknowledged, it is necessary to carefully distinguish whether this constitutes large-scale state-level strategic intervention or more limited-scale activity.


In international comparison, the landscape can be broadly grouped into:

  • Persistent operations run at the scale of thousands to tens of thousands of accounts (the “Russia-type” model)
  • An “ecosystem-type” model in which domestic structures function as amplification mechanisms (the “U.S.-type” model)
  • A theme-focused model in which state-linked actors may be mixed in (the “China-type” model)

Against these, a cluster of around 400 accounts is likely to differ in both scale and character from large-scale, high-impact operations.

The key question is not scale alone, but how we position it—and how we talk about it.

If a small case is overstated as a national-level threat, public debate loses its composure. Conversely, if it is dismissed simply because it is small, we loosen the standards of verification.

What is needed is neither fear-driven rhetoric nor denial, but evaluation grounded in comparison.

This comparison does not deny the existence of foreign influence. Rather, it is an attempt to place its scale and structure within an international context.


6. Domestic Structures Within Japan

Focusing only on external actors risks overlooking essential elements.

Polarization and radicalization are not necessarily imported from abroad.

Within Japan as well, structures exist that amplify information.


For example:

  • Sudden surges of specific keywords during election periods
  • Mutual amplification between anonymous aggregation sites and social media
  • Simultaneous mass posting of identical arguments
  • High-volume production of extreme narratives (exclusionism, conspiracy theories, hate speech)

These phenomena are not necessarily foreign information operations.

However, when combined with algorithmic structures and advertising models, they can rapidly become visible and widely disseminated.


Furthermore, the expansion of government and ruling-party publicity and advertising budgets is itself a structural factor that influences the information space.

In recent years, digital advertising and public relations spending have increased, creating an environment in which policy messages and political claims are distributed at scale across platforms.

This is neither illegal nor inherently improper.

However, a structure in which actors with greater financial resources can expand their exposure inevitably affects the balance of public discourse.

When discussing several hundred foreign-linked accounts, if we fail to simultaneously consider domestic funding, advertising capacity, and amplification structures, the full picture cannot be seen.


Particular caution is needed regarding narratives that claim, “someone is manipulating everything.”

Such narratives can function as devices that simplify complex analysis.

By reducing multifaceted social phenomena to a single external force, debates become easier to understand — but domestic structural factors recede from scrutiny.


The information space is formed through the interaction of:

  • External narratives
  • Domestic political polarization
  • Commercial incentives
  • Algorithmic optimization
  • Disparities in financial power and exposure

Even if there is an external trigger, whether it spreads and becomes established depends on domestic structures.

Impact is determined not only by “the volume from outside.”

It also depends on a society’s history of polarization, trust in institutions, media literacy, and the quality of political discourse.


Overemphasizing external threats while neglecting domestic structural issues creates greater long-term risk.

What is required is not an emotional response about the presence or absence of foreign interference, but a calm discussion about how amplification structures themselves should be redesigned.


7. What Japan Should Be Careful About When Publishing This Kind of Coverage

Reporting on information operations is essential for society. Transparency and verification are among democracy’s core safeguards.

At the same time, the way such stories are framed can itself be used to form new narratives.

Communicating that external threats exist is not the same as simplifying external threats into a single storyline. When Japan discusses this topic, there are three points that require particular caution.


① The trap of single-country “demonization”

Simplifications such as “Everything is China” or “Everything is Russia” are easy to grasp—but dangerous.

Real-world information spaces are shaped by multiple overlapping factors: state-directed activity, commercial incentives, market- and algorithm-driven amplification, and domestic political polarization.

Reducing these dynamics to a single country obscures complex causal relationships and reproduces a different kind of “story.”

A frame that depicts one country as the clear “enemy” may feel intuitive in the short term, but over the long term it can lower analytic precision and turn political judgment into emotional reflex.


② The danger of turning criticism into “foreign influence”

The tendency to label domestic criticism or dissent as “foreign information operations” shrinks the space for free discussion.

In a democracy, criticism functions as a self-correcting mechanism.

If criticism of the government—or opposition to policy—can be treated as “the enemy” simply because it is said to be “foreign” or “externally influenced,” healthy debate becomes harder to sustain.

The mere fact that a message originated abroad is not proof of an operation.

What matters is whether specific behaviors are present: inauthenticity, coordination, deception, and systematic amplification.

If the standard changes depending on political “stance,” that is not verification—it is selection.


③ Fear narratives can be used to justify domestic control

Emphasizing external threats can become a tool to legitimize stronger domestic control.

  • Expansion of restrictions on expression
  • Strengthening of surveillance powers
  • Administrative or informal intervention into dissent

National security is, of course, important. But “the external enemy” narrative is politically powerful: fear accelerates narrative formation, while also encouraging society to skip careful scrutiny.

Historically, “external threat” narratives have functioned both to unify societies and to reduce pluralism.

That is why verifying threats and protecting freedom must be pursued together.


Even if there was an external trigger, we still need to measure calmly: what scale it reached, and what degree of impact it had.

At the same time, we must also examine how domestic structures and media framing amplify that narrative.

Rather than repeatedly asking “Who is behind it?”, we should ask “What structures amplify analysis into polarization?”

That is the posture of a mature democratic society in an era of information warfare.


8. What We Should Truly Be Wary Of

The essence of information warfare is not the border.

Even if there is an external trigger, whether it gains real influence depends on a society’s internal structure.


What we should truly be wary of are structural conditions such as these:

  • Algorithmic structures that distort analysis
  • Political rhetoric that intensifies friend–enemy binary thinking
  • Narratives that amplify distrust in institutions and elections
  • The formation of a climate that excludes dissent
  • Fear-driven narratives that mobilize emotion

When these take root in society, external influence operations require far less effort to succeed.

In a society with deep polarization, even a small spark can spread into a large fire.

Conversely, in a society where institutional trust remains intact and pluralistic debate is protected, external triggers are far less likely to produce major effects.


The problem is not “which country is the enemy.”

The real problem is how far our society has drifted into binary thinking, and how easily it can be mobilized through fear.

When discussing information operations, it is necessary to be alert to external actors.

But what matters even more is how we constrain domestic amplification structures and how we preserve a free space for public debate.

If those foundations collapse, external intervention is no longer the “cause”— it becomes merely the “catalyst.”


9. What Should We Call an “Information Operation”? (Definitions and Criteria)

As we have seen, the mere existence of foreign-origin posts does not automatically mean they constitute an “information operation.”

So what criteria should we use to determine when something should be called one?


① Intent

Is the activity designed not as ordinary opinion expression, but as an operation engineered to achieve a specific political objective or produce a targeted social effect?

Accidental virality and organically emerging debate should be distinguished from planned influence activity.


② Organization and Coordination

Are multiple accounts acting simultaneously, amplifying the same hashtags, texts, or images with a division of roles?

Concentrated account creation dates, consistent posting patterns, and skewed amplification networks can indicate organizational coordination.


③ Deception

Is the origin or location of the sender deliberately concealed, or is there impersonation designed to mislead domestic users?

Transparent expression should be evaluated by a different standard from inauthentic activity that relies on concealment.


④ Falsity and Misleading Content (Disinformation)

Does it include fabricated facts, manipulated materials, or distortions created through selective editing?

Fact-based criticism and the dissemination of falsehoods must be clearly distinguished.


⑤ Scale and Impact

What was the scale of activity, and what level of impact did it have?

Hundreds of accounts and a few hundred engagements have a different social effect from thousands of accounts and millions of engagements.


Only when these elements overlap does it become reasonable to label something an “information operation.”

What matters is not the nationality of the sender, but the nature of the behavior.

Foreign-origin content by itself does not automatically imply an operation. Likewise, criticism of those in power is not, by itself, evidence of an operation.

If standards remain ambiguous and we begin labeling “unwelcome speech” as foreign operations, the boundary of verification collapses.

That does not strengthen security. It shrinks the space for public debate.

What the information age demands is not simplification driven by fear, but calm judgment grounded in definitions and criteria.


Conclusion

Russia, the United States, and China each shape the information space in different ways.

But for Japan, the central question is not only that.

Are we destroyed from the outside?
Or do we collapse from within?

And one more question.

When we talk about external threats,
what are we trying to justify?

Information operations exist in reality. That is why verification is necessary.

But once we retreat into the story of “who is behind it,” we end up strengthening a different narrative.

A society that consumes analysis is already leaning—before it is manipulated.


As I read this article, I felt a strong sense of discomfort.

Why is it that criticism of a particular figure is so quickly tied to “foreign influence”?

Why does the weight of the word “operation” change depending on who is being criticized?

And to be completely honest, I also feel a measure of fear.

If an atmosphere spreads in which criticism is reduced to “external threats,” then society may decay from within before it is ever “destroyed from the outside.”


In an era of information warfare, what is most fragile is not the border— but a society’s capacity for reason.



参考資料・出典

  1. U.S. Senate Select Committee on Intelligence (2020). Report on Russian Active Measures Campaigns and Interference in the 2016 U.S. Election.
    https://www.intelligence.senate.gov/publications/report-russian-active-measures-campaigns-and-interference-2016-us-election
  2. Special Counsel Robert S. Mueller III (2019). Report on the Investigation into Russian Interference in the 2016 Presidential Election.
    https://www.justice.gov/archives/sco/file/1373816/download
  3. X (formerly Twitter) Transparency Center (launched Oct 2018). Information Operations (archives and datasets, including IRA-related releases).
    https://transparency.x.com/en/reports/information-operations
  4. Facebook Congressional Testimony (2017). Statement for the Record on Russian Interference and Platform Reach Estimates.
    https://www.judiciary.senate.gov/imo/media/doc/10-31-17%20Weil%20Testimony.pdf
  5. European External Action Service (EEAS). EUvsDisinfo Database and Reports on Pro-Kremlin Disinformation Campaigns.
    https://euvsdisinfo.eu/
  6. Vosoughi, S., Roy, D., & Aral, S. (2018). The Spread of True and False News Online. Science, 359(6380), 1146–1151.
    https://www.science.org/doi/10.1126/science.aap9559
  7. RAND Corporation (2016). The Russian “Firehose of Falsehood” Propaganda Model.
    https://www.rand.org/pubs/perspectives/PE198.html
  8. Freedom House (2022). Beijing’s Global Media Influence.
    https://freedomhouse.org/report/beijings-global-media-influence
  9. U.S. House Select Committee to Investigate the January 6th Attack (2022). Final Report.
    https://www.govinfo.gov/collection/january-6th-committee-final-report

※本記事の分析パートは、海外報道・学術研究・公開データを基に編集部が独自に再構成したものです。

※The analytical sections in this article are independently compiled by the Editorial Desk based on international reporting, academic research, and publicly available data.

Mariko Kabashima
Mariko Kabashima
編集長・国際メディア分析者(海外ニュース翻訳情報局)

海外ニュースを多言語で読み比べ、「同じニュースが、言語や読者層によってどう書き換わるのか」 を分析しています。

日本の報道だけでは見えにくい 国際政治・情報戦・背景文脈 を、静かで冷静な筆致で読み解きます。

Calm insight from Tokyo.

※一部の海外メディアについては、記事URLが有料制・地域制限のためトップページへのリンクとなる場合があります。
Note: For some international media outlets, links may direct to the homepage due to paywalls or regional access restrictions.

※本記事は、国内外の公開情報・制度分析・国際比較に基づく筆者の見解(Opinion)を含みます。
※This article contains analysis and opinions based on publicly available domestic and international sources.

🔐 海外ニュースを見る方へ(PR)
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
※本記事は、国内外の公開情報・制度分析・国際比較に基づく筆者の見解(Opinion)を含みます。
※This article contains analysis and opinions based on publicly available domestic and international sources.

コメント

コメントする