アテンション・エコノミーとAIの「不都合な関係」

科学 経済・ビジネス 技術・デジタル

デジタル技術の進展とともに、情報の流れ方は日々変化している。生成AIの普及はここにどんなインパクトを与えるのか。昨年、『アルゴリズム・AIを疑う』(集英社新書)の出版で注目を集めた研究者の考察をお届けする。

「注意」の獲得競争で強まる「タイパ指向」

インターネット、スマートフォンの普及、そしてデジタル・プラットフォームの日常化は、誰もが容易に情報発信できるメディア環境を構築し、情報の流通量の爆発的な増大をもたらしてきた。この恒常的な情報過多は「アテンション・エコノミー」と呼ばれる論理によって、特異な競争環境をつくりあげた。さまざまな弊害を伴いながらも、その状況はすでに長らく続いてしまっている。

アテンション・エコノミーとは、情報量が過剰となった社会において、その情報の「受け手」となる人々の「注意(attention)」が希少な資源となり、その獲得こそが価値を生むという考え方である。情報の方が希少だった時代には、価値の源泉は情報そのもの、あるいは情報を発信する能力にあった。

誰もが情報発信可能な現代においては、情報の供給量は常に過剰で、かつ増加し続けているにもかかわらず、それを受信する人間の認知資源は有限である。すなわち、24時間365日の生活時間のうち、人間が「注意」を向けられるのは、流通する情報のうちごくわずかな一部分でしかない。

そうなると、情報の正確性や作品の質を示す前に、まずは受け手の注意をいかにして奪うか、が競争の対象になる。いわゆる「釣り見出し」やインパクト重視の画像、センセーショナルな誇大表現や不安を煽(あお)る広告などが増加し、時にはそこにフェイク動画や偽・誤情報が紛れ込んでくるのも、このアテンション獲得競争が激化したゆえである。

このようなメディア環境において、近年しばしば指摘されるのは、情報収集の「効率性」を重視する「コスパ(コストパフォーマンス)指向」「タイパ(タイムパフォーマンス)指向」である。これは、あふれる情報量に対して、なるべく時間や資源を費やさずに情報を選別し、他の情報に接触する機会をなるべく確保しようとする態度といえるだろう。若年層に特徴的とされるが、この背景には流通情報量の増大とアテンション・エコノミーが強く関係していることを鑑みると、世代の違いというよりは、メディア環境全体の「歪(ゆが)み」が、特にスマホの利用頻度が高い層に端的に表出した現象ととらえることができる。

AIの普及は「ゼロクリック」を生むのか

生成AIの出現と、検索エンジンGoogleにおける「AI Overviews(AIによる要約)」や「AI Mode」の登場は、このアテンション・エコノミー環境におけるコスパ・タイパ指向に、一見適応的な状況にみえる。生成AIによるダイレクトな「アンサー」は、これまでの「検索」のように、多くのウェブサイトを回遊する時間を短縮し、より「効率的に」情報を得られる手段として位置づけられるからだ。

このような状況を象徴するのが「ゼロクリック」と呼ばれる現象だ。これまでは検索エンジンによる検索結果から必要なリンクをクリックすることが一般的な流れであったが、AI OverviewやAI Modeによって「アンサー」が要約されてしまうと、ユーザーがそこで満足してしまい、検索されたWebページに訪問せずに済ませてしまう。このため、一部の情報提供系のWebサイトなどでは、検索エンジン経由の流入が減少することが「懸念」されている。

一方で、興味深い調査結果も示されている。もし、ChatGPTのような生成AIのアンサーにユーザーが納得し、それで「効率化」ができているのだとしたら、Googleのような検索エンジン自体を利用する機会が減少するはずである。しかし、実態は異なっている。SparkToro社の調査(2025年)では、ChatGPTのような生成AIツールの利用数が増加していることは確かだが、検索エンジンのアクセス数がそれに伴って減少しているわけではないという。生成AIツールを利用すると、むしろその前後で検索エンジンの利用も増加する傾向があるというのだ。

このことは、ChatGPTや、AI Overviewなどの生成AIによるアンサーが、必ずしもユーザーの要求にダイレクトに応えられていない可能性を示唆する。さらに言えば、一般的なユーザーからみて、これらのアンサーに対する信頼が十分に高まっていない結果として、AIツールが場合によっては情報収集のコスパ・タイパを改善していない可能性すらある。

実際、AIを利用している日本の20代の若者を対象にしたアウトオブザボックス社の調査(2025年)によれば、AIの回答が常に信頼できると考えるユーザーは少数であり、92%のユーザーがAIを完全には信頼していないと答えている。さらに、AIの回答に満足できなければ、7割以上のユーザーがGoogle検索を行って確認をするといい、企業の公式Webサイトなどを訪問するユーザーも半数以上に上る。

また、AI Overviewによる影響は、あくまで特定のクエリー(質問)に限定されており、ブランド指名や商品検索系のクエリーへの影響は小さいという調査もある。すなわち、「ゼロクリック」の影響は限定的な文脈における表層的な事象であり、むしろ「本当に必要とされる情報」をどのように届けるのか、送り手側の価値が問われていると考えることもできる。そもそもPVを重視するメディア運営のあり方そのものが、アテンション・エコノミーの論理に依存した結果でもある。

なぜこのようなギャップが生まれるのか。生成AIの技術がまだ「未熟」だから、と考えることもできるが、そこにはもっと原理的な背景が推定される。それは、生成AIが依拠しているディープラーニング(深層学習)およびLLM(大規模言語モデル)の、確率的生成という設計思想そのものに由来する制約である。

AIの確率論とアルゴリズムの決定的な違い

ディープラーニングとは、人間の脳の神経回路をヒントにした「ニューラルネットワーク」という仕組みを、多層(ディープ)に重ねて学習させる方法である。大量のデータを与え、「この入力のときは、こういう出力になる確率が高い」という関係を、統計的に学習していく技術である。

この考え方を言語に応用したものが、LLMである。LLMは、書籍、ウェブページ、論文、会話文など、大量のテキストデータを使って学習する。そして、「ある単語の次に、どの単語が来やすいか」を確率的に予測しながら文章を生成する。

この方式は、柔軟で汎用性が高いという大きな利点を持つ。一方で、構造的な不安定性も内包している。同じ質問を投げかけても、出力が毎回微妙に異なることがあり、誤情報や文脈のずれが生じる可能性も否定できない。いわゆる「ハルシネーション」と呼ばれる「もっともらしいが正しくない説明」が生まれるのは、この確率論モデルの特性によるところが大きい。

そして、このようなハルシネーションのリスクがあったり、同じようなプロンプトでも毎回答えが異なったりすることは、多くの生成AIユーザーにとってすでに周知のことになりつつある。このため、生成AIのアンサーをそのまま「信頼」することが難しく、検索エンジンや他の情報源を参照して、確証を得るための行動が一定数増加することになるわけだ。

既存のルールベースのアルゴリズムにおいては、ある入力に対して、その初期条件が同一であれば、出力が同一になることが保証されている。また、何か期待と異なる出力が得られた際には、その判断ロジックと入力の関係をエンジニアが確認して調整することも可能である。この振る舞いの一貫性は、これまでのシステムに対する信頼の基礎となるものであり、アテンション・エコノミー環境においてデジタル・プラットフォームがまさに「効率的」な情報選別手段として受け入れられてきた要因でもある。それがよいか悪いかは別として、判断のルールが洗練されれば、その分だけコスパ・タイパが向上することが期待できたからである。

しかし、確率論モデルのAIでは、同じ質問、プロンプトに対して、毎回生成される結果が同一とは限らない。それが誤りを含んでいたとしても、どのように入力を修正すればその誤りがなくなるのかは明確でなく、かつ一度うまくいったプロンプトが次に同じように動作する保証はない。一見「効率的」にアンサーを出してくれるように見える生成AIは、実のところ、極めて不確実性の高い、一貫性のない機械であるがゆえに、信頼して判断を任せることが難しい。

プロンプトをある程度往復しなければならなかったり、出てきたアンサーを検証しなければならなかったりという問題は、AIの技術が洗練されれば解消されるものではなく、確率論モデルのもつ原理的な欠点に起因する。もちろんそのギャップは小さくなっていく可能性はあるが、ルールベースのアルゴリズムよりもリスクは高く、信頼の負荷が高い。

人間が主体性を取り戻す契機にも

このように確率論モデルに基づくAIは、出力の不安定性を前提とする。その結果、人間側での検証や再探索が必要となり、判断の責任は最終的に人間に戻ってくる。つまり、即時的な利便性と引き換えに、別の形の認知的負荷が生じているともいえる。

実のところ、一般的なイメージとは裏腹に、生成AIはトータルなタイパ・コスパの観点からは必ずしも「効率的」な仕組みとはいえない側面がある。このギャップは、皮肉なことに、アテンション・エコノミーにほころびをもたらしている。すなわち、一見「効率的」に見える生成AIを積極的に利用した結果、その出力が正しいかどうかを検証するために認知資源を割くことになり、そのことはアテンションを奪われるままに行動することではなく、情報の信頼性を検証するために主体的にアテンションを払う行動につながっているからだ。

生成AIの不確実性は、タイパ・コスパ指向と、アテンション・エコノミーの論理に覆われた現代のメディア環境において、人間が情報を選択し、吟味する主体性を取り戻す小さな契機として機能する可能性がある。極めて逆説的ではあるが、生成AIの拡大がリスクをはらむからこそ、アテンション・エコノミーを相対化しうるひとつの希望となるかもしれないのだ。

ルールベースのアルゴリズムは、アテンション・エコノミーへの「最適化」を効率的に進めたことによって、さまざまな歪みを生み出し、固定化させてきた。生成AIは、それとは異なる論理によって、メディア環境を再構築しようとしている。このギャップはむしろ、私たちがどのような社会を望み、どのような価値を優先するかを、正面から問い直させる契機である。アテンション・エコノミーの「次」のメディア環境をいかに構築していくのか、単にAIの利便性を過信するのではなく、AIとアルゴリズム、そして人間の介在をどう構築するのかという社会的な選択がより重要になっているといえるだろう。

バナー写真:会合で発言するオープンAIのアルトマン最高経営責任者(CEO)=2025年6月2日、米サンフランシスコ(時事)

AI デジタル社会