«Неудобные отношения» между экономикой внимания и ИИ

Экономика Технологии

Развитие цифровых технологий преображает информационную среду. Удагава Ацуси, автор нашумевшей книги «Алгоритмы и ИИ под сомнением», размышляет о последствиях распространения генеративного искусственного интеллекта.

Стремление сэкономить время как следствие обострения конкуренции за внимание пользователей

Интернет, смартфоны и цифровые платформы превратились в неотъемлемую часть нашей жизни. Они подарили нам возможность беспрепятственного распространения контента, тем самым спровоцировав информационный взрыв. Хронический избыток информации в контексте «экономики внимания» сформировал специфическую конкурентную среду, которая, несмотря на очевидные изъяны, существует на протяжении долгого времени.

Экономика внимания исходит из тезиса: когда информации слишком много, внимание человека, выступающего получателем информации, воспринимается в качестве дефицитного ресурса, за приобретение которого ведётся борьба. В эпоху дефицита информации ценность представляла как сама информация, так и каналы её распространения. Сейчас, когда транслирование контента доступно каждому, а поток избыточной информации неуклонно растёт, когнитивные ресурсы человека остаются неизменными. За 24 часа в сутках человек способен уделить внимание лишь крохотной части циркулирующей информации.

В результате создатели контента сражаются уже не за качество и достоверность данных, а за внимание аудитории. Именно эта конкурентная борьба породила нарастающий поток экспрессивных заголовков, ошеломляющих картинок, сенсационных фраз, тревожащей рекламы, фейковых видео и дезинформации.

В последнее время на этом фоне всё чаще поднимается вопрос эффективного использования времени. Молодёжь, выросшая в эпоху информационного изобилия и принципов экономики внимания, выработала особый стиль, обеспечивающий быстрый отбор контента и возможность контакта с другими источниками. Этот стиль обусловлен не столько возрастом, сколько частотой применения смартфонов.

«Нулевой клик» — проблема реальная или выдуманная?

Генеративный ИИ, функция ИИ-резюмирования (AI Overviews) и режим AI Mode в поисковой системе Google на первый взгляд обеспечивают эффективное использование времени в соответствии с теорией экономики внимания. Ответы, сформулированные ИИ, избавляют от необходимости просмотра множества Интернет-ресурсов, поэтому считаются инструментом, повышающим эффективность сбора информации.

Внедрение ИИ породило феномен «нулевого клика». Если раньше в поисках информации пользователи переходили по ссылкам, то сейчас многие удовлетворяются ответами, генерируемыми ИИ, и не посещают предлагаемые сайты. Владельцы некоторых Интернет-ресурсов обеспокоены возможным снижением трафика из поисковых систем, однако результаты исследований говорят об обратном. Если бы пользователи действительно удовлетворялись ответами, генерируемыми ChatGPT и другими видами ИИ, считая, что это повышает их эффективность, это должно было снизить частоту использования Google и других поисковых систем. Однако на практике происходит совсем иное. Результаты исследования компании SparkToro (2025) показали, что интенсификация применения ChatGPT и других видов ИИ отнюдь не сказалась на частоте посещения поисковых систем. Более того, люди всё чаще пользуются поисковиками до и после обращения к ИИ.

Очевидно, что ответы и суммарные тексты, предлагаемые ChatGPT, AI Overviews и другими видами ИИ, не всегда соответствуют потребностям пользователей. Более того, низкий уровень доверия к ИИ среди обычных пользователей далеко не всегда гарантирует экономию времени при сборе информации.

Результаты опроса японской молодёжи в возрасте 20-29 лет, проведённого компанией Out of the Box в 2025 году, показали, что полностью ответам ИИ склонна лишь небольшая часть респондентов, в то время как 92% сообщили, что не полностью доверяют ИИ. Кроме того, если предлагаемый ответ оказывается неудовлетворительным, более 70% респондентов перепроверяют его с помощью поиска в Google, а более половины обращается к официальным сайтам компаний.

Судя по результатам другого исследования, влияние генерируемого ИИ-реферирования ограничивается заданным вопросом и практически не затрагивает поиск названий брендов и товаров. Иными словами, «нулевой клик» — это поверхностное явление, характерное для узкого контекста. Поэтому создатели контента должны сосредоточиться на том, как донести до пользователя по-настоящему необходимую ему информацию. Стратегия управления медиаконтентом на основе числа просмотров – это следствие зависимости от догм «экономики внимания».

Чем же обусловлен наблюдаемый разрыв? С одной стороны, незрелостью современных технологий генеративного ИИ. С другой стороны, существует более фундаментальная причина - ограниченность модели глубокого обучения и больших языковых моделей (LLM) продиктована их природой, в основе которой лежит теория вероятности.

Теория вероятности ИИ и алгоритмы

Глубокое обучение – это методика многослойного обучения на базе нейронных сетей, имитирующих нейронную сеть человеческого мозга. Технология оперирует огромным объёмом данных, используя статистические методы для выявления связей между входящими данными и наиболее вероятными ответами.

Данная концепция легла в основу большой языковой модели, которая обучается на основе книг, Интернет-ресурсов, научных статей, диалогов и других текстовых данных большого объёма. Она генерирует ответ на основе теории вероятности, предсказывая, какое слово с наибольшей вероятностью последует за предыдущим словом в заданном контексте.

Основными преимуществами данного метода являются гибкость и универсальность, а в качестве недостатка можно отметить присущую ему структурную нестабильность. Ответы на один и тот же вопрос не будут идентичными, они могут содержать ошибки и неверные интерпретации. Вероятностная природа модели приводит к «галлюцинациям» — убедительно сформулированным, но неправильным ответам. Многие пользователи ИИ уже осознали эти риски, поэтому они не принимают генерируемые ИИ ответы на веру, а проверяют их с помощью поисковых систем и других источников информации, то есть совершают дополнительные действия.

Алгоритмы, основанные на определённых правилах, гарантируют получение одинакового ответа при одинаковых вводных условиях. Если ответ отклоняется от прогноза, инженер может проследить связь между его логикой и вводными данными. Именно эта унитарность обеспечила доверие к системам и зарекомендовала цифровые платформы как эффективный инструмент сбора информации. Хорошо это или плохо, но наличие точных правил служило гарантом эффективности сбора данных.

Однако вероятностная модель ИИ не гарантирует получение одинакового ответа на один и тот же вопрос. Если в ответ вкралась ошибка, пользователю непонятно, как следует переформулировать вопрос, чтобы её избежать. Более того, получение качественного ответа на заданный вопрос не гарантирует его повторение в будущем. На поверку генеративный ИИ оказывается не столько инструментом для экономии времени, сколько недостойным доверия ненадёжным и непоследовательным инструментом.

Необходимость задавать дополнительные вопросы и проверять сгенерированные ответы, обусловленная фундаментальным недостатком вероятностной модели, не исчезнет по мере усовершенствования технологии искусственного интеллекта. Безусловно, ИИ будет совершенствоваться, однако это не решит проблему доверия – в отличие от основанных на правилах алгоритмов, он останется более рискованным инструментом.

Возрождение субъектности в эпоху ИИ

Ответы генеративного ИИ на основе теории вероятности нестабильны. В результате человеку приходится перепроверять эти ответы и обращаться к дополнительным источникам. При этом вся полнота ответственности за принятые решения неизменно возлагается на человека. Таким образом, в обмен на мгновенные ответы мы подвергаем себя дополнительной когнитивной нагрузке.

Вопреки расхожему мнению, генеративный ИИ не всегда оказывается инструментом экономии времени. Именно это приводит к появлению трещины в экономике внимания. Активное применение ИИ, считающегося «эффективным инструментом», вынуждает нас тратить когнитивные ресурсы на верификацию ответов. С другой стороны, это парадоксальным образом позволяет нам вернуть контроль над собственным вниманием, осознанно фокусируя его на проверке надёжности полученной информации.

В современной медиасреде, основанной на конкуренции за внимание, ненадёжность ИИ может оказаться ключом к возвращению субъектности при выборе информации. Именно риски, связанные с использованием ИИ, способны избавить нас от диктата экономики внимания.

Когда-то алгоритмы подвергались активной трансформации, чтобы адаптироваться к потребностям экономики внимания. Это породило множество проблем, сохранившихся и по сей день. Сейчас внедрение генеративного ИИ постепенно меняет медиасреду. Возникающие при этом проблемы помогут нам пересмотреть приоритетный порядок ценностей. Нам придётся задуматься о формировании медиапространства эпохи «пост-экономики внимания» и создавать общество, члены которого не стремятся слепо полагаться на ИИ, а налаживают взаимодействие человека с нейросетями и алгоритмами.

Фотография к заголовку: генеральный директор OpenAI Сэм Альман выступает на конференции 2 июня 2025 года в Сан-Франциско, США (Jiji Press)

цифровые технологии искусственный интеллект