La relación inconveniente entre la economía de la atención y la IA generativa

Tecnología Economía

A medida que evoluciona la tecnología digital, así lo hacen también los tipos de información que ve el público. ¿De qué manera el creciente uso de la inteligencia artificial generativa está remodelando un entorno mediático ya saturado? El popular autor Udagawa Atsushi examina cuán prometedor y limitado es el creciente papel de la IA.

La batalla por la atención

La generalización del uso de internet y los smartphones, unida a la invasión de las plataformas digitales en la vida cotidiana, ha creado un mundo en el que cualquiera puede publicar lo que desee en todo momento. El resultado ha sido una explosión de información que ha producido un escenario competitivo singular moldeado por las exigencias de la “economía de la atención”. Pese a sus numerosas desventajas, esta situación ha perdurado durante bastante tiempo.

Antes, cuando la información escaseaba, su valor residía en poseerla o ser capaz de distribuirla. Hoy, en cambio, en una sociedad inundada de información, la atención de la gente, su capacidad para recibir y procesar información, es el recurso limitado, y capturarla se convierte en una fuente de valor.

Ahora que el suministro de contenido se expande cada minuto, el cuello de botella es cognitivo. Los seres humanos solo disponen de unas pocas horas al día, y solo una fracción de ese tiempo puede dedicarse a absorber lo que circula por la red.

Inevitablemente, la competición se orienta ahora a capturar una migaja de la atención del público, más que a demostrar la exactitud o calidad de la información. Esta dinámica explica la proliferación de titulares trampa (clickbait), imágenes hipereditadas, afirmaciones sensacionalistas o exageradas y anuncios que provocan ansiedad. La batalla por acaparar la atención, cada vez más intensa, también ha creado un campo fértil para la desinformación, incluidos los vídeos manipulados, el contenido engañoso y los embustes descarados.

Una mentalidad particular se ha afianzado en este entorno: una fijación por la eficiencia en el consumo de información. En Japón, esto se describe a menudo mediante la abreviatura kosupa (del inglés cost performance, “rendimiento por coste”) y taipa (del inglés time performance, “rendimiento por tiempo”). Esta pulsión es comprensible. La gente, que hace frente a una avalancha de información, trata de minimizar el tiempo que ocupa en un solo artículo con el fin de pasar cuanto antes al siguiente. Aunque a menudo se considera un rasgo generacional predominante entre los usuarios más jóvenes, quizá sea más acertado verlo como una respuesta estructural a un entorno mediático distorsionado, que se manifiesta con mayor claridad entre los usuarios habituales de teléfonos inteligentes.

¿Estamos en los albores de una internet con cliqueo cero?

A primera vista, la llegada de la IA generativa (y con ella, las descripciones generales de la IA o el Modo IA en Google Search) parece ofrecer una solución tecnológica a esta mentalidad centrada en la eficiencia. Si un sistema de IA puede ofrecer una respuesta directa, ¿por qué dedicar tiempo a revisar varias páginas web? En teoría, la IA generativa ofrece una forma más eficiente de obtener información.

Esta es la lógica detrás de lo que se ha descrito como el comportamiento de “cliqueo cero” (zero-click). En lugar de pulsar los enlaces para encontrar lo que buscan, los usuarios pueden sencillamente leer un resumen generado por IA y pasar a otra cosa. En consecuencia, algunas publicaciones en línea que dependen del tráfico de los motores de búsqueda tiemblan ante la perspectiva del declive en el número de cliqueos.

Pero la realidad es más complicada. Si las respuestas ofrecidas por herramientas de IA como ChatGPT fueran realmente satisfactorias, y si mejoraran realmente la eficiencia, uno podría esperar que se redujera el uso de los motores de búsqueda. Sin embargo, un estudio realizado en 2025 por la empresa de marketing de software estadounidense SparkToro sugiere lo contrario: a medida que la gente experimenta con la IA, su uso de las herramientas de búsqueda no se reduce. En muchos casos, las personas que usan herramientas de IA generativa terminan usando más los motores de búsqueda. La IA no se ha convertido en un sustituto de la búsqueda, sino en una antesala o suplemento para la misma.

Este patrón sugiere que las respuestas ofrecidas por ChatGPT o la descripción general de la IA no satisfacen directamente las necesidades de los usuarios. Si las personas no confían plenamente en las respuestas generadas por IA, es posible que dichas herramientas no estén mejorando la eficiencia tanto como se esperaba.

Un sondeo realizado en 2025 por la empresa de publicidad online Out of the Box y orientado a los usuarios de IA japoneses en la veintena reflejó que solo una pequeña minoría considera que la IA es siempre fiable. Un abrumador 92 % afirmó que no confía plenamente en las respuestas de la IA. Cuando sienten que una respuesta está incompleta, más del 70 % recurre a Google para verificarla y más de la mitad visita páginas web corporativos oficiales.

Otros estudios sugieren que la descripción general de la IA afecta solo a una pequeña parte de las consultas, ya que las búsquedas específicas de marcas y las consultas relacionadas con productos no se ven afectadas en gran medida. En este sentido, el comportamiento de “cliqueo cero” no parece tanto una transformación radical sino más bien un cambio a nivel superficial limitado a contextos particulares. La pregunta más importante podría ser cómo los proveedores de información pueden ofrecer contenidos que la gente realmente necesita. La obsesión por las visitas a la página que ha caracterizado a los medios de comunicación en línea durante años es en sí misma producto de la mentalidad de la economía de la atención.

¿Por qué, entonces, persiste esta brecha entre la promesa y la práctica? Una explicación es que la tecnología de la IA generativa aún no ha madurado. Pero es probable que haya una razón más fundamental en las limitaciones arquitectónicas de las tecnologías que sustentan la IA generativa —el aprendizaje profundo (deep learning) y los modelos de lenguaje de gran tamaño (LLMs, por sus siglas en inglés)—, que generan resultados probabilísticos por diseño.

La IA contra el algoritmo

El aprendizaje profundo, el pilar de la IA generativa actual, se inspira en los circuitos neuronales del cerebro humano. Organiza redes neuronales en estructuras profundas y de múltiples capas, y las entrena con enormes cantidades de datos. Lo que estos sistemas aprenden no es un conjunto de reglas, sino tendencias estadísticas: dado un determinado input, cuál es el output más probable.

Los modelos de lenguaje de gran tamaño aplican esta lógica al texto. Entrenados con libros, páginas web, artículos académicos y transcripciones de conversaciones, generan oraciones prediciendo qué palabra es más probable que venga a continuación.

El resultado es un sistema altamente flexible y versátil, pero también estructuralmente inestable. Si se formula la misma pregunta repetidamente, es probable que la respuesta sea ligeramente diferente cada vez. A veces puede contener afirmaciones falsas o engañosas. Este fenómeno, denominado “alucinación” (explicaciones que parecen plausibles pero no se basan en hechos), es una consecuencia del propio modelo probabilístico.

Los usuarios han comenzado a tomar conciencia de estos riesgos de “alucinación”, y muchos abordan ahora las respuestas generadas por IA con cautela, conscientes de que puede ser necesaria la verificación. Como resultado, el uso de motores de búsqueda y otras fuentes de confirmación ha crecido en paralelo al uso de la IA generativa, en lugar de disminuir.

Esto contrasta con los algoritmos basados en reglas, que producen siempre el mismo resultado mientras el input y las condiciones iniciales sean los mismos. Si aparece un resultado inesperado, los ingenieros pueden ajustar el resultado modificando las reglas. Esta fiabilidad constituyó la base de la confianza de las personas en las plataformas digitales y las convirtió en herramientas altamente eficientes para navegar la economía de la atención. Dejando de lado los juicios sobre sus consecuencias sociales, era posible establecer una vía más eficiente a través de la jungla de información refinando las reglas.

El modelo probabilístico utilizado por la IA generativa no puede garantizar resultados idénticos, incluso cuando se formulan indicaciones idénticas. Si una respuesta contiene un error, no existe una forma clara de ajustar la entrada para evitar repetir el mismo fallo. Un prompt que funciona una vez puede no funcionar la siguiente. Así, lo que parece un atajo eficiente es, en la práctica, un sistema definido por la incertidumbre y la inconsistencia, y al que no se le puede confiar la toma de decisiones correctas.

La necesidad de reiterar indicaciones y contrastar respuestas no es un inconveniente que desaparecerá a medida que la tecnología madure. Estos problemas derivan del diseño fundamental de los modelos probabilísticos. La brecha puede reducirse, pero no desaparecerá. En comparación con los sistemas algorítmicos basados en reglas, los riesgos son mayores y la carga cognitiva para los usuarios es más pesada.

¿Un retorno a la agencia humana?

Dado que la IA probabilística produce resultados inherentemente inestables, la responsabilidad recae en última instancia en el usuario humano: la verificación se vuelve necesaria, al igual que el cuestionamiento constante. A cambio de la rapidez de una respuesta generada por IA, asumimos un tipo distinto de coste cognitivo.

La ironía, por tanto, es que, pese a su promesa de eficiencia, la IA generativa puede resultar más ineficiente si se observa desde la perspectiva más amplia del kosupa y el taipa. La necesidad de comprobar las respuestas exige mayores recursos cognitivos, lo que entra en conflicto con las demandas de la economía de la atención.

La falta de fiabilidad de la IA generativa, paradójicamente, puede introducir un cambio sutil en un entorno mediático orientado durante mucho tiempo hacia la eficiencia y regido por la lógica de la economía de la atención: un retorno a la agencia humana a la hora de decidir qué información merece nuestro tiempo. Los usuarios deben evaluar activamente si una afirmación generada por IA es fiable, y la atención pasa a ser algo que desplegamos de manera deliberada, en lugar de pasiva.

Los algoritmos basados en reglas, optimizados para captar la atención, han generado y reforzado distorsiones. La IA generativa, al operar con una lógica distinta, altera esa optimización. La brecha resultante no es meramente técnica; también tiene una dimensión social. Nos invita a preguntarnos qué tipo de entorno mediático queremos y qué valores deseamos priorizar. Al imaginar un entorno mediático posterior a la economía de la atención, la cuestión no es solo cuán conveniente puede llegar a ser la IA, sino también cómo decidimos estructurar la interacción entre la IA, los algoritmos y el juicio humano. El futuro dependerá menos de las capacidades de la tecnología que de las decisiones que tomemos sobre cómo utilizarla.

(Imagen del encabezado: el director ejecutivo de OpenAI, Sam Altman, interviene en una conferencia sobre IA celebrada en junio de 2025 en San Francisco. © Jiji.)

Internet Inteligencia Artificial Medios de comunicación OpenAI