L’IA générative va-t-elle tuer le clic ou réveiller l’initiative humaine ?

Technologie

À mesure que les technologies numériques progressent, la nature des informations auxquelles le public est exposé évolue également. Comment l’usage croissant de l’intelligence artificielle générative transforme-t-il l’environnement médiatique qui est déjà saturé ? L’auteur à succès Udagawa Atsushi propose d’examiner les promesses ainsi que les limites du rôle grandissant de l’IA.

La bataille pour l’attention

La diffusion d’Internet et des smartphones ainsi que l’emprise croissante des plateformes numériques sur la vie quotidienne ont fait émerger un monde dans lequel chacun peut publier n’importe quoi, à tout moment. Il en a résulté une explosion de l’information, donnant naissance à un environnement concurrentiel particulier façonné par les exigences de « l’économie de l’attention ». Malgré ses nombreux inconvénients, cette situation perdure depuis déjà un certain temps.

À une époque antérieure, lorsque l’information était encore rare, la valeur résidait dans le fait de la posséder ou d’être capable de la diffuser. Aujourd’hui, dans une société saturée d’informations, c’est l’attention des individus ; c’est-à-dire leur capacité à recevoir et à traiter l’information ; qui constitue la ressource rare, et capter cette attention devient une source de valeur.

Aujourd’hui, alors que l’offre en contenus s’accroît chaque seconde, la principale limite réside dans nos capacités cognitives. Dans une journée, notre temps est limité, et seule une fraction de ce dernier peut être consacré à assimiler ce qui circule en ligne.

De façon inévitable, la concurrence s’est déplacée vers la captation d’une parcelle de l’attention des individus, plutôt que vers la démonstration de l’exactitude ou de la qualité de l’information. Cette dynamique explique la prolifération des titres racoleurs, des images excessivement retouchées, des affirmations sensationnalistes ou exagérées, ainsi que des publicités pouvant susciter de l’anxiété. L’intensification de cette bataille pour l’attention a également créé un terrain particulièrement propice à la désinformation, notamment sous la forme de fausses vidéos, de contenus trompeurs ou de faits tout simplement faux.

Dans cet environnement, un certain état d’esprit s’est imposé : une obsession pour l’efficacité dans la consommation de l’information. Au Japon, cette tendance est souvent résumée par les expressions kosupa (cost performance) et taipa (time performance). Cette impulsion est compréhensible. Confrontés à une avalanche d’informations, les individus cherchent à réduire au minimum le temps consacré à chaque contenu afin de pouvoir passer rapidement au suivant. Bien que ce comportement soit souvent présenté comme une caractéristique générationnelle, particulièrement répandue chez les jeunes utilisateurs, il est sans doute plus juste d’y voir une réponse structurelle à un environnement médiatique déformé, phénomène qui apparaît le plus clairement chez les grands utilisateurs de smartphones.

Vers un Internet sans clic ?

L’arrivée de l’IA générative (et avec elle des fonctionnalités comme AI Overview et AI Mode dans Google Search) semble à première vue offrir une solution technologique à cette quête d’efficacité. Si un système d’IA peut fournir directement une réponse, pourquoi passer du temps à parcourir de multiples sites web ? En théorie, l’IA générative pourrait ainsi proposer un moyen plus efficace d’obtenir des informations.

C’est la logique qui sous-tend ce que l’on appelle le comportement de « zéro clic ». Au lieu de suivre les liens pour trouver l’information recherchée, les utilisateurs peuvent simplement lire le résumé généré par l’IA puis passer à autre chose. Par conséquent, certains éditeurs en ligne qui dépendent du trafic provenant des moteurs de recherche s’inquiètent de la perspective d’une baisse du nombre de clics.

Mais la réalité est plus complexe. Si les réponses fournies par des outils d’IA comme ChatGPT étaient réellement satisfaisantes et amélioraient véritablement l’efficacité, on pourrait s’attendre à une baisse de l’utilisation des moteurs de recherche. Or, une étude menée en 2025 par l’entreprise américaine de marketing logiciel SparkToro suggère l’inverse : le recours aux moteurs de recherche n’a pas diminué malgré une augmentation des utilisateurs expérimentant l’IA. Dans de nombreux cas, les personnes qui utilisent des outils d’IA générative finissent même par utiliser davantage les moteurs de recherche. L’IA est ainsi devenue non pas un substitut à la recherche, mais plutôt une étape préalable ou encore un complément à celle-ci.

Ce constat suggère que les réponses fournies par ChatGPT ou par AI Overview ne répondent pas directement aux besoins des utilisateurs. Si ceux-ci n’accordent pas une confiance totale aux réponses générées par l’IA, cela veut dire que ces outils n’améliorent peut-être pas l’efficacité autant qu’on pourrait le penser.

Une enquête menée en 2025 par l’entreprise de publicité en ligne Out of the Box, auprès d’utilisateurs japonais de l’IA âgés d’une vingtaine d’années, a révélé que seule une faible minorité considère l’IA comme systématiquement fiable. Une écrasante majorité (92 % des sondés) déclare ne pas faire pleinement confiance aux réponses de l’IA. Lorsqu’une réponse semble incomplète, plus de 70 % des utilisateurs se tournent vers Google Search pour la vérifier, et plus de la moitié consultent les sites officiels des entreprises.

D’autres études suggèrent que AI Overview ne concerne qu’une part limitée des requêtes, et que les recherches liées à des marques spécifiques ou à des produits restent largement inchangées. Dans cette perspective, le comportement de « zéro clic » apparaît moins comme une transformation profonde que comme un changement superficiel, limité à certains contextes particuliers. La question la plus importante pourrait plutôt être de savoir comment les fournisseurs d’information peuvent proposer des contenus dont les utilisateurs ont réellement besoin. L’obsession pour « les pages vues » qui façonne les médias en ligne depuis des années est elle-même le produit de la logique de l’économie de l’attention.

Pourquoi, dès lors, cet écart entre les promesses et la réalité persiste-t-il ? Une explication possible est que l’IA générative demeure encore techniquement immature. Mais une raison plus fondamentale tient sans doute aux limites des technologies sur lesquelles repose l’IA. Celles-ci s’appuient sur le deep learning et sur les grands modèles de langage (large language models), qui produisent par nature des résultats probabilistes.

IA contre algorithme

Le deep learning, qui constitue la base de l’IA générative actuelle, s’inspire des circuits neuronaux du cerveau humain. Ce dernier superpose des réseaux de neurones en structures profondes à plusieurs niveaux et les entraîne à partir d’énormes quantités de données. Ce que ces systèmes apprennent n’est pas un ensemble de règles, mais des tendances statistiques : à partir d’une entrée donnée, quelle sortie est la plus susceptible de suivre ? Les grands modèles de langage appliquent cette logique au texte. Entraînés sur des livres, des sites web, des articles universitaires et des transcriptions de conversations, ils génèrent des phrases en prédisant quel mot est le plus susceptible d’apparaître ensuite.

Le résultat est un système à la fois très flexible et polyvalent, mais aussi structurellement instable. Si l’on pose la même question à plusieurs reprises, la réponse sera probablement légèrement différente à chaque fois. Il arrive également qu’elle contienne des affirmations fausses ou trompeuses. Ce phénomène, appelé « hallucination » correspond à des explications qui paraissent plausibles mais qui ne reposent sur aucun fait. Il s’agit d’une conséquence du modèle probabiliste lui-même.

Les utilisateurs ont commencé à prendre conscience des risques liés à ces hallucinations, et beaucoup abordent désormais les réponses générées par l’IA avec prudence, conscients qu’une vérification peut être nécessaire. En conséquence, l’usage de moteurs de recherche et d’autres sources permettant de confirmer les informations a augmenté parallèlement à l’utilisation de l’IA générative, plutôt que de diminuer.

Cela contraste avec les algorithmes fondés sur des règles, qui produisent le même résultat à chaque fois tant que l’entrée et les conditions initiales sont identiques. En cas de résultat inattendu, les ingénieurs peuvent ajuster le fonctionnement en modifiant les règles. Cette fiabilité a constitué la base de la confiance accordée par les utilisateurs aux plateformes numériques et en a fait des outils particulièrement efficaces pour naviguer dans l’économie de l’attention. Sans même juger des conséquences sociales, il était possible d’établir un chemin plus efficace à travers la jungle de l’information en affinant simplement les règles.

Le modèle probabiliste utilisé par l’IA générative ne peut garantir des résultats identiques, même lorsque la requête est formulée exactement de la même manière. Si une réponse contient une erreur, il n’existe pas de moyen clair d’ajuster l’entrée pour éviter que la même erreur ne se reproduise. Une requête qui fonctionne une fois peut ne pas fonctionner la fois suivante. Ainsi, ce qui semble être un raccourci efficace se révèle en réalité être un système marqué par l’incertitude et l’inconstance et auquel on ne peut pas confier le soin de porter le « bon » jugement.

La nécessité de reformuler les requêtes et de vérifier les réponses n’est pas un simple désagrément qui disparaîtra à mesure que la technologie progressera. Ces problèmes découlent de la conception même des modèles probabilistes. L’écart pourra se réduire, mais il ne disparaîtra pas. Comparés aux systèmes algorithmiques fondés sur des règles, les risques sont plus élevés et la charge cognitive pesant sur les utilisateurs est plus lourde.

Un retour à l’initiative humaine ?

La responsabilité revient en définitive à l’utilisateur humain puisque l’IA probabiliste produit des résultats intrinsèquement instables, et en conséquence, la vérification devient nécessaire, tout comme le fait de remettre les réponses en question. En échange de la rapidité d’une réponse générée par l’IA, nous assumons ainsi un autre type de coût cognitif.

L’ironie est donc que, malgré sa promesse d’efficacité, l’IA générative peut s’avérer moins efficiente lorsqu’on l’évalue dans une perspective plus large de kosupa et de taipa. La nécessité de vérifier les réponses mobilise davantage de ressources cognitives, ce qui va à l’encontre des exigences de l’économie de l’attention.

Le manque de fiabilité de l’IA générative pourrait, paradoxalement, introduire un léger déplacement dans un environnement médiatique longtemps orienté vers l’efficacité et régi par la logique de l’économie de l’attention : un retour à l’initiative humaine pour décider quelles informations méritent réellement notre temps. Les utilisateurs doivent évaluer activement si une affirmation générée par l’IA est digne de confiance, et l’attention devient alors quelque chose que l’on mobilise de manière délibérée, plutôt que passive.

Les algorithmes fondés sur des règles, optimisés pour capter l’attention, ont engendré et renforcé certaines distorsions. L’IA générative, qui fonctionne selon une logique différente, perturbe cette optimisation. L’écart qui en résulte n’est pas seulement technique ; il possède également une dimension sociale. Il nous invite à nous interroger sur le type d’environnement médiatique que nous souhaitons et sur les valeurs que nous voulons privilégier. À mesure que l’on envisage un environnement médiatique au-delà de l’économie de l’attention, la question n’est pas seulement de savoir à quel point l’IA peut devenir pratique, mais aussi comment nous choisissons d’organiser l’interaction entre l’IA, les algorithmes et le jugement humain. L’avenir dépendra moins des capacités de la technologie que des choix que nous ferons quant à la manière de l’utiliser.

(Photo de titre : Sam Altman, PDG d’OpenAI, s’exprimant lors d’une conférence sur l’IA à San Francisco en juin 2025. Jiji)

technologie IA