注意力經濟與 AI 的「不對等關係」

科學 財經 技術

隨著數位技術持續演進,資訊的流通方式正日新月異。生成式 AI 的普及,究竟對這樣的環境帶來了什麼樣的衝擊?本文邀請去年因出版《質疑演算法與AI》(集英社新書)而備受關注的研究者,分享其對當前局勢的思考與分析。

在「注意力」爭奪戰中日益加劇的「時價比導向」

網路與智慧型手機的普及,加上數位平台成為日常生活的一部分,構築出了一個人人都能輕易發聲的媒體環境,進而導致資訊流通量的爆炸性成長。這種常態性的資訊過載,在所謂「注意力經濟」的運作邏輯下,逐漸形塑出一種特殊的競爭環境。即使伴隨著各種負面影響,這樣的狀態也早已持續了相當長的一段時間。

所謂的「注意力經濟」,是指在資訊過量的社會中,作為資訊「接收者」的人們,其「注意力」(attention)成為了稀缺資源,而「獲得注意力」本身即可產生價值的思維模式。在資訊尚屬稀缺的時代,價值多半存在於資訊本身,或是發布資訊的能力。

然而,在人人皆可發布資訊的現代社會,資訊的供給始終處於過剩狀態,並且持續增加。相對地,接收資訊的人類,其可動用的「認知資源」卻是有限的。也就是說,在一年三百六十五天、一天二十四小時的生活裡,人類實際能投注的「注意力」,只占流通資訊中極其微小的一部分。

於是,在資訊的正確性或作品品質尚未被辨識之前,如何先成功「奪取」受眾的注意力,反而成為了競爭的核心。釣魚式標題、強調衝擊感的影像、煽情誇大的表述,或是刻意引發焦慮的廣告因此大量出現,有時甚至夾雜著偽造影片、假訊息與錯誤資訊,這正是注意力爭奪日益加劇所帶來的結果。

在這樣的媒體環境中,近年來經常被提及的是重視資訊蒐集「效率」的「CP值(成本效益)傾向」與「時價比(時間效益)傾向」。這種態度可以理解為,在面對大量資訊時,試圖在盡可能不耗費時間與資源的情況下進行篩選,藉此保留接觸更多其他資訊的可能性。這類傾向常被視為年輕世代的特徵,但若考量其背後與資訊流通量劇增及「注意力經濟」之間的緊密關聯,與其說是世代差異,不如將之理解為整體媒體環境的「扭曲現象」,而這種扭曲特別明顯地呈現在智慧型手機使用頻率較高的族群之中。

AI普及真的會造成「零點擊」嗎?

生成式AI的出現,以及搜尋引擎Google所推出的「AI Overviews(AI摘要)」與「AI Mode」,乍看之下似乎順應了這種注意力經濟環境下的CP值與時價比傾向。這是因為生成式AI直接提供的「答案」,縮短了過去「搜尋」時必須在多個網站之間跳轉瀏覽的時間,被視為是一種更「有效率」取得資訊的方式。

象徵這種情況的,是被稱為「零點擊」的現象。過去,使用者通常會從搜尋結果中點選連結進入網頁,但在AI Overviews或AI Mode將答案加以摘要後,使用者往往在搜尋頁面就已獲得滿足,便不再實際造訪相關網站。因此,部分以資訊提供為主的網站,開始對來自搜尋引擎的流量減少表達憂慮。

不過,另一方面,也出現了耐人尋味的調查結果。若使用者對ChatGPT等生成式AI所提供的答案感到滿意,並因此達成資訊蒐集的「效率化」,那麼使用Google等搜尋引擎的機會理應隨之減少。然而,實際狀況並非如此。根據SparkToro公司於2025年的調查,雖然ChatGPT等生成式AI工具的使用量確實增加,但搜尋引擎的使用次數並未因此下降,反而在使用生成式AI工具的前後,搜尋引擎的使用有增加的趨勢。

這樣的結果顯示,ChatGPT或AI Overviews等生成式AI所提供的答案,未必能直接回應使用者的需求。進一步來看,從一般使用者的角度而言,由於尚未充分建立對這些答案的信任度,甚至可能導致在某些情況下,生成式AI並未如預期改善資訊蒐集的CP值與時價比。

實際上,根據Out of the Box公司於2025年針對日本二十多歲AI使用者所進行的調查,認為AI的回答「始終可以信賴」的使用者僅占少數,有高達九成二的受訪者表示並不完全信任AI。此外,當對AI的回答感到不滿意時,超過七成的使用者會再透過Google搜尋進行確認,且有半數以上會進一步造訪企業官方網站等資訊來源。

另有研究指出,AI Overviews所帶來的影響僅限於特定類型的提問,對品牌名稱或商品搜尋等查詢的影響相對有限。換言之,「零點擊」多半只是出現在特定脈絡中的表層現象。反而真正受到考驗的是資訊提供者本身的價值,也就是能否有效地將「真正被需要的資訊」傳遞出去。畢竟,以頁面瀏覽量(PV)為核心的媒體經營模式,本身正是依賴注意力經濟邏輯所形成的結果。

那麼,為何會出現這樣的落差?固然可以將原因歸咎於生成式AI技術「尚未成熟」,但更可能的,是其背後存在著更為根本的限制。這正是源自生成式AI所依賴的深度學習(Deep Learning)與大型語言模型(LLM),在「機率式生成」這一設計思路下所帶來的結構性制約。

AI的機率式模型與演算法的決定性差異

「深度學習」,是一種以人類大腦神經迴路為靈感的「神經網路」機制,透過多層(Deep)疊加來進行學習的方法。這項技術藉由輸入大量資料,從統計上學習「在特定輸入條件下,某種輸出出現機率較高」的關係。

將此一概念應用於語言領域的,即是大型語言模型(LLM)。LLM透過書籍、網頁、論文與對話文本等大量文字資料進行訓練,並在生成文章時,機率式地預測「某個詞語之後,最有可能接續出現的詞語」。

這樣的方式具有高度彈性與通用性的優點,但同時也內含結構性的不穩定因素。即使提出相同的問題,每次生成的結果仍可能出現些微差異,也難以完全排除錯誤資訊或脈絡偏移的可能性。所謂的「幻覺」,亦即「看似合理,卻不正確的說明」,在很大程度上正是源自這種機率式模型本身的特性。

然而,不論是存在這類「幻覺」的風險,或是即使使用相同的提示詞,每次得到的回答仍可能不同,這些情況正逐漸成為多數生成式 AI使用者的普遍認知。因此,生成式 AI的答案難以被直接「信任」,使用者為了取得確證,轉而參照搜尋引擎或其他資訊來源的行為,也就隨之有一定比例的增加。

在現有的規則式演算法中,只要輸入內容及其初始條件相同,便能保證輸出結果一致。即使出現與預期不符的輸出,工程師也能回頭檢視並調整判斷邏輯與輸入之間的關係。這種運作上的一致性,正是過往系統得以建立信任的基礎,也是在注意力經濟環境中,數位平台之所以能被視為「高效」的資訊篩選手段並被廣泛接受的原因之一。姑且不論其好壞,只要判斷規則不斷精煉,便能期待CP值與時價比隨之提升。

然而,在機率式模型的AI中,即使提出相同的問題或提示詞,每次生成的結果也未必一致。即使輸出內容包含錯誤,也難以明確判斷應該如何修正輸入才能排除這些錯誤;而即使某次提示詞運作良好,也無法保證下一次仍會得到相同結果。生成式AI表面上看起來能「高效率」地提供答案,但實際上正因其高度不確定且缺乏一致性,使人難以信任並將判斷交付於它。

需要反覆來回調整提示詞,或必須對生成出來的答案進行驗證等問題,並非隨著AI技術的精進就能消除,而是源自機率式模型本身所具有的原理性缺陷。當然,未來或許有可能縮小這種落差,但相較於規則式演算法,其風險仍然較高,信任成本也更為沉重。

或許能成為人類拾回主體性的契機

如此一來,以機率式模型為基礎的AI,其運作前提本就包含了輸出的不穩定性。其結果是,人類這一方必須進行驗證或重新探索,判斷的責任最終仍回到了人的身上。換言之,這種即時性的便利,是以另一種形式的認知負荷作為交換。

事實上,與一般印象相反,從整體的時價比與CP值來看,生成式AI並不一定稱得上是「高效率」的機制。諷刺的是,正是這樣的落差,反而讓注意力經濟出現了破綻。也就是說,當人們積極使用看似「高效率」的生成式AI時,卻不得不為了確認其輸出是否正確而投入額外的認知資源。結果,行動不再只是被動地任由注意力被奪走,而是轉變為主動地將注意力投注於資訊可信度的驗證。

在這個以時價比與CP值為導向,並長期受注意力經濟邏輯所覆蓋的現代媒體環境中,生成式AI的不確定性,或許反而成為人類重新找回選擇與審視資訊主體性的一個微小契機。這樣的說法或許帶有強烈的反諷意味,但正因生成式AI的擴張本身隱含風險,它反而可能成為促使我們重新審視注意力經濟的一線希望。

隨著規則式演算法有效推動注意力經濟的「最佳化」,各種扭曲不僅被產生,也逐漸被固化下來。相較之下,生成式AI正試圖以不同的邏輯重新建構媒體環境。這樣的落差,反而成為一個契機,使我們不得不正面重新思考:我們究竟希望建構什麼樣的社會,又應該優先重視哪些價值。在構想注意力經濟「之後」的媒體環境時,關鍵已不只是是否過度信賴AI所帶來的便利,而在於如何建構AI、演算法與人類介入之間關係的社會性選擇。

標題圖片:OpenAI 執行長山姆.奧特曼於會議中發言。2025年6月2日,美國舊金山(時事)。

人工智慧 AI 數位社會