關閉選單
研究稱谷歌的人工智慧概述引用了人工智慧編寫的網頁
報導摘要

隨著Google將人工智慧概覽(AIO)整合到其搜尋結果中,人們的資訊獲取方式正經歷著一場巨大的變革。AIO旨在透過AI技術,直接提供問題的簡潔摘要,而非僅僅列出網頁連結。然而,一項由AI內容偵測公司 Originality.ai發布的最新報告卻揭示了一個令人不安的現象:Google的AI正在「學習」並引述其他AI生成的內容,這可能會對網路資訊的品質和可信度造成深遠影響。

報告指出,谷歌的人工智慧概覽(AIO)現在經常出現在自然搜尋結果的頂部,根據最近的一份報告,其約10%的資料來源來自其他人工智慧編寫的文檔,這意味著一個 AI 正在藉用另一個 AI 的輸出,這可能會導致重複的想法和偏見的回音室效應

Originality.ai 的研究分析了29,000個關於「你的金錢或你的生活」(YMYL)的高風險查詢,發現在這些重要的搜尋領域中,超過10%的AIO引文可能來自大型語言模型(LLM)的輸出。這引發了嚴重的信任問題,因為YMYL類別涉及金融、健康和法律等與個人安全和福祉直接相關的資訊。


AI內容循環與遞歸循環

這種「AI引述AI」的現象所帶來的核心問題,在於它可能形成一種內容的「回音室效應」。當一個AI模型在學習時,如果大量借用其他AI的產出,其結果將會不斷重複、強化現有的想法,並可能放大潛在的偏見,而非從多元且獨立的人類作者內容中學習。這就像是在一個封閉的房間裡不斷重複相同的聲音,最終會失去其原有的真實性和多樣性。

此外,這也可能導致「模型崩潰」(model collapse)的退化過程。當AI模型開始主要從被污染的資料(即由其他AI生成的內容)中學習時,其輸出的品質將會逐漸下降,生成內容的準確性、原創性和深度都將會受到影響。

Originality.ai 行銷總監 Madeleine Lambert 透過電子郵件告訴The Register:「在高風險領域,即使只有一小部分 AI 產生的引文,也會引起信任和可靠性方面的擔憂。」「雖然 AI 摘要不會直接用於訓練數據,但對 AI 編寫的內容進行過度採樣,使得這些輸出可能會被回收用於未來的模型,這可能會形成一個遞歸循環」。

Lambert的觀點揭示了一個深層的擔憂:即使Google聲稱其AIO摘要不會直接用於訓練未來的模型,但若這些內容被大量採樣並在網路上廣泛傳播,未來的新模型仍有可能將這些被污染的內容納入其訓練資料庫,從而形成一個無休止的「遞歸循環」。在這個循環中,AI會不斷地從自己或其他AI的產出中學習,最終導致資訊的品質螺旋式下降。


對資訊可信度的衝擊

儘管Google對Originality.ai的偵測技術準確性提出質疑,但這份報告所提出的問題不容忽視。這起事件提醒我們,在享受AI技術帶來的便利時,也必須審慎看待其潛在的風險。當AI成為資訊的主要來源,其內容的可靠性與獨立性至關重要。

這起事件對於所有內容創作者和資訊消費者都是一個警鐘。它促使我們思考:在一個AI內容不斷增長的網路世界中,如何確保資訊的真實性?如何建立一個可信賴的資訊生態系統?唯有透過更嚴格的內容來源審核、發展更先進的AI內容偵測技術,並鼓勵原創與獨立思考,才能有效應對這場由AI內容循環所引發的資訊可信度危機。


資料來源:https://www.theregister.com/2025/09/07/googles_ai_cites_written_by_ai/
揭露Google人工智慧概覽(AIO)的資料來源,有部分來自其他AI生成的內容,可能導致偏見的循環與資訊品質下降,引發人們對AI內容可信度的深層擔憂。