Title: Is ChatGPT Closer to a Human Librarian Than It Is to Google? ChatGPT 會比Google更接近圖書館員嗎?
Author: Chirag Shah Source: GIZMODO, The Future is here, March 19, 2023 https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908
內容摘要:
本文是一位搜尋引擎研究者對以ChatGPT類似工具作為網路搜尋工具所提出的看法。
包括微軟的Bing/ChatGPT、谷歌的Bard和Meta的LLaMA等在內的新一代AI資訊查詢系統,正在顛覆傳統搜索引擎的輸入與輸出模式。這些新系統能夠輸入完整句子或是段落,進而生成個人化的自然語言回應。 ChatGPT和Bard等AI系統建立在大型語言模型之上,它使用大量可用文本(例如Wikipedia and PubMed articles)來學習模式。簡而言之,這些AI模型根據一組單詞或片語,計算出下一個可能出現的字詞,進而生成回應用戶詢問的句子、段落甚至頁面。2023年3月14日OpenAI 推出GPT-4,該技術可同時處理文本和圖像輸入,微軟隨後推出以GPT-4建置的Bing。這種對大量文本訓練與微調的資訊檢索技術非常有效,用戶不僅用它來尋找答案,還用來進行診斷、制定節食計劃和提出投資建議。 雖然大型語言模型生成的輸出看起來很聰明,但也有它的缺點,它只是AI在適當上下文中找到的潛在單詞模式的反映。這種限制使得此類系統容易編造或“幻覺”答案,它的智能不足以理解錯誤的問題假設,卻非得回答錯誤的問題。例如,當被問及百元美鈔上印的是哪位美國總統的臉時,ChatGPT 回答了班傑明·富蘭克林,但富蘭克林未曾是美國總統,ChatGPT無法意識到百元美鈔上有美國總統照片的前提是不正確的。 即使這些系統只有10%的錯誤,但用戶不知道是哪些10%,也無法快速驗證系統的回應。這些系統缺乏透明度,不會透露它們接受過哪些數據訓練、使用哪些來源生成答案及如何生成回應。例如,您可以要求ChatGPT撰寫一篇帶有引用的技術報告,但它會編造這些引用,“幻覺”一些學術論文的標題和作者,但不會驗證這些引用的準確性,用戶須自己驗證,但用戶可能沒有驗證的動機或技能,甚至沒有意識到檢查AI回應的必要性。ChatGPT無法辨識問題有沒有意義,因為它不知道任何事實。 AI系統的缺乏透明度不僅對用戶有害,無法透露其學習來源,對原始內容的作者、藝術家和創作者不公平,在大多數情況下,創作者得不到補償或信用,也沒有機會表示同意。 從經濟角度看,典型搜索引擎的結果顯示會帶有來源鏈接,不僅允許用戶驗證答案並提供來源屬性,還可以為這些站點生成流量,許多來源站點都依賴這種流量來獲得收入。因為大型語言模型系統是直接生成答案,對他們從中提取內容的來源網站,很可能會造成收入來源減少。 AI系統獲取信息的新方式也會削弱用戶的能力並剝奪他們學習的機會。典型的搜索過程允許用戶探索其信息需求的可能性範圍,並觸發他們調整尋找的內容,提供機會讓用戶將各種信息連接起來以完成任務,它允許意外相遇或意外發現,然而,當一個系統不顯示其來源或引導用戶完成一個過程時,它就剝奪了用戶這些可能性。 大型語言模型是資訊取用的一大飛躍,它為人們提供一種自然語言形式的互動、生成個人化的回應、發現一般用戶通常難以想出的答案和模式。由於其學習和建構反應的方式有嚴重的局限性,他們的回答可能是錯誤的、有毒的或有偏見的,更糟糕的是,自然語言響應可能助長一種虛假的信任感和權威感,這對不知情的用戶來說可能是危險的。
圖書館參考組 李素真摘譯
Last Updated:2024/07/31
資訊提供單位:數位資訊組