什么時(shí)候應(yīng)該使用RAG、TAG和RAFT AI?
檢索增強(qiáng)生成 (RAG) 和表增強(qiáng)生成 (TAG) 都是提高人工智能 (AI) 利用外部數(shù)據(jù)生成準(zhǔn)確且相關(guān)信息的能力的技術(shù)。其他選擇包括檢索增強(qiáng)微調(diào) (RAFT) 和檢索中心生成 (RCG)。
了解何時(shí)使用 RAG、TAG、RAFT 和 RCG 對(duì)于成功和高效的 AI 實(shí)施至關(guān)重要。所有這些都專注于提高大型語言模型 (LLM) 的性能。LLM 根據(jù)可能過時(shí)或不完整的訓(xùn)練數(shù)據(jù)生成響應(yīng)。RAG、TAG、RAFT 和 RCG 是解決這些限制的方法。
RAG 專注于從文檔和網(wǎng)頁等非結(jié)構(gòu)化數(shù)據(jù)源檢索和合并信息。TAG 專注于查詢和利用數(shù)據(jù)庫中的結(jié)構(gòu)化數(shù)據(jù)。
RAG 首先添加原始訓(xùn)練數(shù)據(jù)集之外的新信息,這些信息通常從外部來源收集。提交查詢后,它會(huì)轉(zhuǎn)換為向量表示形式,就像通用 LLM 的作一樣。向量表示與知識(shí)數(shù)據(jù)庫中存儲(chǔ)的向量相匹配。
LLM 本質(zhì)上是不確定的,可能不會(huì)為給定查詢生成相同的輸出。需要及時(shí)工程來產(chǎn)生一致的響應(yīng)。在 RAG 中,提示工程用于合并相關(guān)的外部數(shù)據(jù),以增強(qiáng)模型的上下文理解,目標(biāo)是生成更詳細(xì)和(希望)富有洞察力的響應(yīng)。
最佳 RAG作的關(guān)鍵是通過定期更新使外部數(shù)據(jù)庫盡可能保持最新狀態(tài)。這使系統(tǒng)能夠提供最相關(guān)的響應(yīng),即使沒有耗時(shí)且昂貴的培訓(xùn)更新(圖 1)。
圖 1.RAG作流程圖。(圖片:GeeksforGeeks)
TAG 如何運(yùn)作?
雖然 RAG 對(duì)于訪問原始訓(xùn)練數(shù)據(jù)集中不存在的信息特別有用,但 TAG 可用于增強(qiáng)搜索引擎功能等應(yīng)用,特別是在涉及結(jié)構(gòu)化數(shù)據(jù)和復(fù)雜查詢的場(chǎng)景中。TAG 通過一系列步驟實(shí)現(xiàn)(圖 2)。
例如,用戶向搜索引擎提交查詢。
系統(tǒng)識(shí)別并檢索相關(guān)數(shù)據(jù),可能使用 SQL 查詢?cè)诒砘驍?shù)據(jù)庫中查找特定信息。
提示工程用于將檢索到的數(shù)據(jù)合并到用戶查詢中,從而創(chuàng)建更詳細(xì)的“增強(qiáng)提示”。
LLM 使用增強(qiáng)的提示來生成比僅使用原始查詢更精確、更集中的響應(yīng)。
圖 2.TAG 實(shí)現(xiàn)和數(shù)據(jù)流的示例。(圖片:K2view)
TAG 比 RAG 更適合查詢數(shù)據(jù)庫和根據(jù)多個(gè)條件過濾數(shù)據(jù)等應(yīng)用程序。TAG 的計(jì)算強(qiáng)度低于 RAG,在處理大型數(shù)據(jù)集和復(fù)雜查詢時(shí)效率更高。
改進(jìn) RAG
RAFT 和 RAG 都是利用外部知識(shí)來提高 LLM 性能的方法。RAG 將外部數(shù)據(jù)源動(dòng)態(tài)集成到 LLM 的響應(yīng)生成過程中。
微調(diào)是 LLM 本身的一種持續(xù)改進(jìn)。RAFT 涉及對(duì) LLM 的額外培訓(xùn),以提高其在特定任務(wù)或特定領(lǐng)域的表現(xiàn)。該過程修改了法學(xué)碩士的內(nèi)部參數(shù),以更好地與特定任務(wù)的細(xì)微差別保持一致。
RAFT 在涉及動(dòng)態(tài)信息環(huán)境和需要細(xì)致響應(yīng)的應(yīng)用程序的情況下特別有用。然而,它需要高質(zhì)量的數(shù)據(jù)并且計(jì)算要求很高。如果實(shí)施不當(dāng),可能會(huì)導(dǎo)致以前學(xué)過的常識(shí)的丟失,稱為災(zāi)難性遺忘。
以檢索為中心的生成
RCG 是提高 LLM 性能的另一種方法。它特別用于解釋復(fù)雜的索引或特選數(shù)據(jù)。RAG 和 RCG 都可用于在推理過程中從特選源獲取信息。雖然模型是 RAG 中的主要信息源,并得到增量數(shù)據(jù)的幫助,但在 RCG 中,大多數(shù)數(shù)據(jù)都是模型外部的。
RCG 沒有增強(qiáng) LLM 性能,而是專注于確定數(shù)據(jù)的優(yōu)先級(jí)以限制響應(yīng)(圖 3)。
RAG 專為需要將常識(shí)與外部數(shù)據(jù)源中的特定信息相結(jié)合并回答復(fù)雜問題的任務(wù)而設(shè)計(jì)。
RCG 經(jīng)過優(yōu)化,可保持原始信息的上下文、風(fēng)格和準(zhǔn)確性,例如摘要、釋義或創(chuàng)建一致的內(nèi)容。
圖 3.RAG 和 RCG LLM 實(shí)現(xiàn)的比較。(圖片:英特爾實(shí)驗(yàn)室)
總結(jié)
RAG 旨在使用來自非結(jié)構(gòu)化數(shù)據(jù)源(如文檔和網(wǎng)頁)的信息。TAG 專注于查詢和利用來自表或數(shù)據(jù)庫等來源的結(jié)構(gòu)化數(shù)據(jù)。RAG 的擴(kuò)展包括 RAFT,它為 LLM 提供額外的訓(xùn)練,以提高其在特定任務(wù)或特定領(lǐng)域的性能,以及 RCG,它保持原始信息的上下文、風(fēng)格和準(zhǔn)確性。
評(píng)論