• <li id="00i08"><input id="00i08"></input></li>
  • <sup id="00i08"><tbody id="00i08"></tbody></sup>
    <abbr id="00i08"></abbr>
  • 新聞中心

    EEPW首頁 > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 什么時(shí)候應(yīng)該使用RAG、TAG和RAFT AI?

    什么時(shí)候應(yīng)該使用RAG、TAG和RAFT AI?

    作者: 時(shí)間:2025-09-14 來源: 收藏

    檢索增強(qiáng)生成 () 和表增強(qiáng)生成 () 都是提高人工智能 () 利用外部數(shù)據(jù)生成準(zhǔn)確且相關(guān)信息的能力的技術(shù)。其他選擇包括檢索增強(qiáng)微調(diào) () 和檢索中心生成 (RCG)。

    了解何時(shí)使用 和 RCG 對(duì)于成功和高效的 實(shí)施至關(guān)重要。所有這些都專注于提高大型語言模型 (LLM) 的性能。LLM 根據(jù)可能過時(shí)或不完整的訓(xùn)練數(shù)據(jù)生成響應(yīng)。 和 RCG 是解決這些限制的方法。

    RAG 專注于從文檔和網(wǎng)頁等非結(jié)構(gòu)化數(shù)據(jù)源檢索和合并信息。TAG 專注于查詢和利用數(shù)據(jù)庫中的結(jié)構(gòu)化數(shù)據(jù)。

    RAG 首先添加原始訓(xùn)練數(shù)據(jù)集之外的新信息,這些信息通常從外部來源收集。提交查詢后,它會(huì)轉(zhuǎn)換為向量表示形式,就像通用 LLM 的作一樣。向量表示與知識(shí)數(shù)據(jù)庫中存儲(chǔ)的向量相匹配。

    LLM 本質(zhì)上是不確定的,可能不會(huì)為給定查詢生成相同的輸出。需要及時(shí)工程來產(chǎn)生一致的響應(yīng)。在 RAG 中,提示工程用于合并相關(guān)的外部數(shù)據(jù),以增強(qiáng)模型的上下文理解,目標(biāo)是生成更詳細(xì)和(希望)富有洞察力的響應(yīng)。

    最佳 RAG作的關(guān)鍵是通過定期更新使外部數(shù)據(jù)庫盡可能保持最新狀態(tài)。這使系統(tǒng)能夠提供最相關(guān)的響應(yīng),即使沒有耗時(shí)且昂貴的培訓(xùn)更新(圖 1)。

    圖 1.RAG作流程圖。(圖片:GeeksforGeeks)

    TAG 如何運(yùn)作?

    雖然 RAG 對(duì)于訪問原始訓(xùn)練數(shù)據(jù)集中不存在的信息特別有用,但 TAG 可用于增強(qiáng)搜索引擎功能等應(yīng)用,特別是在涉及結(jié)構(gòu)化數(shù)據(jù)和復(fù)雜查詢的場(chǎng)景中。TAG 通過一系列步驟實(shí)現(xiàn)(圖 2)。

    • 例如,用戶向搜索引擎提交查詢。

    • 系統(tǒng)識(shí)別并檢索相關(guān)數(shù)據(jù),可能使用 SQL 查詢?cè)诒砘驍?shù)據(jù)庫中查找特定信息。

    • 提示工程用于將檢索到的數(shù)據(jù)合并到用戶查詢中,從而創(chuàng)建更詳細(xì)的“增強(qiáng)提示”。

    • LLM 使用增強(qiáng)的提示來生成比僅使用原始查詢更精確、更集中的響應(yīng)。

    圖 2.TAG 實(shí)現(xiàn)和數(shù)據(jù)流的示例。(圖片:K2view)

    TAG 比 RAG 更適合查詢數(shù)據(jù)庫和根據(jù)多個(gè)條件過濾數(shù)據(jù)等應(yīng)用程序。TAG 的計(jì)算強(qiáng)度低于 RAG,在處理大型數(shù)據(jù)集和復(fù)雜查詢時(shí)效率更高。

    改進(jìn) RAG

    RAFT 和 RAG 都是利用外部知識(shí)來提高 LLM 性能的方法。RAG 將外部數(shù)據(jù)源動(dòng)態(tài)集成到 LLM 的響應(yīng)生成過程中。

    微調(diào)是 LLM 本身的一種持續(xù)改進(jìn)。RAFT 涉及對(duì) LLM 的額外培訓(xùn),以提高其在特定任務(wù)或特定領(lǐng)域的表現(xiàn)。該過程修改了法學(xué)碩士的內(nèi)部參數(shù),以更好地與特定任務(wù)的細(xì)微差別保持一致。

    RAFT 在涉及動(dòng)態(tài)信息環(huán)境和需要細(xì)致響應(yīng)的應(yīng)用程序的情況下特別有用。然而,它需要高質(zhì)量的數(shù)據(jù)并且計(jì)算要求很高。如果實(shí)施不當(dāng),可能會(huì)導(dǎo)致以前學(xué)過的常識(shí)的丟失,稱為災(zāi)難性遺忘。

    以檢索為中心的生成

    RCG 是提高 LLM 性能的另一種方法。它特別用于解釋復(fù)雜的索引或特選數(shù)據(jù)。RAG 和 RCG 都可用于在推理過程中從特選源獲取信息。雖然模型是 RAG 中的主要信息源,并得到增量數(shù)據(jù)的幫助,但在 RCG 中,大多數(shù)數(shù)據(jù)都是模型外部的。

    RCG 沒有增強(qiáng) LLM 性能,而是專注于確定數(shù)據(jù)的優(yōu)先級(jí)以限制響應(yīng)(圖 3)。

    • RAG 專為需要將常識(shí)與外部數(shù)據(jù)源中的特定信息相結(jié)合并回答復(fù)雜問題的任務(wù)而設(shè)計(jì)。

    • RCG 經(jīng)過優(yōu)化,可保持原始信息的上下文、風(fēng)格和準(zhǔn)確性,例如摘要、釋義或創(chuàng)建一致的內(nèi)容。

    圖 3.RAG 和 RCG LLM 實(shí)現(xiàn)的比較。(圖片:英特爾實(shí)驗(yàn)室)

    總結(jié)

    RAG 旨在使用來自非結(jié)構(gòu)化數(shù)據(jù)源(如文檔和網(wǎng)頁)的信息。TAG 專注于查詢和利用來自表或數(shù)據(jù)庫等來源的結(jié)構(gòu)化數(shù)據(jù)。RAG 的擴(kuò)展包括 RAFT,它為 LLM 提供額外的訓(xùn)練,以提高其在特定任務(wù)或特定領(lǐng)域的性能,以及 RCG,它保持原始信息的上下文、風(fēng)格和準(zhǔn)確性。



    關(guān)鍵詞: RAG TAG RAFT AI

    評(píng)論


    相關(guān)推薦

    技術(shù)專區(qū)

    關(guān)閉
    主站蜘蛛池模板: 汤原县| 胶南市| 工布江达县| 太原市| 延边| 北辰区| 龙陵县| 阿克苏市| 绥宁县| 都昌县| 会宁县| 克东县| 稷山县| 长治市| 大埔区| 南投市| 波密县| 安陆市| 江山市| 桂东县| 泉州市| 古蔺县| 栾川县| 台江县| 磐石市| 肇源县| 宾阳县| 濮阳市| 淄博市| 鄂温| 北海市| 栖霞市| 平乡县| 合阳县| 鹤岗市| 贵定县| 东台市| 张家港市| 资源县| 汾西县| 新蔡县|