|
拽詞裝B失敗的典型,,那叫使用rag向量化文檔,。
"RAG" 是 "Retrieval-Augmented Generation" 的縮寫,它是一種結(jié)合了信息檢索(Retrieval)和生成模型(Generation)的技術(shù),。
在傳統(tǒng)的文本生成任務(wù)中,,模型僅基于其訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)測(cè)或生成新的文本。然而,,在某些情況下,,我們希望模型能夠訪問最新的、特定領(lǐng)域的或者更加廣泛的信息來增強(qiáng)其生成的內(nèi)容,。這時(shí),,RAG 就可以派上用場。
首先,,需要將文檔庫中的文檔轉(zhuǎn)換為向量表示,。這一步驟通常使用預(yù)訓(xùn)練的編碼器(比如 BERT 或其他類似的模型),將每個(gè)文檔編碼成一個(gè)固定長度的向量,。這些向量隨后被存儲(chǔ)在一個(gè)高效的索引結(jié)構(gòu)中,,如 FAISS 或 Annoy,以便快速搜索相似的文檔,。
當(dāng)有一個(gè)查詢或者需要生成內(nèi)容時(shí),,該查詢會(huì)被相同的編碼器轉(zhuǎn)化為向量形式。
接下來,,查詢向量會(huì)與文檔庫中的文檔向量進(jìn)行比較,,以找到最相關(guān)的文檔。這個(gè)過程通常是通過計(jì)算余弦相似度或其他距離度量完成的。
檢索到的相關(guān)文檔會(huì)被作為額外的信息提供給生成模型,。這涉及到直接附加到查詢之后,,或者以某種方式融入到生成模型的輸入中。
最后,,生成模型利用查詢以及檢索到的相關(guān)文檔的信息來生成更準(zhǔn)確,、更豐富的響應(yīng)。
問題這些騒操作是普通人能做的了的嗎,,他必須在自家電腦上下載個(gè)LLM,,然后還用高級(jí)顯卡來訓(xùn)練這個(gè)模型。
并且在需要的時(shí)候使用RAG向量文檔,,這不是發(fā)燒友就根本做不到,。
所以我說要講人話,你應(yīng)該知道普通人只可能聯(lián)網(wǎng)使用公有云上的大模型,。 |
|