自己有服務(wù)器和域名怎么做網(wǎng)站谷歌seo培訓(xùn)
搭建一個(gè)本地中文大語(yǔ)言模型(LLM)涉及多個(gè)關(guān)鍵步驟,從選擇模型底座,到運(yùn)行機(jī)器和框架,再到具體的架構(gòu)實(shí)現(xiàn)和訓(xùn)練方式。以下是一個(gè)詳細(xì)的指南,幫助你從零開(kāi)始構(gòu)建和運(yùn)行一個(gè)中文大語(yǔ)言模型。
本地離線模型搭建指南將按照以下四個(gè)部分展開(kāi)
- 中文大語(yǔ)言模型底座選擇依據(jù)
- 本地運(yùn)行顯卡選擇
- RAG架構(gòu)實(shí)現(xiàn)
- LLaMA-Factory訓(xùn)練框架及工具
3 RAG架構(gòu)實(shí)現(xiàn)
3.1 什么是RAG
檢索增強(qiáng)生成(Retrieval Augmented Generation, RAG) 是當(dāng)前最熱門(mén)的大語(yǔ)言模型(LLM)應(yīng)用方案之一。RAG結(jié)合了信息檢索和生成模型的優(yōu)勢(shì),旨在增強(qiáng)生成式模型的知識(shí)覆蓋和輸出準(zhǔn)確性。
3.2 為什么使用RAG
使用RAG的主要原因有以下幾點(diǎn):
- 知識(shí)的局限性:
- 現(xiàn)有的大模型(如ChatGPT、文心一言、通義千問(wèn)等)的知識(shí)來(lái)源于它們的訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)主要是公開(kāi)的網(wǎng)絡(luò)數(shù)據(jù)。
- 對(duì)于一些實(shí)時(shí)性、非公開(kāi)或離線的數(shù)據(jù),大模型無(wú)法直接獲取和使用。
- 幻覺(jué)問(wèn)題:
- 大模型的輸出基于數(shù)學(xué)概率,有時(shí)會(huì)出現(xiàn)“幻覺(jué)”——即生成看似合理但實(shí)際上錯(cuò)誤的回答。
- 這種問(wèn)題難以區(qū)分,尤其是在用戶(hù)不具備相關(guān)領(lǐng)域知識(shí)的情況下。
- 數(shù)據(jù)安全性:
- 企業(yè)非常注重?cái)?shù)據(jù)安全,不愿意將私有數(shù)據(jù)上傳到第三方平臺(tái)進(jìn)行訓(xùn)練。
- 使用通用大模型可能會(huì)在數(shù)據(jù)安全和效果之間產(chǎn)生取舍。
RAG通過(guò)結(jié)合檢索和生成的方式,能夠有效解決上述問(wèn)題。
3.3 RAG架構(gòu)
RAG架構(gòu)主要包括以下幾個(gè)部分:
- 向量化:
- 將文本數(shù)據(jù)轉(zhuǎn)化為向量矩陣,這個(gè)過(guò)程會(huì)直接影響后續(xù)檢索的效果。
- 常見(jiàn)的embedding模型包括BERT、RoBERTa等,可以滿(mǎn)足大部分需求。
- 對(duì)于特殊場(chǎng)景,可以選擇微調(diào)現(xiàn)有的開(kāi)源embedding模型,或直接訓(xùn)練適合自己場(chǎng)景的模型。
- 數(shù)據(jù)入庫(kù):
- 數(shù)據(jù)向量化后構(gòu)建索引,并寫(xiě)入數(shù)據(jù)庫(kù)。
- 適用于RAG場(chǎng)景的數(shù)據(jù)庫(kù)包括FAISS、ChromaDB、Elasticsearch(ES)、Milvus等。
- 選擇合適的數(shù)據(jù)庫(kù)時(shí),需要綜合考慮業(yè)務(wù)場(chǎng)景、硬件和性能需求等因素。
- 檢索模塊:
- 在用戶(hù)提出問(wèn)題時(shí),首先檢索相關(guān)的文檔或信息片段。
- 這些檢索到的信息將作為生成模型的輔助輸入。
- 生成模塊:
- 利用檢索到的信息和用戶(hù)輸入的問(wèn)題,生成更加準(zhǔn)確和相關(guān)的回答。
- 生成模型可以是預(yù)訓(xùn)練的大語(yǔ)言模型,如GPT-3等。
3.4 RAG的工作流程
- 用戶(hù)輸入問(wèn)題。
- 檢索模塊從數(shù)據(jù)庫(kù)中檢索相關(guān)信息。
- 生成模塊結(jié)合用戶(hù)輸入和檢索到的信息生成答案。
- 返回生成的答案給用戶(hù)。
通過(guò)這種方式,RAG不僅能利用大模型的強(qiáng)大生成能力,還能結(jié)合實(shí)時(shí)、私有的數(shù)據(jù)源,提供更加精準(zhǔn)和安全的解決方案。
3.5 embedding模型鏈接
模型名稱(chēng) | 描述 | 獲取地址 |
---|---|---|
ChatGPT-Embedding | ChatGPT-Embedding由OpenAI公司提供,以接口形式調(diào)用。 | https://platform.openai.com/docs/guides/embeddings/what-are-embeddings |
ERNIE-Embedding V1 | ERNIE-Embedding V1由百度公司提供,依賴(lài)于文心大模型能力,以接口形式調(diào)用。 | https://cloud.baidu.com/doc/WENXINWORKSHOP/s/alj562vvu |
M3E | M3E是一款功能強(qiáng)大的開(kāi)源Embedding模型,包含m3e-small、m3e-base、m3e-large等多個(gè)版本,支持微調(diào)和本地部署。 | https://huggingface.co/moka-ai/m3e-base |
BGE | BGE由北京智源人工智能研究院發(fā)布,同樣是一款功能強(qiáng)大的開(kāi)源Embedding模型,包含了支持中文和英文的多個(gè)版本,同樣支持微調(diào)和本地部署。 | https://huggingface.co/BAAI/bge-base-en-v1.5 |
更多詳細(xì)信息和具體模型的鏈接,請(qǐng)?jiān)L問(wèn)
【關(guān)于NLP】那些你不知道的事
大模型RAG問(wèn)答技術(shù)架構(gòu)及核心模塊:從Embedding、prompt-embedding到Reranker
RAG技術(shù)全解析:打造下一代智能問(wèn)答系統(tǒng)
RAG 與微調(diào)在大模型應(yīng)用中如何抉擇