新手做市場分析的網(wǎng)站抖音信息流廣告怎么投放
2月6日·阿里發(fā)布了通義千問1.5版本,包含6個(gè)大小的模型,“Qwen” 指的是基礎(chǔ)語言模型,而 “Qwen-Chat” 則指的是通過后訓(xùn)練技術(shù)如SFT(有監(jiān)督微調(diào))和RLHF(強(qiáng)化學(xué)習(xí)人類反饋)訓(xùn)練的聊天模型。
模型概覽
在此次Qwen1.5版本中,我們開源了包括0.5B、1.8B、4B、7B、14B和72B在內(nèi)的6個(gè)不同規(guī)模的Base和Chat模型,并一如既往地放出了各規(guī)模對應(yīng)的量化模型。
以下是此次更新的一些重點(diǎn):
- 支持 32K 上下文長度;
- 開放了 Base + Chat 模型的 checkpoint;
- 可與 Transformers 一起本地運(yùn)行;
- 同時(shí)發(fā)布了 GPTQ Int-4 / Int8、AWQ 和 GGUF 權(quán)重。
性能評測基礎(chǔ)能力Qwen1.5在多項(xiàng)基準(zhǔn)測試中均展現(xiàn)出優(yōu)異的性能。無論是在語言理解、代碼生成、推理能力,還是在多語言處理和人類偏好對產(chǎn)等方面。
Qwen1.5-72B 在所有基準(zhǔn)測試中都遠(yuǎn)遠(yuǎn)超越了Llama2-70B,展示了其在語言理解、推理和數(shù)學(xué)方面的卓越能力。
多語言能力 挑選來自歐洲、東亞和東南亞的12種不同語言,全面評估Base模型的多語言能力 Qwen1.5 Base模型在12種不同語言的多語言能力方面表現(xiàn)出色,在考試、理解、翻譯和數(shù)學(xué)等各個(gè)維度的評估中,均展現(xiàn)優(yōu)異結(jié),可用于翻譯、語言理解和多語言聊天等下游應(yīng)用。
人類偏好對齊 盡管落后于 GPT-4-Turbo,但最大的 Qwen1.5 模型 Qwen1.5-72B-Chat 在 MT-Bench 和 Alpaca-Eval v2 上都表現(xiàn)出不俗的效果,超過了 Claude-2.1、GPT-3.5-Turbo-0613、Mixtral-8x7b-instruct 和 TULU 2 DPO 70B,與 Mistral Medium 不相上下。
使用Qwen1.5開發(fā)
在于 Qwen1.5 與 HuggingFace transformers 代碼庫的集成。從 4.37.0 版本開始,您可以直接使用 transformers 庫原生代碼,而不加載任何自定義代碼(指定trust_remote_code選項(xiàng))來使用 Qwen1.5,像下面這樣加載模型:
from transformers import AutoModelForCausalLM# This is what we previously usedmodel = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True)# This is what you can use nowmodel=AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-7B-Chat",device_map="auto")
項(xiàng)目地址 GitHub:https://github.com/QwenLM/Qwen1.5