外貿(mào)網(wǎng)站如何做的好處成都網(wǎng)站制作費(fèi)用
文章目錄
- 前言
- 一、前提條件
- 安裝環(huán)境
- Python 安裝
- 安裝依賴,使用工業(yè)預(yù)訓(xùn)練模型
- 最后安裝 - torch
- 1. 安裝前查看顯卡支持的最高CUDA的版本,以便下載`torch `對(duì)應(yīng)的版本的安裝包。torch 中的CUDA版本要低于顯卡最高的CUDA版本。
- 2. 前往網(wǎng)站下載[Pytorch](https://pytorch.org/get-started/locally/)
- 二、使用步驟
- 總結(jié)
前言
python本地離線跑模型,需要下載許多依賴以及依賴版本都要互相對(duì)應(yīng)。本文總結(jié)從0到1到運(yùn)行funasr的過(guò)程。希望幫助友友們,能夠快速上手,避免浪費(fèi)時(shí)間在環(huán)境和依賴版本的校對(duì)上。
一、前提條件
安裝環(huán)境
倉(cāng)庫(kù)
可以看到一些前提條件
python>=3.8
torch>=1.13
torchaudio
Python 安裝
3.8 比較舊了,這里我取中間,安裝 Python3.11
- 下載地址python 3.11
- 詳細(xì)步驟:參考保姆教程
安裝依賴,使用工業(yè)預(yù)訓(xùn)練模型
pip3 install -U modelscope huggingface
最后安裝 - torch
1. 安裝前查看顯卡支持的最高CUDA的版本,以便下載torch
對(duì)應(yīng)的版本的安裝包。torch 中的CUDA版本要低于顯卡最高的CUDA版本。
nvidia-smi.exe
如果你發(fā)現(xiàn)你的CUDA是10.1或者11以下比較舊的,建議升級(jí)下顯卡驅(qū)動(dòng)就可以了。
2. 前往網(wǎng)站下載Pytorch
由于我最高支持12.6
所以我這里下載12.4
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
如果你像下面被限速了
科學(xué)就行,最好重新打開終端。
二、使用步驟
from funasr import AutoModel
model = AutoModel(model="paraformer-zh", vad_model="fsmn-vad", punc_model="ct-punc" )
res = model.generate(input="demo.mp3", batch_size_s=300, hotword='魔搭')
print(res)
源音頻URL對(duì)比
[{'key': 'demo', 'text': '是有哪些學(xué)校的GPA特別難拿?行,我跟大家盤一盤吧,也剛好避一個(gè)坑。那第一個(gè)說(shuō)一說(shuō)BU吧,它處于波士頓的核心地帶,常年都會(huì)在這個(gè)final最難的幾所美國(guó)大學(xué)的排行榜上榜上有名。還有呢,就是像這個(gè)MIT申請(qǐng)的時(shí)候,難度也就特別高,考試難度拿GP的難度也非常高。還有呢就是像普林斯頓,雖然說(shuō)很多藤校會(huì)有GPA inflation,但是呢普林斯頓在這一點(diǎn)上卡的很嚴(yán)嚴(yán),我們 的GPA一點(diǎn)活路都不留。還有呢就是像普渡大學(xué)工科相關(guān)的專業(yè),學(xué)起來(lái)難度也比較大。還有就是哈維姆德,它其實(shí)是一個(gè)科學(xué)和工程專業(yè)的強(qiáng)校,錄取難度也很高,讀下來(lái)拿高GP的難度也很高。', 'timestamp': [[130, 310], [310, 430], [430, 670], [730, 830], [830, 950], [950, 1070], [1070, 1190], [1190, 1550], [1550, 1630], [1630, 1730], [1730, 1970], [2450, 2690], [2690, 2810], [2810, 2930], [2930, 3050], [3050, 3130], [3130, 3290], [3290, 3410], [3410, 3590], [3590, 3710], [3710, 3830], [3830, 3950], [3950, 4070], [4070, 4190], [4190, 4310], [4310, 4410], [4410, 4650], [4650, 4770], [4770, 4890], [4890, 5010], [5010, 5210], [5210, 5310], [5310, 5430], [5430, 5610], [5610, 5790], [5790, 6210], [6210, 6450], [6510, 6690], [6690, 6930], [6930, 7050], [7050, 7170], [7170, 7290], [7290, 7430], [7430, 7510], [7510, 7710], [7710, 7870], [7870, 8070], [8070, 8290], [8290, 8530], [8550, 8650], [8650, 8830], [8830, 9070], [9090, 9190], [9190, 9290], [9290, 9490], [9490, 9970], [9970, 10210], [10210, 10450], [10470, 10630], [10630, 10850], [10850, 10990], [10990, 11190], [11190, 11350], [11350, 11470], [11470, 11610], [11610, 11710], [11710, 11890], [11890, 12130], [12130, 12330], [12330, 12490], [12490, 12610], [12610, 12790], [12790, 13030], [13090, 13170], [13170, 13330], [13330, 13450], [13450, 13570], [13570, 13650], [13650, 13850], [13850, 13990], [13990, 14110], [14110, 14230], [14230, 14950], [14950, 15070], [15070, 15210], [15210, 15310], [15310, 15430], [15430, 15550], [15550, 15670], [15670, 15770], [15770, 15910], [15910, 16010], [16010, 16129], [16129, 16370], [16510, 16610], [16610, 16810], [16810, 17030], [17030, 17150], [17150, 17350], [17350, 17450], [17450, 17670], [17670, 17790], [17790, 17890], [17890, 18010], [18010, 18210], [18210, 18310], [18310, 18550], [18550, 18730], [18730, 18850], [18850, 19030], [19030, 19150], [19150, 19270], [19270, 19350], [19350, 19530], [19530, 19630], [19630, 19770], [19770, 19930], [19930, 20130], [20130, 20290], [20290, 20470], [20470, 20710], [20750, 20890], [20890, 21090], [21090, 21250], [21250, 21490], [21630, 21790], [21790, 22030], [22150, 22530], [22530, 23170], [23250, 23410], [23410, 23570], [23570, 23710], [23710, 23810], [23810, 23990], [23990, 24170], [24170, 24410], [24490, 24730], [24790, 24950], [24950, 25070], [25070, 25310], [25310, 25510], [25510, 25610], [25610, 25730], [25730, 25850], [25850, 26090], [26230, 26390], [26390, 26470], [26470, 26570], [26570, 26650], [26650, 27070], [27070, 27170], [27170, 27350], [27350, 27470], [27470, 27650], [27650, 27770], [27770, 27850], [27850, 28090], [28210, 28310], [28310, 28490], [28490, 28610], [28610, 28730], [28730, 28810], [28810, 29050], [29050, 29210], [29210, 29410], [29410, 29570], [29570, 29810], [29930, 30050], [30050, 30250], [30250, 30470], [30470, 30650], [30650, 30790], [30790, 30890], [30890, 31130], [31150, 31310], [31310, 31430], [31430, 31570], [31570, 31730], [31730, 31850], [31850, 31970], [31970, 32070], [32070, 32189], [32189, 32430], [32470, 32549], [32549, 32730], [32730, 32830], [32830, 32910], [32910, 33030], [33030, 33210], [33210, 33390], [33390, 33630], [33770, 33910], [33910, 34050], [34050, 34230], [34230, 34330], [34330, 34410], [34410, 34610], [34610, 34830], [34830, 35010], [35010, 35230], [35230, 35430], [35430, 35670], [35710, 35850], [35850, 36030], [36030, 36170], [36170, 36410], [36450, 36690], [36950, 37050], [37050, 37230], [37230, 37350], [37350, 37470], [37470, 37650], [37650, 37770], [37770, 38010], [38070, 38190], [38190, 38310], [38310, 38490], [38490, 38610], [38610, 38810], [38810, 39090], [39090, 39210], [39210, 39310], [39310, 39410], [39410, 39590], [39590, 39710], [39710, 40015]]}]
總結(jié)
以上是使用Python跑 funasr
模型的過(guò)程。
總的來(lái)說(shuō)就是 torch
安裝需要對(duì)應(yīng)你的顯卡版本,要小于你的顯卡CUDA最大支持版本。
后續(xù)會(huì)記錄Python爬取抖音主頁(yè)的數(shù)據(jù),拿到點(diǎn)贊量及無(wú)水印視頻等。