Plateforme_AI_embarqu-e_sur_Rock_Pi_5-LLaMa-autonome-
声明:资源链接索引至第三方,平台不作任何存储,仅提供信息检索服务,若有版权问题,请https://help.coders100.com提交工单反馈
在Rock Pi 5板上,我们可以通过以下步骤实现Whisper-Llama2-Piper的推理:
1. 首先,我们需要安装所需的库和工具。在终端中运行以下命令:
```
sudo apt-get update
sudo apt-get install python3 python3-pip
sudo apt-get install libgradio-dev
sudo apt-get install libnpu-dev
```
2. 然后,我们需要下载并安装Whisper、Llama2和Piper的Python库。在终端中运行以下命令:
```
pip3 install whisper
pip3 install llama2
pip3 install piper
```
3. 接下来,我们需要创建一个名为`whisper_llama2_pipe.py`的文件,并在其中编写以下代码:
4. 最后,我们需要将Whisper、Llama2和Piper的Python库添加到gradio服务器中。在终端中运行以下命令:
```
gradio --port=8889 --host=0.0.0.0 --loglevel=info --verbose --no-browser --no-server whistlerllama2pipe.py
```
现在,你可以在Rock Pi 5板上运行`whisper_llama2_pipe.py`文件,并通过gradio服务器与Whisper-Llama2-Piper推理器进行交互。Réalisation d’un démonstrateur sur la carte Rock Pi 5 avec Whisper (Speech-to- Text), Llama2 (sur NPU) et Piper .(Rock PI 5板端进行whisper-llama2(NPU)-piper推理,部署板端模型推理gradio服务器, 部署Llama2 到 rk3588 NPU)
1. 首先,我们需要安装所需的库和工具。在终端中运行以下命令:
```
sudo apt-get update
sudo apt-get install python3 python3-pip
sudo apt-get install libgradio-dev
sudo apt-get install libnpu-dev
```
2. 然后,我们需要下载并安装Whisper、Llama2和Piper的Python库。在终端中运行以下命令:
```
pip3 install whisper
pip3 install llama2
pip3 install piper
```
3. 接下来,我们需要创建一个名为`whisper_llama2_pipe.py`的文件,并在其中编写以下代码:
import numpy as np
from gradio import Gradio
from gradio.inputs import Input, Output
from gradio.interface import IGRadioInterface
from llama2 import Llama2
from piper import Piper
class WhisperLLama2Pipe(IGRadioInterface):
def __init__(self, model_path, npu_model_path):
super().__init__()
self.model_path = model_path
self.npu_model_path = npu_model_path
self.llama2 = Llama2(npu_model_path)
self.pipe = Piper()
def run(self):
# 获取输入数据
input_data = self.inputs.text
# 对输入数据进行预处理
input_data = input_data.lower().replace(' ', '')
# 使用Whisper模型将输入数据转换为文本
output_text = self.model_path + '/whisper'(input_data)
# 使用Llama2模型将输出文本转换为NPU模型所需的格式
output_npu = self.llama2.convert(output_text)
# 使用Piper模型将NPU模型转换为Rock Pi 5板端模型所需的格式
output_rockpi = self.pipe.convert(output_npu)
return output_rockpi
if __name__ == '__main__':
model_path = 'whisper_model.h5'
npu_model_path = 'whisper_npu_model.bin'
radio = WhisperLLama2Pipe(model_path, npu_model_path)
radio.launch()
4. 最后,我们需要将Whisper、Llama2和Piper的Python库添加到gradio服务器中。在终端中运行以下命令:
```
gradio --port=8889 --host=0.0.0.0 --loglevel=info --verbose --no-browser --no-server whistlerllama2pipe.py
```
现在,你可以在Rock Pi 5板上运行`whisper_llama2_pipe.py`文件,并通过gradio服务器与Whisper-Llama2-Piper推理器进行交互。Réalisation d’un démonstrateur sur la carte Rock Pi 5 avec Whisper (Speech-to- Text), Llama2 (sur NPU) et Piper .(Rock PI 5板端进行whisper-llama2(NPU)-piper推理,部署板端模型推理gradio服务器, 部署Llama2 到 rk3588 NPU)
-
CatmullClarkSubdivision
- 2025-07-12 09:02:16访问
- 积分:1
-
YubaMeshApp
- 2025-07-12 09:01:41访问
- 积分:1
-
NURBS_equidistance_curves
- 2025-07-12 08:09:26访问
- 积分:1
-
parpers_recurrence
- 2025-07-12 08:08:56访问
- 积分:1
-
CleanArchitecture
- 2025-07-12 07:47:18访问
- 积分:1
-
Sql2Graph
- 2025-07-12 07:46:43访问
- 积分:1
-
DPConnnect
- 2025-07-12 07:31:23访问
- 积分:1
-
dpc_linux
- 2025-07-12 07:30:49访问
- 积分:1
-
test
- 2025-07-12 07:21:20访问
- 积分:1
-
OpenCV
- 2025-07-12 07:20:43访问
- 积分:1
-
FreeVerb
- 2025-07-12 06:41:21访问
- 积分:1
-
stknx
- 2025-07-12 06:40:44访问
- 积分:1
-
moedict-rt
- 2025-07-12 06:32:19访问
- 积分:1
-
SatoriAI
- 2025-07-12 06:31:50访问
- 积分:1
-
thulogin
- 2025-07-12 06:20:03访问
- 积分:1
-
ntu_esp8266_authentication
- 2025-07-12 06:19:41访问
- 积分:1
-
sort_test
- 2025-07-12 06:14:08访问
- 积分:1
-
Ayuan-source1
- 2025-07-12 06:13:43访问
- 积分:1
-
CSA250
- 2025-07-12 05:54:03访问
- 积分:1
-
matter_sdk
- 2025-07-12 05:53:44访问
- 积分:1
-
Repo-GraphicalComputer
- 2025-07-12 05:29:10访问
- 积分:1
访问申明(访问视为同意此申明)
2.部分网络用户分享TXT文件内容为网盘地址有可能会失效(此类多为视频教程,如发生失效情况【联系客服】自助退回)
3.请多看看评论和内容介绍大数据情况下资源并不能保证每一条都是完美的资源
4.是否访问均为用户自主行为,本站只提供搜索服务不提供技术支持,感谢您的支持