Skip to content

羊驼桌面应用 A Desktop Application To Talk with Ollama3.x

Notifications You must be signed in to change notification settings

zhaozihaoTYUT/ollama_py_window

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

6 Commits
 
 
 
 
 
 

Repository files navigation

ollama_py_window


羊驼桌面应用 A Desktop Application To Talk with Ollama3.x

实际上就是为了代替 OpenWebUI + Docker。只是一个前端交互工具,仍然需要下载和安装 Ollama

alt text

为什么不用 OpenWebUI + Docker 的方式

Docker 需要虚拟平台功能支持,和华为 eNSP 有冲突必须关掉,但是又要用 eNSP 做实验,还想本地部署 Ollama,所以就没事的时候写了一个。

部署方式

1.安装 Ollama

alt text

2.获取 llama3.2:3b 模型

ollama run llama3.2:3b  /* 第一次运行会自动下载 */

alt text

3.运行 app.py

alt text

仍然是半成品,先不打包了

About

羊驼桌面应用 A Desktop Application To Talk with Ollama3.x

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages