第一步,部署Ollama

我们先进入Ollama的官网,下载对应操作系统的安装包。下载完成后,直接安装即可,没有任何选项。

https://ollama.com

拉取大模型

在Ollama的官网上可以进入Models页面中查看可以下载的模型,其中Meta的Llama2 7b版本需要大概8GB内存就可以跑起来。如果你条件足够,可以跑13b和70b版本,分别对应16GB和64GB内存。除了Meta的Llama模型,你也可以下载其它的模型。

打开终端CMD,键入如下代码,即可自动下载模型。

ollama run llama2

等待下载完成后,你就可以直接在终端中与大模型进行对话了。怎么样,如此简单你就拥有了一个属于你自己私人的chatAI。

但是不是觉得终端里运行对话不那么好看,你希望在chatGPT那样的网页上进行对话。没问题,让open WebUI来帮你解决问题。

第二步,部署webUI

Open WebUI是一个可扩展的、功能丰富的、用户友好的自托管网页用户界面,旨在完全离线运行。它支持各种LLM运行程序,包括与Ollama和openAI兼容的API。

因为是基于WINDOWS部署,所以要安装Docker Desktop,我们去Docker官网,下载Docker Desktop的安装包,并进行安装。

安装完成后,等待程序加载完成,即可进入Docker。如果你是首次使用,则Containers中是没有任何项目的。

安装open WebUI

刚才已经装完ollama以及成功安装并运行模型后。在终端中运行以下代码,即可开始安装WebUI。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

windows docker桌面版,保存为docker-compose.yaml,增加tika提词器

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "8080:8080"
    volumes:
      - /D/docker/open-webui/data:/app/backend/data
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      TZ: Asia/Shanghai
    restart: always
    networks:
      - openwebuinet

  tika:
    image: apache/tika:latest-full
    restart: on-failure
    #ports:
     # - "9998:9998"
    networks:
      - openwebuinet

networks:
  openwebuinet:
    driver: bridge

等待下载和安装完成后,进入Docker Desktop中,即可看见安装成功的WebUI项目。

此时,进入任意浏览器中,在地址栏中输入:http://localhost:3000 即可访问WebUI。第一次登录请点击注册。

选择模型llama2,即可在对话框中输入文字,开始对话。界面是不是很熟悉,很像chatGPT,用着顺手多了。

你还可以在线添加其它的语言模型,点击左侧模型文件,选择创建模型文件,如下图:

如果本地没有模型,那么会在线下载。

open WebUI还有很多其它功能,比如它本身自带RAG。可以在对话框中输入“#”,然后跟上网址,即可访问网页的实施信息,并进行内容生成。

还可以上传文档,基于文本进行更深层次的知识交互。如果你对知识库的要求不高,做到这一点以后,基本能满足大多数个人的需求了。

本地知识库是通过#号,选择对应的文档进行总结分析,比较简单:

 

版权所有:Anglei

参与评论