查看原文
其他

FastGPT + Chatgpt-on-wechat + 亚马逊免费VPS+AI助理:企业知识库接入微信群! 保姆级教程

风清徐徐来 AI变现研习社
2024-08-22

此篇是之前的收费文章,答应了FastGPT的朋友,过段时间免费。最近FastGPT功能很多升级,本文仅供参考,以FastGPT官方文档为准。

- GPTs也可以做知识库,看《像咪蒙一样写作》

不过开通GPTs必须开通GPT会员,《手把手教你用支付宝开通 ChatGPT plus》。GPTs和fastgpt做知识库各有优缺点。

过段时间再分享下Dify,COZE

-另,"清风AI"推出按使用次数收费的GPT4套餐了,感兴趣点这里

- 最后,做个广告,想加入VIP学习群,可用文末知识星球优惠券!


阅读下文后,再看《fastgpt答疑1》《答疑2》

你好,我是清风徐来

这是《ChatGPT ,从入门到精通》 系列第 112 篇原创文章。

“未来几年,所有组织的管理、业务都将AI化,如何利用AI技术,是每一个管理者必须思考的问题”

企业信息库 AI 化,有着广泛的应用前景,包括内部知识库、售前咨询、售后客服。如果加上 AI 语音等多模态应用,前途不可限量。

近期知识库 AI 软件层出不穷,FastGPT 就是一个优秀的代表,

FastGPT 功能非常强大,我计划用 5、6 篇文章来介绍。

节前,已经撰写了一篇《FastGPT,知识库 AI !保姆级教程,5 分钟上手》

本以为专业术语太多没人看,结果点击率奇高!还被 FastGPT 官方转载,据传用作新手教程,:)

今天就来详细讲讲如何将 fastgpt 接入微信群

之前已经完成部署。为了保证文章质量,我从头开始,又把整个流程配置了一遍,核实了每个细节,花了很多精力

一、效果展示

1、需求分析

笔者是微信公众号“浩瀚的苍穹”主理人,原创、分享了很多 AI 和 Chatgpt 的工具和知识,至今已达 一百 多篇。

为了更好的让 AI 落地,找到应用场景,笔者组织了微信学习交流群(加入方式见文末),有很多高手,各行业的大咖,也有很多 AI 小白。

大家都很热情,每天都有很多提问,对于大家的提问,笔者都及时进行了回应,

但随着群友提问的增多,回复往往不及时,一些热心的网友也参与讨论答复,但这些讨论质量参差不齐,需要归纳总结或有一个较正确的回答作为指引。

经过分析,我发现,群友提问有两个特点:第一,同质化,常见问题就百来个;第二,70%在公众号文章中都有相应的答案和详细介绍。

在人工答疑时,很多时候,我需要做的只是把链接发给提问的群友,但是,这样也花费了较多的时间,你得一篇一篇去找,有时还得化繁为简的概述。

AI 存在的目的就是增效赋能,作为一个分享 AI 知识的博主,能否用 AI 为杠杆来解决这个痛点?

还好,此类开源软件不少,我找了几款知识库软件,又找了几款接入微信群的软件,反复测试,终于找到了一个比较简单+稳定的实现架构,如下:

chatgpt-on-wechat+fastGPT!前者打通微信群,后者对接知识库

我把这套框架应用在了好几个微信群,经过两周左右的测试,打通了专有知识库和微信群,用起来很香!

使用场景:当有同学在微信群@ AI 助理后(也可采用关键字触发),AI 助理会自动回答对方提出的问题。

首先,AI 助理会到① 指定的知识库(我把“浩瀚的苍穹”文章训练成了知识库,训练方式详见《fastgpt 新手教程》中寻找答案,然后结合②LLM 的通识,综合给出答案,回答到微信群。

AI 助理回复的时间在根据提问难度,1-5 秒之间。

① 与 ② 的比例,可以通过 fastgpt 后台进行控制,你可以完全让 AI 只回答指定知识库的内容,不自由发挥。

2、效果展示

实际使用案例如下:

(1)可以看到,AI 针对知识库进行了回答。并给出了相关链接。

(2)微信群迎新

AI 助理不仅可以基于专有知识库进行答疑,还可以“迎新”,引流到公众号!

同样的方法,可以接入普通微信群、企业微信群、飞书、钉钉、网站链接

应用场景包括:知识分享、企业制度答疑、销售前端答疑、售后答疑等,解决各种提问形成引流机制

这里还有一个小插曲,把 AI 助理放到群里后,很多同学很好奇,纷纷咨询如何把 AI 助理接入群,还有些直接动手邀请 AI 助理加入自己的群。

我在 COW 设置中没有指定限制某群,也忘了关 AI 助理微信号的被邀请设置,结果吃顿饭回来,发现 AI 助理已经被十几个其他群邀请,正在聊得热火朝天。其中一个叫“干饭群”,AI 助正在和群友讨论如何做菜,

这里其实也包含了一个场景,如果你是某个产品的厂商,你可以训练一个通用的 AI 售后助理,放到你指定的(数量不限)目标人群群里答疑。并指定 AI 助理严格按照售后知识库内容回答提问。

使用注意事项,见本文最后。

二、实操教程

(一)准备工作

主要步骤:

  • 准备 VPS 服务器,用来跑 cow
  • VPS 服务器安装 cow 的 fastgpt docker 镜像(fastgpt 官方提供)
  • 在 fastgpt 官方网站上准备一个知识库
  • 接入微信群测试,并完善知识库

需要准备以下工具

  • 准备一台互联网 VPS(虚拟服务器)

案例中,使用的亚马逊免费服务器

网址:aws.amazon.com/cn

  • 准备一个或多个 AI 大模型的 API KEY

案例中,使用的是 GPT3.5

  • 熟悉开源软件 fastgpt,在其官网注册一个账号,掌握基本用法

网址:fastgpt.run、 ai.fastgpt.in

基本用法见《fast 新手教程》

  • 熟悉开源软件 chatgpt-on-wechat

官网:github.com/zhayujie/chatgpt-on-wechat

chatgpt-on-wechat (cow) 项目是使用 ChatGPT 搭建的智能聊天机器人,在 GPT3.5/4.0 API 及 itchat 框架的基础上实现,支持个人微信、公众号、企业微信部署,能生成文本、语音和图片,访问操作系统和互联网。

COW 有四种部署方法,分别是:本地服务器、VPS(手动)、VPS(docker),案例中使用 Doker 部署。

  • 准备知识库

你可以采用你公司的考勤制度、产品介绍,或者公开的公司介绍

  • 准备一个微信账号

建议使用一个不常用的微信账号,用于 绑定 AI 助理。据说,有很小的概率会被封号,稳妥起见,使用小号。

下面讲讲具体如何实现

(二)注册服务器

本项目需要用到两台服务器,一台用来跑 fastgpt,一台用来跑 chatgpt-on-wechat(以下简称“COW”)

跑 fastgpt 的服务器,在本案例中不需要你准备!我们先直接使用 fastgpt 官方的网站。

运行 COW 的服务器按如下步骤操作:

1、购买或注册一个免费互联网服务器 VPS

服务器可以在本地,也可以在互联网,两者的区别是后者可以通过互联网访问,前者只能供局域网使用,应用场景受限。本文基于互联网服务器进行分析。

建议购买一个 VPS(虚拟专用服务器)

您可以选择购买腾讯的 VPS 服务器,或者申请亚马逊(甲骨文也可以,但申请难度大)的免费 VPS 服务器。确保服务器的性能和稳定性能满足您的需求。

(1)途径 1:购买腾讯的服务器

地址:cloud.tencent.com

腾讯的云服务器分为:云服务器 CVM,轻量应用服务器。轻量应用服务器配置低一点,更便宜。

这个服务器是用来安装 chatgpt-on-wechat(以下简称 COW)的,轻量应用服务器 足够了。

  • 配置

入门级别,2 核 CPU2G 内存 40G 硬盘即可,腾讯云大概 30-40 元/月

  • 应用创建方式选择 docker
  • 操作系统选择 Linux 的 Ubuntu
  • 服务器所在区域建议选东京、新加坡,不要选香港

选择好以上选项,按步骤付款即可。

(2)途径 2:注册免费的亚马逊服务器 EC2

亚马逊服务器可以免费申请 VPS 服务器。

配置:1 核 CPU1G 内存 30G 硬盘,可新建多个实例

① 登录国内直达网址:aws.amazon.com/cn/free

界面如下:

② 先邮箱注册亚马逊账号

QQ 邮箱就可以

③ 然后验证手机,填写资料(国内实际地址)

④ 验证信用卡

信用卡用来验证账户的,防止恶意注册,会扣 5 美元,几天内返回原账户,不会实际扣钱。

我用的是 wildcard(支付宝直接支付),国内的双币种如中信、招商信用卡都可以

验证手机号码,完成 AWS 账户注册。如果等待 10 分钟以上都收不到短信,可以选择“语音呼叫”,你会接到来自 AWS 西雅图的电话(0012 开头),根据电话语音内容输入验证码即可。

⑤ 申请免费计划

⑥ 等待审核

审核通过会有邮件通知:

⑦ 进入控制台,找到 EC2

先把节点切换到亚洲

建议选择东京、新加坡或大阪

EC2 就是免费的 VPS 服务器频道

  • 找到后点击“启动实例”
  • 选择免费计划

以下三张图设置好后 再点击右下角的“启动实例”

  • 设置密匙对
  • 设置防火墙和硬盘大小

卷大小就是 硬盘大小,默认 8G,建议调为至少 15G

上述设置好后启动实例,创建时间大概 1-2 分钟

记住,收藏实例这个页面到浏览器,下次直接打开

  • 连接实例

点连接

用最简单的网站连接方式:

连接后如下:

系统要选择 ubuntu ,这个是 linux 的一个版本

新建实例后可以输入如下命令查看配置

sudo lshw

再强调几个注意事项:

  • vps 服务器所在区域选日本或新加坡,不要选香港
  • 信用卡验证:国内双币信用卡,或者之前升级 chatgpt plus 的 bewildcard(https://bewildcard.com/card?cardId=556)
  • 账单地址按实际填写
  • 不建议使用虚假信息,亚马逊全球云服务器排第一,防恶意撸羊毛技术很高,但是正常免费撸一台免费使用是允许的。
  • 申请后不要长时间空置,否者会被收回。
  • 一个 EC2 可以创建多个“实例”,一个“实例”=一台 VPS。免费用户合计硬盘不超过 30 个 G。
  • ubuntu 上操作,要熟悉一下,复制粘贴只能用鼠标,不支持快捷键。不懂就丢给 GPT3.5,都可以很快给出答案。

(三)取得 API key

API 是 不同软件程序间的数据连通接口,API kEY 就是接口密码

微信对话机器人 cow 系统,是通过 fastgpt 对接 AI 和知识库的

涉及上述三个软件程序的数据连通,所以需要准备 两个 API KEY:一个 gpt3.5 的 API kEY; 一个 fastgpt 的 API key

微信群<-> COW(FastGPT 的 API kEY)<-> FastGPT <->(gpt3.5 的 API kEY)chatgpt

1、取得 gpt3.5 的 API kEY

如果你有 chatgpt 的官网账号,官方会送你 3 个月 5 美元的 gpt3.5 的 AIP key

(1)默认开通,地址如下:

platform.openai.com

这个 KEY 务必保管好,如果要多次使用,可以另外找一个地方存起来,在上述界面,它只显示一次。遗忘了只有新建一个。

2、到 fastgpt 录入 openai 的 key

登录地址:fastgpt.run

注意!这里录入了,在 COW 的配置中,就不需要录入 chatgpt 的 API key 了

3、取得 fastgpt 的 API key

还是在 fastgpt 的账号里面,如下图,点击新建

注意,蓝色框那个也要复制备用

新建一个。额度填-1 表示无限制,使用时间为空表示使用时间无限制。

测试阶段,可以都按默认模式。

(四)配置 chatgpt-on-wechat 服务器

  • chatgpt-on-wechat 是一个开源项目

在全球开源软件网站已经斩获 16.4K 颗星,成绩斐然

地址:github.com/zhayujie/chatgpt-on-wechat

官方介绍如下:

“使用 ChatGPT 搭建微信聊天机器人,基于 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/LinkAI,支持个人微信、公众号、企业微信部署,能处理文本、语音和图片,访问操作系统和互联网,支持基于知识库定制专属机器人。”

今天我们先介绍 COW 的基础功能,后面有机会再详细介绍高级应用。

COW 有四种部署方法:本地服务器、VPS 服务器(手动)、VPS 服务器(docker)、Railway 部署

我们选择 VPS 服务器(docker)部署

1、连接到亚马逊 VPS 服务器

用这个方式,不需要第三方 SSL 软件,直接在亚马逊网站连接即可

出现以下界面,表示链接成功

2、在服务器上安装 docker 软件

上面申请的亚马逊服务器 VPS,是一个干净的 linux 系统,需要进行配置

除了 docker,其他任何软件都不需要安装

(1)什么是 docker

docker,顾名思义,容器。是最近比较流行的一种互联网开源软件项目安装方法

为什么要安装 docker?安装软件,最怕的就是配置环境和安装各种配置包

而“使用 docker 部署无需下载源码和安装依赖,只需要获取 docker-compose.yml 配置文件并启动容器即可。

前提是需要安装好 docker 及 docker-compose

(2)安装 docker

这里,我建议你打开 AI 软件,每一步安装,有报错,就把代码复制给 AI,让它回答,类似于旁边站了个指导老师

打开 GPT3.5 问:“如何在 Ubuntu 安装 doker?”

AI 会给一个步骤,如下

你按上述步骤安装,过程中,会有报错,你把报错复制给 AI,AI 会指导你继续安装

安装有十多步,如下(本想单独成文。但避免大家找来找去,就放到这里一起了,标题与全文不符,不影响阅读):

一、概念

1、什么是 docker

docker,顾名思义,容器。是最近比较流行的一种软件安装方法

传统软件安装,尤其是一些大型开源软件安装,都要安装很多依赖、配置软件文件,往往因为各种软件版本兼容问题,导致安装失败。

而通过 docker 安装,不需要考虑依赖和版本问题。

核心就是一个.yml 文件,重要设置,修改这个.yml 文件就可以了。

Docker是一个开源的容器化平台,它允许开发人员将应用程序及其依赖打包成一个独立的、可移植的容器。Docker容器包含了应用程序所需的所有文件、库和环境变量,可以在任何支持Docker的环境中运行,而不受底层操作系统和硬件的限制。Docker提供了一套命令行工具和API,用于构建、运行和管理容器。通过Docker,开发人员可以轻松地部署和管理应用程序,实现快速、可重复和可扩展的部署。

2、使用 AI 辅导安装

要使用 docker,需要安装,安装有时候会报错

各种报错,都是英文+专业术语,经常看得大家一脸懵逼

建议大家使用 AI,比如 chatgpt3.5。

碰到问题,你就贴给 chatgpt3.5,AI 会直接告诉你问题出在哪里,并给出建议。

如果你没有 chatgpt,可以使用“清风 AIchat"

登录网址,这里看《新手教程》

比如,我们提问

一.docker-compose 和docker 的区别

GPT 回答:


Docker和Docker Compose是两个相关但不同的工具,用于容器化应用程序的部署和管理。

Docker是一个开源的容器化平台,它允许开发人员将应用程序及其依赖打包成一个独立的、可移植的容器。Docker容器包含了应用程序所需的所有文件、库和环境变量,可以在任何支持Docker的环境中运行,而不受底层操作系统和硬件的限制。Docker提供了一套命令行工具和API,用于构建、运行和管理容器。通过Docker,开发人员可以轻松地部署和管理应用程序,实现快速、可重复和可扩展的部署。

Docker Compose是一个用于定义和运行多个Docker容器的工具。它使用YAML文件来定义应用程序的服务、网络、卷等配置,并提供一组命令来管理这些容器。使用Docker Compose,您可以通过一个命令启动、停止和重启整个应用程序的容器集合,而无需手动管理每个容器。它还提供了一些额外的功能,如容器间的通信、服务发现和扩展等。Docker Compose使得在开发和测试环境中快速部署多个容器变得更加简单和高效。

简而言之,Docker是一个用于创建和管理容器的平台,而Docker Compose是一个用于定义和管理多个Docker容器的工具。Docker使得容器化应用程序的部署变得更加简单和可靠,而Docker Compose进一步简化了多个容器的管理和协作。它们通常结合使用,以提供更强大和灵活的容器化应用程序部署和管理方案。

记住,你在安装的任何时候,包括如何安装,报错分析等,都可以使用GPT.

二、安装Docker和Docker Compose

因为 ubuntu 自带 docker 的库,不需要添加新的源,但是版本比较老,我们要先删除老版本的 docker,再安装新的

1、登录服务器 vps:本说明以 亚马逊 EC2 为例

2、卸载旧版本的 Docker:

sudo apt-get remove docker docker-engine docker.io containerd runc

3、更新包管理器的软件包列表:

sudo apt-get update

4、安装 Docker 的依赖项:

sudo apt-get install apt-transport-https ca-certificates curl gnupg lsb-release

5、添加 Docker 的官方 GPG 密钥:

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

6、添加 Docker 软件源

sudo add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"

7、安装 docker

执行以下命令来安装 Docker:

apt-get install docker-ce docker-ce-cli containerd.io

8、配置用户组(可选)

默认情况下,只有 root 用户和 docker 组的用户才能运行 Docker 命令。我们可以将当前用户添加到 docker 组,以避免每次使用 Docker 时都需要使用 sudo。命令如下:

sudo usermod -aG docker $USER

注:重新登录才能使更改生效。

9、运行 docker

我们可以通过启动 docker 来验证我们是否成功安装。命令如下:

sudo systemctl start docker

得到以下界面:

没有报错,说明安装正确。下面安装 Docker Compose

二、安装 Docker Compose

Docker Compose是一个用于定义和运行多个Docker容器的工具。它使用YAML文件来定义应用程序的服务、网络、卷等配置,并提供一组命令来管理这些容器。使用Docker Compose,您可以通过一个命令启动、停止和重启整个应用程序的容器集合,而无需手动管理每个容器。它还提供了一些额外的功能,如容器间的通信、服务发现和扩展等。Docker Compose使得在开发和测试环境中快速部署多个容器变得更加简单和高效。

1、安装 Docker Compose:

sudo curl -L "https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

2、添加可执行权限:

sudo chmod +x /usr/local/bin/docker-compose

3、验证 Docker Compose 是否正确安装:

docker-compose --version

如果一切正常,您将看到 Docker Compose 的版本信息。

至此,Docker 和 Docker Compose 安装完毕!

三、Docker Compose常见命令

1、检查 Docker 版本

docker version

这将显示 Docker 客户端和服务器的版本信息。

验证 Docker 是否正常工作:

2、启动docker

sudo docker compose up -d

3、查看docker状态

sudo docker ps


4、使用文本编辑器打开 docker-compose.yml 文件

nano docker-compose.yml


Ctlr+X 退出,提示是否修改,是否覆盖源文件


5、停止容器

sudo docker compose down



安装成功的表现是执行 docker -v 和 docker compose version (或 docker-compose version) 可以查看到版本号,如下:


3、创建 docker-compose.yml 文件

docker-compose.yml 是 docker 容器安装的核心文件,COW 官方网站会要求你 直接通过命令 pull cow 的 yml 文件

但是我们这里采用 fastgpt 配置 COW 的方法,手工创建

再次提示,整个过程,都可以使用 AI 做为辅导,不懂就问 GPT

(1)创建 docker-compose.yml 文件

在服务器命令输入行输入如下命令

touch docker-compose.yml

在服务器上创建一个空的 docker-compose.yml 文件

创建后,输入 ls 查看

可以看到,docker-compose.yml 已经创建

不过这个时候是空的,需要复制内容上去

(2)编辑 docker-compose.yml

使用文本编辑器打开 docker-compose.yml 文件

nano docker-compose.yml

打开后界面如下,空空如也

(3)复制代码

复制以下代码到打开的 docker-compose.yml 文件

复制前,先按后面的抓图,修改相应内容

必须修改的字段包括:OPEN_AI_API_KEY、 GROUP_NAME_WHITE_LIST

注意,直接连接服务器的文本编辑器不支持键盘的快捷键,不能使用 ctrl+c ,v

只能用鼠标右键复制、粘贴

要手动修改,必须用键盘上下移动

修改好后 ,按键盘快捷键 Ctlr+X 退出

系统会提示是否修改,按 y

是否覆盖源文件,按 y

上述操作多操作几次,就掌握了

version: '2.0'
services:
  chatgpt-on-wechat:
    image: zhayujie/chatgpt-on-wechat
    container_name: chatgpt-on-wechat
    security_opt:
      - seccomp:unconfined
    environment:
      OPEN_AI_API_KEY: 'fastgpt-64MlKD2ynaZ8B1Yd9aZFpiAzxyOLYXTlWnRDT'
      OPEN_AI_API_BASE: 'https://api.fastgpt.in/api'
      MODEL: 'gpt-3.5-turbo'
      CHANNEL_TYPE: 'wx'
      PROXY: ''
      HOT_RELOAD: 'False'

![](https://files.mdnice.com/user/43708/f3461d6e-f194-46cf-9d7c-014f13476e42.png)

      SINGLE_CHAT_REPLY_PREFIX: '"[bot] "'
      GROUP_CHAT_PREFIX: '["@bot"]'
      GROUP_NAME_WHITE_LIST: '["ALL_GROUP"]'  #默认所有群可以填写 ["ALL_GROUP"]
      IMAGE_CREATE_PREFIX: '["画", "看", "找"]'
      CONVERSATION_MAX_TOKENS: 1000
      SPEECH_RECOGNITION: 'False'
      CHARACTER_DESC: '你是ChatGPT, 一个由OpenAI训练的大型语言模型, 你旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。'
      SUBSCRIBE_MSG: '感谢您的关注!\n这里是ChatGPT,可以自由对话。\n支持语音对话。\n支持图片输入。\n支持图片输出,画字开头的消息将按要求创作图片。\n支持tool、角色扮演和文字冒险等丰富的插件。\n输入{trigger_prefix}#help 查看详细指令。'
      EXPIRES_IN_SECONDS: 3600
      USE_GLOBAL_PLUGIN_CONFIG: 'True'
      USE_LINKAI: 'False'
      LINKAI_API_KEY: ''
      LINKAI_APP_CODE: ''

配置说明

  • "open_ai_api_key": "YOUR fastgpt API KEY",

填入上面创建的 OpenAI API KEY。

再次提示,是 fastgpt 网站中取得的 API KEY,不是 openai 的原生 key;openai 的原生 key 要填到 fastgpt 网站中,此处填的 YOUR fastgpt API KEY 才生效

  • "model": "gpt-3.5-turbo",
    模型名称, 支持 gpt-3.5-turbo, gpt-3.5-turbo-16k, gpt-4, wenxin, xunfei

  • "proxy": "",
    代理客户端的 ip 和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"

  • "single_chat_prefix": ["bot", "@bot"],

私聊时文本需要包含该前缀才能触发机器人回复

个人聊天中,需要以 "bot"或"@bot" 为开头的内容触发机器人,对应配置项 single_chat_prefix (如果不需要以前缀触发可以填写 "single_chat_prefix": [""])

  • "single_chat_reply_prefix": "[bot] ",

私聊时自动回复的前缀,用于区分真人

机器人回复的内容会以 "[bot] " 作为前缀, 以区分真人,对应的配置项为 single_chat_reply_prefix (如果不需要前缀可以填写 "single_chat_reply_prefix": "")

  • "group_chat_prefix": ["@bot"],
    群聊时包含该前缀则会触发机器人回复

  • "group_name_white_list": ["ChatGPT 测试群", "ChatGPT 测试群 2"],

开启自动回复的群名称列表;群组聊天中,群名称需配置在 group_name_white_list 中才能开启群聊自动回复。如果想对所有群聊生效,可以直接填写 "group_name_white_list": ["ALL_GROUP"]

  • "image_create_prefix": ["画", "看", "找"], 开启图片回复的前缀

  • "conversation_max_tokens": 1000,
    支持上下文记忆的最多字符数

  • "speech_recognition": false, # 是否开启语音识别

  • "group_speech_recognition": false, # 是否开启群组语音识别

  • "use_azure_chatgpt": false, # 是否使用 Azure ChatGPT service 代替 openai ChatGPT service. 当设置为 true 时需要设置 open_ai_api_base,如 https://xxx.openai.azure.com/

  • "azure_deployment_id": "",
    采用 Azure ChatGPT 时,模型部署名称

  • "azure_api_version": "",
    采用 Azure ChatGPT 时,API 版本

  • "character_desc": "你是 ChatGPT, 一个由 OpenAI 训练的大型语言模型, 你旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。",

人格描述,这句很关键,是你给 AI 的人设,可以按需要修改

  • "subscribe_msg": "感谢您的关注!\n 这里是 ChatGPT,可以自由对话。\n 支持语音对话。\n 支持图片输出,画字开头的消息将按要求创作图片。\n 支持角色扮演和文字冒险等丰富插件。\n 输入{trigger_prefix}#help 查看详细指令。",
  • "use_linkai": false,

按 ctl +X 退出

(4)启动 docker

启动 docker

sudo docker compose up -d

第一次启动比较慢,有个安装过程,如下:

等到所有都“complete”,显示 Container chatgpt-on-wechat Started
就表示安装完成了

(5)启动二维码

输入代码:


sudo docker logs -f chatgpt-on-wechat

出现二维码,用微信扫二维码即可

你扫码的微信账号就变成了机器人

可以看到有“Start auto replying”的提示

如果启动二维码失败,把提示贴给 GPT,按它的说明配置

(6)与 AI 对话

这个时候,你可以另外用一个微信和 AI 机器人的微信对话,如下:

可以看到,第一次问候的时候,机器人没有触发,是因为.yml 文件里面设置了触发词“bot”,你必须在每个对话前增加@bot,才能触发 AI 机器人

SINGLE_CHAT_PREFIX: '["bot", "@bot"]'

如果如下设置,则不需要加前缀

SINGLE_CHAT_PREFIX: '[""]'

在服务器界面,可以看到有对话记录

这个时候,你可以关掉亚马逊的浏览器界面了,服务器会一直运行

(7)停止容器

如果没有出现输入行,则按 ctrl+C

停止容器,输入如下命令

sudo docker compose down

根据两周多的经验,我发现 2-3 天,COW 会自动停止,这时候

只需要停止容器,重新执行(4)-(5)步即可

(五)配置知识库

如果只是完成第(一)到(四)步

AI 助理只能基于通识回答你的问题

如果要依据专有知识库,必须结合 知识库开源软件,如 fastgpt

1、fastgpt 基础使用

如何注册、具体使用、如何训练知识库,详见《FastGPT,知识库 AI !保姆级教程,5 分钟上手》,这里不赘述了

2、微调知识库

根据用户群的反馈,您可以在 fastgpt 中进行相应的设置微调,以提供更好的服务。

可以微调的内容包括提示语、与知识库关联度。

至此,将知识库 fastgpt 与微信群打通。


三、答疑

1、数据库索引模型选哪个好?

Embedding-2、M3E

我开始用的 M3E,实测效果不好,就重新训练了 Embedding-2

效果不好,在其他设置相同的情况下,感觉 M3E 索引的数据回答不够智能

2、如何配置微信群迎新?

在“Fastgpt 网站” -> "应用" -> "AI 配置" ->"提示词"中设置

提示词中可以放重要信息,或链接引流

3、 如何优化知识库

上线前可以先小范围测试

实际运用中,根据知识库定位+用户反馈进行优化

用户的提问千奇百样

比如,定位在内部制度答疑,就要尽量减少 AI 的自由发挥

4、使用成本?

使用成本包括人力成本、服务器成本、训练成本、LMM API KEY 成本

我上线后,最高一天 API key 扣了 2 美元

(1)模型尽量选经济实惠的 GPT3.5

(2)控制回复上限和单次搜索次数

0-4000 字。根据实际情况设置回复上限。

(3)对一些通用性问题,有答案的,可以给一个相关文章的静态链接

5.如何控制知识库范围?

“相似性”参数控制,1,完全按知识库回答。实测 0.7-0.85 效果比较好。

6、哪个应用模版较好?

微信群都差不多,如果接入公众号 “知识库+对话引导”比较好

7、AI 助理如何更换应用?

每一个应用对应一个 APIKEY,在.yml 文件中修改 key 值,完成更换

8、可以使用国产大模型么?

答:可以。FastGPT 只配置了 GPT 的 3 个模型,如果你需要接入其他模型,需要进行一些额外配置,使用另一个开源软件 one API。详见官网。

9、可以完全独立部署么?数据库、LLM 大模型都在局域网?

答:可以。支持清华的 ChatGLM2 ,显存 16G,内存 16G。详见 fastgpt 官网。

doc.fastgpt.run/docs/custom-models/chatglm2-m3e

FastGPT 功能还有很多,应用前景很广阔,今天先介绍到这里!


原创不易,欢迎转发、分享

付费加入知识星球“浩瀚的 AI 苍穹”后,即可取得 VIP 学习群加入方式!

扫描知识星球二维码,如下:

每隔 1-2 周适当上调,希望大家尽早入群,懂的都懂!

以下是新年新人优惠券

跟着大家,每天分享最新 ChatGPT 实用干货!

不懂就问,言多必得!

今年最炸裂视频AI“Pika”已对所有人开放!附:保姆级教程
万物皆可穿!阿里换衣AI上线
开源!免费!可商用!超过 LLAMA2,媲美 GPT3.5,Mixtral-8x7B 横空出世!附:三个使用平台
重磅!GPT4.5 圣诞前推出
好用到哭!学会这个技巧,让 ChatGPT 问答质量直线飙升
翻译危险了!国内直联 GPT 新增“科技翻译大师”角色,新增GPT-3.5 16k 长文模型
ChatGPT4 最新开通+ API 白嫖大法:免费使用,无需手机验证,无需等待,国内直联
一周白嫖2万元显卡T4 30 小时!
免费使用ChatGPT4 的五个方法!亲测有效!
5分钟搞定!AI 写工作总结+ 自动生成 PPT
月之暗面 AI ,1秒搞定20 万字贵州茅台年报
通义听悟:免费!语音视频转文字 AI 利器
保姆级教程!手把手教你支付宝开通 ChatGPT plus!
可视化!用 GPT4 十分钟内完成泰坦尼克号生存分析

修改于
继续滑动看下一个
AI变现研习社
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存