分类: 文章

长期文章、教程和个人写作。

  • DeepSeek服务器总繁忙怎么办?不愿稍后,不如试试通过API续命你的聊天儿

    今天我们需要用到的工具是Chatbox,它可以接入各路AI的API(包括本地的Ollama),实现跟不同AI大模型的聊天。

    https://chatboxai.app/zh

    不仅支持Win、MacOS、Linux三大主流桌面操作系统,也支持手机端的iOS和Android。下载对应的版本安装,然后在设置里配置好API,就可以开始聊天了。或者,也可直接使用网页版。

    软件自带Markdown、LaTeX、Mermaid等多种排版、公式、图表渲染,还支持Artifacts渲染,十分方便。

    作为开源模型,到今天,基本上各个大模型云服务平台都已经支持DeepSeek-V3和DeepSeek-R1的API调用,在这我重点推荐三家。

    一、硅基流动SiliconFlow

    硅基流动应该是最早上线第三方DeepSeek API服务的,他们跟华为云合作,基于昇腾云服务部署了完整版本的DeepSeek-V3和DeepSeek-R1模型。

    他们的邀请注册活动现在已经恢复,通过邀请链接注册,邀请人和被邀请人可以同时获得等价14元平台配额的2000万tokens。换算成DeepSeek-R1的API大概应该有200万左右的额度。

    你可以通过我的邀请链接注册:

    https://cloud.siliconflow.cn/i/My0p5Jgs

    然后再去邀请下家人朋友,薅到的免费额度也够用一阵子了。

    不过注意,尽量避免到群里去四处乱发邀请链接打扰别人。一方面其实对大多数人来说,14元已经可以用好久了;另一方面活动奖励的金额是赠送余额,官方可以随时把特定模型的API修改成仅限充值余额使用,所以囤积大量赠额的意义也不大。

    注册完成后,来到左侧菜单找到API密钥,新建API密钥。

    鼠标点击在相应密钥上,可以自动复制密钥。

    接下来回到Chatbox,点击设置,模型提供方选择SILICONFLOW API。

    然后粘贴刚才复制的密钥在密钥填写位置,模型选择deepseek-ai/DeepSeek-R1,或者简单的推理需求也可选择deepseek-ai/DeepSeek-R1-Distill-Llama-70B。

    保存后即可直接进行对话使用了。

    硅基流动还提许多其他大模型的API服务,点击对话框右下角发送键左侧的选单即可以直接切换别的大模型开聊,计费规则网站有说明。

    如果你想好好对比下不同的大模型效果,用硅基流动算是用着了。

    二、阿里云百炼

    阿里云百炼是阿里云的大模型云服务平台,新注册用户和新接入的模型都能获得一些限时免费使用的tokens。

    比如这次DeepSeek的API,实测百炼老用户也可以拿到有效期半年的1000万tokens。

    还是先注册(或登录),

    https://bailian.console.aliyun.com/#/model-market

    登录后再次打开模型广场。

    在列表中找到DeepSeek-R1,点击查看详情。

    详情界面会显示tokens余量,

    点击右上角查看我的API-KEY处,创建一个API-KEY。

    然后点击左上角复制按钮,复制模型名称。

    然后回到Chatbox,打开设置。

    模型提供方选择添加自定义提供方。

    名称填写:阿里云百炼(或者你想填的);

    API域名填写:

    https://dashscope.aliyuncs.com/compatible-mode/v1;

    API密钥:粘贴刚才创建的密钥;

    模型:粘贴刚才点击复制按钮复制的deepseek-r1。

    保存后即可直接进行对话使用。

    三、火山方舟

    火山方舟是字节旗下大模型云服务平台。前两天也支持了DeepSeek的API调用,但是作为直接付费调用模型,价格跟前面硅基流动相同。今天突然发现DeepSeek模型也支持豆包的50万tokens免费推理额度了,故添加进来。

    火山的操作方式跟前面两个稍微有所不同。需要先进入开通管理界面,将准备使用的模型开通。

    https://console.volcengine.com/ark/region:ark+cn-beijing/openManagement

    登录访问链接后的界面如上图,找到DeepSeek-R1模型,点击右边操作下的开通服务。

    可以直接把四个都开通。

    开通之后,点击左侧菜单的在线推理,然后在右边创建推理接入点。

    接入点名称随意,模型选择部分选择DeepSeek-R1。

    确认接入后,找到刚才创建的接入点。

    点击右侧的API调用。

    在上面的复制按钮处,复制模型名称。

    在打开的界面中,右侧选择API Key并复制。

    查看API Key并复制。

    回到Chatbox中,跟前面阿里云百炼一样。

    添加自定义的模型提供方。

    名称填写:Doubao(或者你想填的);

    API域名填写:

    https://ark.cn-beijing.volces.com/api/v3;

    API密钥:粘贴刚才创建的密钥;

    模型:粘贴刚才点击页面上方复制按钮复制的接入ID。

    而后保存,就可以直接使用了。

    火山方舟的DeepSeek在上述三个里面响应速度可以说是最快的。

    可惜免费tokens数量只有50万。

    但如果你并不是特别高强度使用的话,50万tokens也是足够用一段时间的了。

    手机端的设置跟桌面端基本相同,在此就不赘述了。

    另外,除了上述几个之外,百度智能云也有DeepSeek的API提供,并且2月18号前完全免费,不限tokens用量。

    但我不太想接百度的回访营销电话(阿里也会打,说做个人研究基本不会纠结啥),所以就没试。感兴趣也可以试试百度平台的。

    以及我们之前说过的本地部署:

    如何通Ollama本地部署DeepSeek蒸馏模型?小白看这一篇就够了

    如果你不想使用Open WebUI,或者说想在手机上也能在局域网使用本地部署的大模型,那从这一步开始,也可以改用Chatbox来实现。

    不需要API Key,只需要选择模型提供方为Ollama API,然后填写API域名即可。(当然使用的时候要记得启动Ollama。)

    如果Ollama运行在本机,则API域名填写http://127.0.0.1:端口号,或者http://本机局域网IP:端口号;

    如果Ollama运行在局域网其他设备,则API域名为http://对应设备的局域网IP:端口号。

    端口号如果你是按照教程一步步做下来,应当设置的是11434端口。

    细节可以回去查看刚才说的那篇文章,这里就不赘述了。

    配置好后点击保存,你在Ollama上本地部署的开源模型也会直接出现在Chatbox的模型选择列表中。

    有了这些,应该可以暂且解掉“服务器繁忙稍后再试”的燃眉之急了。

    今天DeepSeek官方的开放平台已经恢复登录。虽然根据官方声明,服务器资源依旧紧张,充值功能暂未恢复,但接下来一段时间,官方的服务应该也会开始逐渐改善了。

  • 如何通Ollama本地部署DeepSeek蒸馏模型?小白看这一篇就够了

    【提示:接下来是聊天内容,直接开始本地部署教程,请前往文章中间部分。】

    这几个蒸馏模型并非真正的DeepSeek-R1,之前已经发文说过:醒醒!你本地部署的DeepSeek-R1,它不是R1

    但这并不代表这些模型不行,或者说我不建议大家部署和使用这些模型。

    相反,这几个蒸馏模型的基础模型,本身就是被广泛用于本地部署的几个优秀的开源模型。而且经过DeepSeek蒸馏以后,它们的性能变得更好。

    这就不得不从DeepSeek团队训练DeepSeek-R1的过程中取得的几项技术成果说起。

    ①直接在基础模型上应用强化学习(RL),跳过了监督微调(SFT)。

    监督微调(SFT)是训练大语言模型的常规步骤,即在预训练的基础模型上,使用高质量的标注数据(如人类编写的问答对、任务示例等),通过监督学习的方式对模型进行微调。相当于老师(人工)对学生(模型,准确说是DeepSeek-V3)说:这些题目和答案我检查过了,都是对的,你拿去学吧。

    这个学的过程,就是强化学习(RL)。而强化学习依赖于奖励机制。套回刚才的例子,就是,学生把老师给的题目和答案拿回去,开始自己解题。当解出了跟正确答案一致的答案,老师就奖励给他一朵小红花。

    DeepSeek的第一个重要研究成果,就是跳过了监督微调的步骤,直接进行强化学习。调整了奖励模型,从传统的解出了正确答案就给奖励,改成了针对逻辑连贯的解题过程给予奖励,最终大幅激发了模型的推理能力。

    而以此方法训练出来的模型,就是DeepSeek-R1-Zero。

    ②基于在R1-Zero上验证的创新方法,重新设计了结合监督微调的训练方法,训练出了DeepSeek-R1。

    为什么我们公众最终用到的模型是R1,而不是R1-Zero?因为R1-Zero虽然探索了推理极限,但它没有经过监督微调,就导致了它的通用语言能力比较弱并且安全性上可能存在问题。

    于是,在R1-Zero研究成果的基础上,DeepSeek重新设计了训练R1的方法并训练出了R1。(注意:R1不是在R1-Zero基础上训练而来的,而是平行训练,两者共享了强化学习方法论。)

    ③验证了蒸馏大体量模型的推理模式可以用于提升小体量模型的性能。

    这里也可以说DeepSeek设计了一种新型的蒸馏方式,而这个新蒸馏方式的产物,就是本文说的几个DeepSeek蒸馏的小体量模型。

    传统的蒸馏侧重于让小模型学习大模型的输出结果(概率分布),例如让一个小体量模型学习GPT的输出,最终使得自己的输出接近于GPT;而DeepSeek的这种蒸馏则是不仅学习输出结果,还要让小模型学习大模型的思考过程,例如让Llama-3.1-8B学习DeepSeek-R1(671B)的推理数据。

    简单说就是一个是只学习答案,一个是学习解题过程+答案。

    而最终DeepSeek团队验证的结论就是,通过学习解题过程,基础模型本身的推理能力获得了大幅提升。

    就像那个故事:有个小baby的妈妈炫耀自己的孩子已经会10以内的加减法了,并且过年的时候当众表演赢得一片叫好。这时候有个耿直的初中生追问:为什么?小baby就不会了,因为它只是把答案背了下来,但没有学会真正的计算。

    并且还要好于直接通过①的方法让小模型自己通过强化学习发现推理过程。这点也不难理解,DeepSeek-R1-Zero的训练基础模型是671B的DeepSeek-V3,规模够大,所以允许推理能力的涌现。而小模型,比如Qwen-2.5-Math-1.5B,受限于自身掌握的知识量,很难通过强化学习自主探索出复杂的推理路径。

    这个蒸馏方法对小模型性能提升具有很大的意义,尤其是一些部署在移动设备的端侧小模型。

    但需要注意的是,即便小模型通过推理模式蒸馏学习了更大模型的思考方式,它本身掌握的知识量依旧是它原本掌握的知识。这也是为什么说伴随DeepSeek-R1发布的那几个蒸馏的小模型不是DeepSeek-R1,因为他们虽然学习了DeepSeek-R1的解题方法,但自身的知识储备仍然是原本的Qwen和Llama。

    所以说,如果你寄希望于通过本地部署的方式获得跟直接使用DeepSeek-R1线上服务一样的体验,那我依旧劝你别折腾了。不仅模型规模不同,本身的数据集也不一样。API的性价比很高,对你来说绝对是更好的选择。

    但如果你本身就有本地部署的应用场景,例如进行一些有安全规定的研究,或者说翻译大量的文本等等,那你可以尝试本地部署这些模型,因为他们在很多方面的性能要比原来的底模型要更好。

    【好了。下面就是本地部署教程了,以Windows讲解,Mac大同小异。】

    首先下载Ollama并安装。

    https://ollama.com/

    然后运行。运行之后没有任何界面窗口,这个是正常的。

    在右下角系统托盘会显示一个Ollama图标,有这个图标即说明启动成功了。

    然后右击开始菜单图标,打开终端。

    直接输入

    ollama run [你想要部署的模型:模型规模]
    

    这个命令可以在直接在Ollama的网站上找,例如这是DeepSeek-R1的主页面:

    https://ollama.com/library/deepseek-r1

    在这个页面向下翻,对应的命令都在这里。

    如果你想部署DeepSeek-R1以外的其他模型,也是一样,可以到这个页面查找:

    https://ollama.com/search

    ollama run [你想要部署的模型:模型规模]
    

    前面的你想要部署的模型的名字,就是这个页面上显示的名字,后面的模型规模,就是下面蓝色标签显示的多少b。

    比如,我想部署一个llama3.2的3b模型。

    那我就输入:

    ollama run llama3.2:1b
    

    它就会开始自动下载。

    下载完成后,就可以马上在这个命令行窗口使用了。

    像这样,直接就可以对话了。

    如果需要退出,就输入

    /bye
    

    然后就退出了。

    如果你要再次使用,还是输入一样的语句。比如:

    ollama run deepseek-r1:32b
    

    我们先拆解一下它便于记忆。

    ollama,是这个软件的名字,llama这个单词美洲驼的意思。

    run就是运行。

    deepseek-r1是模型名称,32b是模型规模。

    合起来:

    ollama run deepseek-r1:32b
    

    因为之前已经下载好了,所以不会有下载过程,会直接打开。

    但这个样子用起来多少有些不优雅,如果有个界面就好多了。

    所以,我们为了让它优雅起来,可以安装一下Open-WebUI。这个Open-WebUI前身就叫做Ollama-WebUI,可见它和Ollama的匹配度之高。

    https://github.com/open-webui/open-webui/pkgs/container/open-webui

    安装Open-WebUI之前需要先配置Ollama的端口和安装Docker。

    直接在开始菜单搜索框里搜索“环境变量”,点击“编辑账户的环境变量”。

    新建两个环境变量。

    一个OLLAMA_ORIGINS,值为*;

    一个OLLAMA_HOST,值为0.0.0.0:11434。

    端口号官方默认给的是11434,我自己改成我喜欢的端口了,如果你之后还准备按照其他教程部署别的东西,比如浏览器插件、翻译插件、SillyTavern啥的,觉得到那时候会记不住在这自己设置了端口号,那你就直接用11434。

    安装Docker的过程很简单,而且网上太多教程,为了节约篇幅我就不说了。

    如果你是本机安装,就在Docker里面运行这个这个命令。

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    

    这里面的-p 3000:8080,前面的3000代表你使用的本地端口是3000端口,这个端口号是可以改的。

    因为挺多应用喜欢把默认端口设置成3000的,所以保不齐有端口冲突。如果你的3000端口已经被占用了,那就改个别的数,比如3001。后面访问WebUI的时候把URL里面的端口号数字改成3001就行。

    然后我自己是习惯把Docker全部部署在NAS上,这样反代出去也方便,所以也说一下非本机的方法。

    如果你是直接把WebUI也部署在本机的,可以直接跳过下面这段。

    其实就是下面的第二条:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    

    需要多增加一个环境变量OLLAMA_BASE_URL。

    什么意思呢?我们知道,在局域网下的两台设备是会被路由器分配两个不同的内网IP地址的,不然路由器就不知道哪个数据包发给哪个设备了。

    假设我的PC内网IP是192.168.1.101,NAS的内网IP是192.168.1.102。按前面本机部署WebUI的方法呢,WebUI和Ollama都在192.168.1.101这台设备上,所以WebUI能直接找到11434端口跟Ollama进行数据交换。

    但是,如果WebUI在192.168.1.102,Ollama却在192.168.1.101,你就得告诉它,去192.168.1.101:11434找才行,否则它傻傻地还在192.168.1.102找呢,永远找不到。

    于是操作方法就是把上面的命令中

    OLLAMA_BASE_URL=https://example.com
    

    里面的https://example.com,改成对应实际的地址,比如

    http://192.168.1.101:11434
    

    这样就可以找得到了。

    又如果,你使用的是极空间这种不支持SSH的NAS设备,又应该怎么办呢?别急,活用AI。

    直接把命令发给AI让它解释就好。

    甚至截图直接丢给AI,让它告诉你怎么操作。

    每一个选项卡,每一个空格,AI都会直接告诉你怎么填。

    极空间从GitHub拉取镜像是在这里:

    其他的如AI对话截图所示。

    【好了,如果你是从上面本机部署部分跳过来的,可以降落在这里了。】

    Open-WebUI的Docker启动完成后(启动可能需要一段时间),在浏览器地址栏里直接输入IP地址+端口号(如果Docker装在本机就是本机的,如果装在NAS就填NAS的),就能访问Open-WebUI了。

    如果是第一次安装,需要先进行注册。

    注意这个注册,注册的并不是Ollama账号,而是你这个本地的Open-WebUI内置的账号管理系统。你可以自己注册一个账号,老婆注册一个账号,孩子注册一个账号,三个人在家庭局域网中访问,账号的数据相互独立。

    登录之后就可以进入到聊天界面了。

    像我这里,显示的就是刚才下载的那个中文不是很利索的llama:1b。

    如果能够登录,但是登录之类页面一片空白。

    别急,多半是忘了打开Ollama,或者是打开了Ollama但忘了run一个模型。

    有了Open-WebUI,跟不同的AI模型聊天也不用每次在命令行窗口先bye再run一个新的了。可以直接通过菜单进行切换。

    你的对话记录,也会像线上使用的AI助手一样,保存在Open-WebUI中。

    同时,你可以通过界面,对系统提示词和详细参数进行设置。

    以及,你也可以在管理员面板中进行新模型的拉取和删除不想用的模型。

    还有更多的细节功能我就不在这里多说了,你可以自己慢慢探索。

    如果你使用24h本地主机(比如Mac Mini Pro)+NAS部署,或者说整个Ollama+Open WebUI都部署在高性能云主机上,你也可以通过反向代理绑定域名,实现随时随地的外网访问。

    Enjoy!

  • 为什么AI的回答复制出来总是带有「##」、「**」、「-」等无用符号?如何才能去掉它们?

    你是否跟这位贴吧老哥遇到过一样的问题?

    想偷个懒,让AI代替自己回答问题,结果被人笑话「一眼AI」。

    用AI写周报和PPT,逐段把这些符号手动删除,生怕在老师/老板面前露出破绽。

    那么,这些是什么东西呢?为什么AI要在回答中插入这些符号?为什么这些符号在对话窗口中不显示,复制出来就有了?

    其实,这些符号是Markdown标记。

    Markdown是一种可以采用纯文本格式编写的轻量级标记语言。它可以被浏览器快速渲染,而且即使不经过渲染,也能表示出文本的结构和格式,同时语法极其简单。

    比如说,用两个连续的星号「**」把文本包裹起来,就代表加粗。像这样:

    **加粗**

    又比如,输入一个井号「#」后面接一个空格后再加文字,就表示一级标题;换成两个井号「##」就是二级标题。像这样:

    # 一级标题
    ## 二级标题

    再比如,输入一个短横线「-」后面接一个空格后再加文字,就表示无序列表。像这样:

    - 第一条
    - 第二条

    而如果要使用Word,很多时候就需要频繁地点击工具栏按钮,不利于专注内容创作。

    实际上,在掌握了这些简单的语法后,纯文本类创作会变得非常高效,很多人都喜欢使用Markdown来写博客或做笔记。GitHub上的项目里通常都有一个README.md文件,这就是一个Markdown格式的文件。我们平时用的Notion、飞书、Obsidian这些软件,也都支持使用Markdown。

    而对于AI来说,如果AI要向你输出一条有结构、有重点、有逻辑的回答,使用Markdown也是绝佳的选择,它可以直接在自己的文本输出中添加标记,随后被浏览器直接渲染,并且远比使用HTML标记等方式要节省tokens。

    那么,道理我们都懂了。

    复制粘贴出来的时候到底要怎么把它们去掉呢?

    AI的事情完全可以交给AI来解决。

    以我之前给某AR眼镜写的评测文章中的段落举例,这篇文章就是在Obsidian中使用Markdown完成的:

    方法1:

    直接发给AI,告诉它把Markdown标记去掉就可以了。

    这种方法可以说最快,甚至在同一个对话窗口中就能完成。

    但也有缺点,去掉Markdown标记的同时把格式也去除了。

    方法2:

    选择一个编程能力过关的AI,比如我常用的Claude。

    告诉它,生成一个Markdown格式转换器,把Markdown语法转换成富文本格式,并且要能够复制。

    Claude的Artifact可以直接把代码运行起来。把这段内容粘贴上去试一下。

    加粗保留了,标题似乎有点问题。

    不过也有可能是Artifact显示出错,我来复制这段富文本内容到知乎的编辑器试一下。

    文中标题显示正常,那就没有问题。

    方法2.5:

    那要是常用的AI不支持类似Artifacts的功能要怎么办呢?

    别急。你可以让AI生成一个可以使用单个HTML文件打开的本地版本。

    如图,Claude在生成的同时还告诉了我们使用方法。

    1. 将代码保存为`.html`文件 2. 使用浏览器打开该文件 3. 在左侧输入 Markdown 文本,右侧会实时显示预览 4. 点击"复制富文本"按钮复制格式化后的内容

    我们新建一个文本文档,把代码粘贴进去,修改文件名为「markdown转换器.html」。

    然后双击用浏览器打开它。

    现在就可以本地使用了,并且可以把这个文件保存,到任意电脑上打开使用,或者发给别人使用。

    如果你想要直接拿去用,我这里也把代码粘贴出来,你可以直接按照上面步骤进行操作。

    <!DOCTYPE html>

    方法2.7:

    本地使用终归是不方便,也可以进一步把它放到NAS上或者云服务器上,甚至反代到自己的域名,这样,就可以随时随地通过网络打开了使用了。

    而且,这就不限于单个HTML文件的小工具了,哪怕是带有后端,也是ok的。

    像我,就自己做了一个小集合页工具箱,把自己常用的工具都聚合起来,放在了自己的导航页面里,以便随时取用。

    以上。

  • 我让AI开发了一个自动分析B站弹幕的网站

    实际上前面的推文DeepSeek的API,我们普通人都能用在哪?已经提到过它了,但这次专门拿出来说一下,包括开发心得和正确的使用方法。

    先把网址放这里:

    https://danmu.liu-qi.cn/

    另外最近DeepSeek的API大崩,开放平台都已经打不开了。所以临时把AI分析的API换成了豆包新发布的Doubao-1.5-pro-32k,效果也不错。

    还有AI深度分析这个版块需要上传视频字幕,但应该很多人不知道怎么得到字幕文件没能成功使用,这个方法我们后面会说,包括整个网站正确的使用教程。

    然后咱们接着聊。

    这个小网站其实是我第一次尝试AI编程的试验品,当时还没用过Cursor,完全在对话窗口中完成的。

    因为当时正好在看B站相关的业务,而且我知道,bilibili的弹幕是很好获取的,存在现成的接口,早先还有本地看番接入线上弹幕的播放器,所以就决定,搞个弹幕分析吧。起初甚至没有什么明确的点子,只是跟AI说:我想写一个web程序,用于抓取bilibili的视频弹幕进行分析。

    甚至,我也没想明白能分析出个啥,连这都是问的AI。

    AI自己调用了获取B站弹幕的API,我给AI提供了讯飞星火的API文档和我自己的密钥。并且让AI教我,通过宝塔面板,把它部署在了我自己的云服务器上。

    于是初版做出来是这样的:

    大部分的分析是根据获取到了什么信息就地分析的,例如说弹幕颜色,然后,按照AI自己的思路,展示了高能时刻弹幕的抽样,以及10条典型弹幕的情感分析。

    这就是第一版,你能看出来有很多不合逻辑的问题,但是它能跑。

    而后就可以继续迭代,比如下面是其中的一个中间版本,我继续调整了布局,并觉得采样10条弹幕进行情感分析不合理,增加了三种分析模式:分析全部、分析高峰、分析50%采样。

    起码比最开始的版本可靠且规整多了。

    所以你看,有时候鸡汤说的也没错。很多时候就是要先做,做出来之后,就能慢慢优化。

    N个版本后,迭代到了现在的状态。

    ⬆️上图分析的目标视频是某知名美食作家UP主使用家里常用的火焰喷射器等工具教大家烹饪家常菜XD

    这时候接口已经换成了DeepSeek,当时DeepSeek还没有跟美军交战,API状态跟现在可不一样,简直就是极速版,而且又快又好。(现在被迫暂时换成豆包了。)

    完整地介绍一下它的功能:

    首先,初始界面,支持直接是BV号,视频链接和带参数的视频链接进行分析。

    这一步中其实涉及多次转换。获取XML弹幕需要的实际上是视频的CID,所以需要有从BV号获取CID的转换,而一遍我们复制下来的都是视频链接,所以还需要有通过视频链接获取到视频BV号的能力。

    这个过程本来需要具备一定前端程序员的基础能力才能操作,但现在,只要告诉AI,我想要通过视频的链接或BV号获取弹幕即可。如果你使用的AI没有那么智能,给到它需要进行链接转换的提示,然后把链接和BV号的示例样子发送给他,基本上也都可以完成。

    输入链接,点击分析弹幕之后。

    服务器会自动获取到XML弹幕,并转换为CSV和TXT两种格式,并提供下载。

    其中CSV格式保留了包括弹幕颜色在内的更多信息,TXT格式则只保留了时间码和弹幕内容,便于拿去进行一下程序固定流程之外的分析。

    需要注意的是,由于弹幕API接口的问题,只能获取到T-1日期的弹幕,并且部分弹幕量过大的视频会存在官方清除弹幕的情况,此时弹幕的数量以及下方的发送日期分布,都会出现不准确的情况。

    同时,还会自动获取到视频的基本信息。

    下方2×2图表模块,固定有密度分布、词云、发送日期分布、发送时间分布四个图表。

    弹幕密度反映视频的弹幕互动高潮位置。

    弹幕词云则反映词频情况,鼠标悬停在相应关键词上会显示该词出现的频次。

    发布日期间接反映视频热度变化和长尾流量情况,并且根据视频发布时间对横轴的跨度做了动态调整,一个月内的视频会显示日期,而发布时间超过一个月的会按周汇总。通过这个,你可以洞察到一些初时无人问津而中途爆火的视频的时间节点,也可以用来跟踪商业合作UP的长尾流量情况。(当然前提是视频不能太火,否则会触发前面说的导致不准的情况。)

    发布时间分布则是统计了发出弹幕的自然时刻(0点-24点),一定程度可以反映该领域或者该类型视频观众的活跃时间。但对于大UP主,会收到视频发布时间的干扰,据我观察,一定体量以上的UP主的视频弹幕发送时间,会集中在视频发布后的几个小时。如果你需要进行客观分析,我建议你下载后手动去除一下视频发布首日的弹幕。

    再往后,就是AI弹幕分析模块,这里就涉及到AI接口了。

    AI弹幕分析会基于视频的基本信息和弹幕的内容,反推这个视频的内容并进行一些推论和归纳。这个还挺神奇的,要知道AI此时是没有得到视频本身内容的任何信息的,但往往凭借视频基本信息和网友弹幕,就能把视频主题推测个八九不离十,并且精准捕获视频中隐藏的甲方。

    甚至上难度使用BV1jcqEY1EeZ这样的视频都难不倒它。

    ⬆️这就是一个典型的前面说中途爆火的视频。

    分析结论如下:

    视频内容可能充斥着大量难以理解的乱码、奇怪表述以及罐头笑声。

    确实如此。

    这个版块我对弹幕分析量的上限进行了3000条的限制,如果弹幕量少于3000条,则会对所有弹幕进行分析,如果数量超过3000条,则会按比例采样开头和高峰弹幕,剩余不足3000条的再平均采样补足3000条。

    (如果后面API成本太高可能会降低上限到1000条XD

    接下来,深度分析版块,作用是分析视频节奏以及进行字幕和弹幕的交叉分析。

    常用B站的朋友应该已经发现了,现在B站上发布的新视频,几乎都带有AI自动生成的字幕了。这也是这个功能的基础。

    字幕文件根据我查询到的信息,是没有相关API的,只能通过抓包获取,这就要涉及到反爬,实现起来很困难。但通过浏览器插件其实可以很简单地获取到视频字幕,所以我干脆就做了一个手动上传功能。

    想要获取视频字幕,可以到Chrome商店搜索哔哔君这个浏览器插件。

    安装这个插件后,在bilibili视频页面弹幕列表的上方会出现一个字幕列表模块(也可以选择以侧边栏的形式显示),它会自动获取视频的字幕,并且可以手动复制或下载视频的字幕。

    顺便一提,这个插件也是带有AI总结功能的,你也可以把DeepSeek的API用在这里。

    现在我们想要想要对视频的字幕和弹幕进行交叉分析,那最好字幕也要带有时间码,所以选择“列表(带时间)”格式进行下载,就可以得到一个带有时间码的TXT字幕文件。

    然后就可以把这个TXT文件上传进行AI深度分析了。

    当AI拿到了视频的字幕,其实就很大程度了解到了视频本身的内容。

    于是就能输出视频中整个故事线的节奏了:

    因为我本身的工作跟营销相关,所以不好意思,二度CUE出了视频的甲方和他们的植入形式。并且对视频的创意亮点进行了分析。

    接下来就是字幕和弹幕交叉分析的部分,AI会结合弹幕高峰时刻的弹幕内容和字幕中体现出的故事情节进行比对分析,洞察观众的情绪反应和关注点,并且分析视频的营销策略和传播价值。

    不过交叉分析比较吃大模型的能力,现在用的豆包表现其实并不出彩,如果换成Claude应该会好很多。

    以上就是这个网站的全部功能和使用方法了。

    这个网站是我完全使用ChatBot完成的,所以在我真正用过Cursor以后,只能说悔不当初。

    真心建议跟我一样状态的朋友,在开始AI编写代码的时候优先尝试Cursor也好,Windsurf也好,Cline也好这样的工具,会省很多事。

    但是,如果说就是要通过ChatBot来做这点事儿,因为用不来IDE也好,因为实在就差会员和API的预算也好,Anyway,如果你就是要像我做这个弹幕分析网站时一样,跟AI一来一回地复制粘贴来完成这个事情,那我也有一些经验可以分享:

    1.AI的代码不是每次都对的,一定会涉及到大量的报错和修改。除了复制粘贴报错信息以外,附加上你自己对这个错误的描述,最好带上你对这个错误发生原因的推测,这能帮你节约很多对话次数。以及,如果讲不清楚,发截图很有效(如果你面对的是一个多模态大模型的话)。

    2.如果你发现已经聊偏,越改越乱,已经鸡同鸭讲了,不要再尝试通过语言纠正,直接回滚到上一个正确的节点,修改接下来那条对话,重新开始聊。

    3.如果你跟我一样,面对AI发过来的修改这个函数那个路由根本不知道应该改哪,提前跟它约定好做出修改指示的方式。

    4.代码很长的文件,让AI在里面做好Part1、Part2的注释。当修改内容量很大的时候,直接让它把完整的某一部分(因为发全部的会中间会断开且影响对话次数)代码发给你,整段复制粘贴。

    如果你查看Bilibili弹幕分析器这个网页的HTML代码,你就会发现它里面有第一部分、第二部分的注释,其实就是做这个用的。

    其实Python代码里也是这样:

    5.如果你使用Claude,想要整段复制粘贴长代码的时候,可以让它输出到Artifact里。长段代码在普通对话中会断开,但在Artifact中,第二次回复的时候可以把新输出的代码接续到上一个Artifact里。但修改的时候我还是建议分好Part1、Part2。

    6.开始输出代码之前,最好先跟AI聊几轮,让它帮你把架构设计清楚。比如说大模型的API接口,最好是单独放在一个文件中被引用,或者使用环境变量。但如果是上来就直接让AI写,就可能不知道被硬编码到什么地方,甚至被暴露到前端js里。这样的话,比如哪天想把DeepSeek的API换成豆包,改起来就很麻烦。用Cursor还好,用ChatBot尤为费力。

    总之,还是建议能用自动化工具最好就别复制粘贴了。

  • 醒醒!你本地部署的DeepSeek-R1,它不是R1

    咱就是说,最近就开始刷到不少本地部署DeepSeek-R1的内容。

    很多网友发文/发视频称成功在本地部署并用上了比肩OpenAI-o1的DeepSeek-R1模型。虽然感觉上还是有些不对劲,但是DeepSeek-R1作为开源模型,它确实是可以本地部署。

    作为一名RTX4090用户,在家用电脑玩家里也算是高配党了,我寻思这么多人都成功本地部署上了,那我这配置应该也可以吧。于是我就跟着去看了一看,嗯……然后发现:

    翻译真是个好东西!

    如果你不愿意用谷歌网页翻译,那你真的可以试试翻译插件——小红书英文评论太多看不懂了?推荐你试试沉浸式翻译

    确实,DeepSeek跟R1一块发布了几个小参数模型,1.5B、7B、8B都有。但看名字,就算不认识Llama,你不觉得那个Qwen有点眼熟吗?我拼音都在嘴边要拼出来了。

    GitHub和抱抱脸的页面上写的都很清楚,如果要选个背锅的,我觉得可能是Ollama。

    上面写着deepseek-r1,下面标了1.5b/7b/8b/14b/32b/70b/671b。

    但是,朋友们,如果你打开翻译再往下划。

    这几个是使用 DeepSeek-R1 生成的推理数据对研究界广泛使用的几个密集模型进行微调而创建的模型呀。

    GitHub页面上同样有相关说明:

    DeepSeek-R1-Distill 模型基于开源模型使用 DeepSeek-R1 生成的样本进行微调。 我们稍微更改了他们的配置和分词器。请使用我们的设置来运行这些模型。

    所以,DeepSeek-R1-Distill-Qwen-1.5B模型,它本质上还是Qwen2.5-Math-1.5B;DeepSeek-R1-Distill-Llama-8B模型,本质上也还是Llama-3.1-8B。

    DeepSeek放出这几个蒸馏模型,是为了说明「较大模型的推理模式可以提炼成较小的模型,与通过 RL 在小型模型上发现的推理模式相比,性能更好。」

    而官方发布的真正的R1模型,只有DeepSeek-R1和DeepSeek-R1-Zero这两个,基于DeepSeek-V3-Base训练而来,参数规模671B:

    如果你非得要本地部署真正的R1,可能只能去尝试一下社区发布的1.58bit精度量化版本的DeepSeek-R1-GGUF,使用RTX4090这样的24G显存GPU,可以实现每秒钟高达1-3个token的输出速度。

    所以,别折腾了。

    网页版免费,API也不贵,折腾毛啊。

  • 说大事专用

    今日无大事。

  • 开源一个由AI生成的AI头脑风暴项目

    昨天发文分享了下我最近都把DeepSeek的API用在哪:DeepSeek的API,我们普通人都能用在哪?,没想到问的最多的是这个AI脑暴会:

    大过年的,干脆开源出来大家一块交流好了。

    GitHub地址:

    https://github.com/Liu-Bot24/AI-BrainStorm

    直接下载:

    https://znas.cn/AppH5/share/?nid=LIYDIMZQGMYTASSNJAYE2&code=fiofV1836JkgTo1vOqKTnbuhnzai08MGm3r9Q9AMfHMaKnUicwuX5lqfp9U61j9oc&mode=file&display=list

    提取密码:9492

    代码和提示词都在其中了。

    在.env.example中替换自己的API KEY和接口地址,并修改文件名为.env即可使用。如果更换模型记得同步更新main.js文件。

    提示词主要有三部分,分别为系统提示词、讨论提示词和总结提示词,全部都在main.js中。

    SYSTEM_PROMPT部分本来有段经过翻译+简单调整的通用AI版本的,但因为比较消耗tokens,上传时删除了。

    我会附在文末,不介意tokens消耗的话可以手动加回。

    添加后效果如下:

    不添加作为对照组:

    各位可结合个人需求与喜好使用。

    如果你想拿去直接使用,我也做了一个简单的小教程。

    在这里查看:

    AI脑暴会傻瓜式项目部署教程(基于宝塔面板)

    但这个教程基于宝塔面板,因为我自己就是在宝塔面板部署的,其他情况下我没有做过测试。不过相信配合AI工具完成在本地部署应该也不难,有需求可以自行尝试一下。

    以及API KEY还是需求自己去获取一下,现在各家AI的开放平台基本都有免费tokens赠送,智谱、Google等厂商还提供有免费API调用的模型。

    基于翻译+微调的AI思考协议:

    # AI助手思维引导协议
    

    新年快乐!

  • DeepSeek的API,我们普通人都能用在哪?

    2023年之前,在我的概念里,API调用这件事儿还是开发者的专利。

    直到某一天,我发现了一个有点魔幻的事实:

    AI大模型发展到今天这个阶段,我也能调用API了。

    看不懂文档,AI来看;不会写代码,AI来写。

    最近大家都在讨论DeepSeek,应该有很多人注册了DeepSeek的开放平台。DeepSeek开放平台在注册后会赠送10块的体验额度,现在应该不显示tokens数量了,但在2月8号之前,这10块的额度还是跟之前一样,等效大概500万tokens。肯定有人觉得这么多tokens花不完,但当你真正把AI用进去,你会发现它甚至完全不够花。

    去年12月底到现在,不到1个月的时间,我的赠送额度已经被我干到底了,输入+输出加起来差不多一共用了900万tokens。分享下我都把它们用在哪儿了:

    1.浏览器插件

    最最没有难度的应用场景就是浏览器插件了,也就是前面说过那个沉浸式翻译插件:小红书英文评论太多看不懂了?推荐你试试沉浸式翻译

    把API Key和接口地址填上就能用。

    除了沉浸式翻译之外,它还可以对页面内容进行梳理和总结。

    比如说,在相亲网站的混排list里帮你找到心仪性别的对象:

    或者,在你迫不及待参加这种相亲活动的时候,在别人资料上鼠标一拉,快速提取出表头,填好直接报名:

    这种浏览器插件的用法没有什么难度,会填空就能用。但很容易被大厂的同类产品摸到屁股,比如豆包。

    豆包插件完全免费,迭代几个版本就可以实现一样的功能,我却在这里消耗着API额度,多少有点冤种的意思。

    其实从插件的几个功能就能看出来,DeepSeek的API能做的,也就是LLM能做的,其中最常见的,就是对文本内容进行分析、总结和处理。

    于是在这个能力的基础上,配合一些简单的AI开发,就可以有一些有意思的东西。

    2.Bilibili弹幕分析器

    这个是我最早尝试AI编程做的小工具了,当时还不会用Cursor,就是在Claude的对话窗口里一来一回复制粘贴搭出来的。

    代码是Claude写的,被调用的API是DeepSeek。

    这个应用我已经放在自己的阿里云上了,下面是地址,可以自行复制粘贴到浏览器体验:

    https://danmu.liu-qi.cn/

    这个工具有这些功能:

    ①获取视频基本信息和下载弹幕

    ②生成弹幕分布和弹幕词云等图表

    ③弹幕AI分析(这里调用了DeepSeek的API)

    分析结果:

    ④弹幕&字幕AI交叉分析(这里也调用了DeepSeek的API)

    bilibili的新视频基本都有AI生成的带有时间码的字幕,但官方没有提供相应的API接口,需要抓包获取。这个操作使用浏览器插件更加便捷,所以给字幕做了一个上传功能。

    分析结果:

    3.AI脑暴会

    这里除了DeepSeek以外还用到了其他AI的API。

    可以实现多个AI就一个议题进行多轮讨论,并在讨论中延伸出新的观点。

    比如说,现在知乎热榜上有这样一个问题:

    我就以此为题,让5个AI进行5轮讨论。

    5个AI按顺序开始发言,从第1轮开始,

    讨论到第5轮。

    最后,选出一位代表,对前面5轮讨论进行总结。

    4.AI错别字审核

    大语言模型具备一定的错别字识别能力,但让人难受的是,经常出现检测不全或者过量检测的问题。

    所以在不对模型本身进行微调的前提下,我选择用三个不同的模型对同一篇文章进行检测。在他们的结果之间相互印证,提升检查动作的整体容错率。

    5.结合飞书多维表格使用

    前面几个都是使用AI编程工具开发WEB应用调用API,那有没有不需要开发也不需要服务器的生产力应用场景呢?也是有的,最典型的,就是搭配飞书多维表格自动化。

    比如下面截图这个表格:

    这个表格的作用是,把知乎博主发表的文章全文存放到多维表格里,点击按钮后,调用DeepSeek的API,排除掉全文内容单元格中不属于文章正文的部分,再根据正文内容分析总结作者的专业背景。

    其实飞书多维表格自身是带有AI功能的,但一个是能力确实稍弱,另一个是输入限制较多。比如现在这个案例,一整篇文章的全文信息提炼,使用飞书自带AI会直接提示输入字数超限,所以就可以通过调用外部API来解决。

    只需要在自动化中,设置好触发条件,然后发送HTTP请求。

    至于请求URL、请求头、请求体要怎么写。

    我选择直接向AI提问,也得到了AI给出的正确答案。

    最后把返回的值写到表格对应位置即可。

    6.AI自动化编程插件

    我现在用过两款VS Code插件,名气比较大的Cline很多人都知道,另一个Roo Code从前叫Roo Cline,是Cline的一个分支,它可以把一个思考模型作为架构师使用,另一个模型作为代码执行。

    虽然是VS Code插件,但我建议直接使用Cursor安装,因为Cursor本身也是基于VS Code修改而来,这两款在插件在Cursor都可以无缝正常使用。

    这两个插件整体上相差不大,甚至配置界面都差不多,只需要填写上API Key即可:

    如果使用Roo Code,在这个页面可以创建两套配置,使用DeekSeep-R1模型作为架构师,使用DeepSeek-V3模型来写落地代码。

    使用起来跟网页Chat工具一样,直接提出你的要求,比如,帮我创建一个计算器。DeepSeek回复自己的理解,并开始迅速生成代码。

    一会儿就写好的完整的html、css、js三个文件,并提示我Run Command打开。

    一个计算器应用,就这么创建好了,用时不到三分钟。

    这也是我认为的AI时代解决问题的一个新范式。

    在过去,掌握一些搜索能力的人,包括我自己在内,会吃到一部分小红利。因为我们总能判断出针对某一些问题,是否可能存在一些现成的解决方案,然后通过搜索,找到这些已经存在于互联网上的现成解决方案或者说小工具。然后利用这些现成的旧轮子,快速解决自己遇到的新问题。

    但随着AI的进步,解决很多问题的最优路径,可能不再是找到一个现成的好方案来解决问题,而是直接用AI针对眼前的问题生成一个100%匹配的解决方案直接莽过去。

    举两个小例子,都是我直接用AI莽出来解决问题的小工具。

    ①文本清理工具。

    清理复制粘贴网页文本产生的空格、空行、乱码的广告、Markdown标记等等。

    ②Markdown转换器。

    很多大语言模型的回复会使用Markdown格式。Markdown格式确实十分轻量化,不占用tokens的同时还能表示出多种格式。但我们复制AI的这种回答时,复制下来的内容往往带有一堆Markdown标记,如果最终的使用场景不支持Markdown,那粘贴过去的内容就容易带有一堆杂乱符号。

    于是我直接用AI生成了一个Markdown转换器,把直接复制下来的带有Markdown标记的内容粘贴在左边,右边会自动转换成对应的富文本格式,而后直接复制右边转换好的内容使用即可。

    这两个小工具,网上当然存在现成的。但是,要找的恰好免费又好用的,可能搜寻的时间就远远超过直接用AI生成的时间了。

    除了前面说的Cline和Roo Code两个Cursor插件,还有一个建议安装插件就是这个Remote-SSH插件。

    通过这个插件,可以直接连接到云服务器,直接在服务器上生成代码和文件,免除把本地写好的程序部署到云端的烦恼,也省去在本地电脑上配置开发环境。(当然我这只是针对于极轻量级AI Web应用而言,专业开发人员另说。)

    建议租一台云服务器,这样就可以把自己生成的AI小应用放在云端,随时访问,就像再见了百度!我用AI手搓了自己的专属网址导航页

    2核2G的基本足够使用,例如阿里云的:

    https://www.aliyun.com/minisite/goods?userCode=r18u1tal

    68/年和99/年的配置基本相同,差别在于轻量服务器一年后会涨价,ECS经济e实例第二年续费依然就99/年。

    如果像我一样把长期的网址导航搭在服务器上,建议选第二个;如果主要用于测试和临时使用,那就可以选第一个。

    API的调用现在已经简单到,找到API文档复制发送给AI,然后把API Key发送给AI,AI就可以自动写好调用API的代码。

    现在普通人跟普通开发者中间差的或许已经不是技术能力,而是满足需求的想法和乐于尝试的动力。

  • 再见了百度!我用AI手搓了自己的专属网址导航页

    有个有点难以启齿的事儿。

    其实我十几年来一直在用百度首页的导航功能,就是这玩意儿:

    图片来自网络

    因为hao123太花里胡哨了,而且我又是老贴吧用户,用百度的导航确实方便些。多年用下来积攒了一百多网站收藏,迁移成本太高了,所以就算后来在NAS里就可以通过Docker部署很多不错的导航应用,就算百度在导航板块强制塞了一堆我根本不想看的垃圾新闻和百家号,只要不影响使用,忍也就忍了。

    但最近百度不知道又抽的哪门子风,来了个改版,整个导航模块变窄了,一行只能显示6个图标,留下偌大的空白区域显示无意义的背景图,这下我100多个网站直接堆成好几屏。

    就很离谱

    开始我还以为是哪里设置出了问题,然而找了半天都没找到,到网上搜索了一下,骂的还真不少。

    真的太没谱儿了

    这次我决定不再坐以待毙了。

    不然鬼知道百度的**设计师还能整出什么幺蛾子。

    放弃百度,换一个新的导航网站。

    其实之前并非没有替代。

    但真的是这些年下来积攒的导航网站太多了,一个一个重新录入迁移,想想都费劲。

    但今时不同往日,AI的时代我们可以用AI的方法来搞定以前搞不定的问题。

    首先,我们可以通过AI把原来的导航分类和网站提取出来。

    免费的DeepSeek-R1就能完成这件事儿:

    在百度的导航版块右键—检查,

    然后把整个版块的前端代码全都复制下来。

    只需要告诉AI,这是一个导航页的前端代码,请帮我提取出其中的分类、网站名称和网址,

    他就能自动把里面网站的分类、名称、链接都提取出来。

    接下来就可以让AI来完成这个导航页面。

    可以在Chat工具里完成:

    推荐使用Claude,它可以在Artifacts反复修改和调整,并且支持预览。

    需要修改,直接继续聊就可以了。

    后端的实现也是一样通过聊天生成代码即可。

    特别提醒,如果跟我一样没什么代码基础,建议要求它用Python或者PHP这类相对好部署的方式实现。

    但Chat工具总是需要复制粘贴的,还要到处找代码的位置,比较麻烦。追求自动化程度更高一些的方案,也可以使用AI编程工具来完成:

    如果追求极致性价比,可以使用VS Code(其实Cursor就行)配合Roo Code或者Cline插件,接入DeepSeek的API,写简单的页面足以胜任。

    使用方法跟直接使用Chat工具一样,就是对话。

    我是直接通过Cursor完成的,Cursor的Composer功能同样可以自动跨文件编写代码和Debug,并且使用的是我非常熟悉的Claude 3.5 Sonnet模型。

    甚至在开发过程中,我还让它写了一个小工具把我十多年积累的150多个网站全部ping+发送http请求了一遍,排除了十几个已经失效的网站。

    最终的效果如图所示:

    • 我把它放在了我自己的阿里云服务器上(准确说是直接SSH到云服务器上生成的代码),并绑定了自己的域名。
    • 它被设计成了一个让我比较满意的宽度,同时在小屏设备上也可以自适应。
    • 清理失效网站的同时,重新做了分类。
    • 加入了简单的后端,把原有百度导航的网站迁移过来后,支持编辑和继续添加新网站,以及拖动排版。(我的后端没有使用数据库,只是用了一个简单的python文件存储这些网站,所以我也可以到服务器后台编辑这个文件来实现修改和排版。)
    • 加入了时间日期、天气功能,以及3大搜索引擎的快捷搜索框。
    • 加入了NAS和AI的二级聚合页入口,点击以后分别可以打开我部署在NAS上的Docker应用和我常用的AI工具。
    • 加入了一个自动保存的便签框。这样我在多台Windows、Mac和移动设备之间复制粘贴文本的时候,再也不用跟时灵时不灵的微信输入法生气,也不用登录多个微信、QQ,只要粘贴到这个框里,另一台设备打开浏览器首页就可以快速复制。

    总之,勤快起来,跟百度导航说再见,舒坦了。

  • AI脑暴会傻瓜式项目部署教程(基于宝塔面板)

    先叠个甲,本人不从事编程相关工作,也没怎么学习过,跟代码的关系属于他认识我但我不认识它,我的代码全部来自于AI生成。只能保证它能在我的环境下能跑起来,无法保证其安全和性能,更不用说规范和优雅,请大家谨慎使用和跟随。

    AI脑暴这个东西开发的时候其实就是直接用Cursor软件SSH到一台装了宝塔面板的服务器上完成的代码(不愿意在本地电脑配置开发环境=。=),写完就直接就地部署了。所以不是我不想讲其他的部署方式,主要是我也只会这一种。但我觉得,如果你想要进行本地部署或着其他没那么复杂的方式,在AI的帮助下应当不难。

    下面直接开始宝塔上的部署:

    首先在GitHub或网盘上直接把项目文件打包下载。

    然后在宝塔面板左侧菜单点击文件,打开文件管理器,把刚才下载的压缩包上传到/www/wwwroot/路径并解压。

    如果是在GitHub下载的,那文件夹应该如下:

    在文件管理器打开这个文件夹,修改.env.example文件中的AI模型模型ID、API KEY、接口地址为自己的。(豆包、智谱、通义、讯飞星火、DeepSeek等等都有免费额度赠送。)

    然后把.env.example文件名修改成.env即可。

    如果你更换了模型,记得到/static/js/文件夹下把main.js文件开头这里也改一下:

    然后找到左侧菜单,网站——Python项目——添加Python项目。

    然后项目路径选择刚才上传的文件的文件夹,项目名称会自动填写,Python版本安装3.8版本,启动方式选择命令行启动,启动命令填写:
    /www/server/pyporject_evn/AI-BrainStorm-main_venv/bin/python3 -m uvicorn app.main:app –host 0.0.0.0 –port 8000
    (记得防火墙开启8000端口)
    环境变量无,启动用户www,安装依赖包

    然后等待一段时间,宝塔会自动创建虚拟环境并安装依赖。

    完事儿后项目状态自动变成运行中状态(还没有就手动启动一下)。

    然后,在浏览器地址栏输入http://你的服务器ip:8000/,就可以打开AI头脑风暴页面了。(如果打不开,多半是防火墙没有放行8000端口。)

    现在就可以正常使用啦。