
AI大模型运行
文章平均质量分 85
lpcarl
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Ubuntu安装ollama,并运行ollama和通义千问,使用gradio做界面
修改pip下载的源为国内源,这样下载的速度更快,注意这里的路径记得替换成自己电脑安装miniconda的路径。运行后,可以看到绑定了一个本地的端口7860,在浏览器中打开,就能看到对应的界面。前端我们使用python创建访问的接口,并使用gradio创建前端页面。在终端中打入,如下命令可以查看本机安装的大模型。使用下面的命令,可以将相应的模型运行起来,接着打入粘贴上面的命令,回车后自动安装。接着打入粘贴上面的命令,回车后自动安装。可以看到,会出现绑定的端口11434。运行后,可以看到如下的输出,原创 2024-11-16 11:12:35 · 2519 阅读 · 1 评论 -
从零开始使用Intel的AIPC使用xpu加速comfyui
接下来写一个运行的脚本,保存成1.cmd放在用户目录下,这样每次cmd运行时,首先执行1.cmd就能激活该环境。使用默认的工作流输出一张图片,从图片中可以看到经过xpu加速后,一张出图的时间大概是5分钟。安装好后重启comfyui,进入系统设置,修改语言中文即可。这个模式下,cpu执行非常慢,按这个估算,估计要1个多小时。win+r 打开cmd,然后运行1.cmd。可以看到如下的输出代表环境搭建成功。命令行运行,可以看到使用的时xpu。安装好后,通过命令行设置清华源。首先上面搭建的环境中。原创 2024-11-11 11:19:17 · 1592 阅读 · 0 评论