AI知识库选集
发布于

本地太卡?教你用 Ollama 云模型无压力运行 120B 模型

推荐语

本地跑大模型太吃力?试试Ollama云模型,轻松驾驭120B参数大模型,不挑硬件性能!

核心内容:
1. Ollama云模型原理:本地命令调用云端算力
2. 本地模式与云模式的六大核心差异对比
3. 三步上手教程:从登录授权到API调用

杨芳贤

53AI创始人/腾讯云(TVP)最具价值专家

关注 “AI 工具派

探索最新 AI 工具,发现 AI 带来的无限可能性!




嗨,我是Chris,一个专注于探索各类 AI工具的博主,与大家一起发掘 AI 的潜力。我正在开发WiseMindA,期待它能成为提升学习效率的宝藏。










本地显卡不够、显存爆了、加载模型半天动不了?

Ollama最近的「云模型」功能,可能正好能帮助到你。

如果你用过 Ollama,大概率是因为它能在本地跑各种大模型:

下载一个模型,用ollama run一敲,就能聊起来。

但问题也来了——模型太大了,本地电脑吃不消,显存不够、风扇狂转、系统一卡一卡的。

Ollama 新推出的云模型(Cloud Models)就是为了解决这个问题:

你还是用熟悉的命令,但模型不是在你电脑上跑的,而是在 Ollama 的云端跑完后,把结果传回来。

也就是说,你能像本地一样用 Ollama,却能跑更大的模型。

其实 Ollama 现在有两种运行方式:

一句话总结:

👉本地模型:快,但受限于设备。

👉云模型:灵活,不挑硬件。

目前 Ollama 云端能用的模型都带-cloud后缀,目前仅支持:

这些名字后面都有个“-cloud”,代表模型在云端运行。

这些模型都是参数体量超大的模型,但你本地照样能用。

其实用起来很简单,分三步就行 👇

先登录 Ollama:


这里需要注意,需要把上面中的https://ollama.com/connect?name=.....链接复制到浏览器打开,然后登录你的账号,确认授权:

或者使用 API 时,把 Key 设置好:


获取 API Key: https://ollama.com/settings/keys

然后直接在终端运行模型,比如:


和本地模型几乎一样,只是这次在云端跑。

想在自己的项目里接入也行。

示例代码如下:













就这样,你的本地脚本就能直接调用云端模型。

Chris 这里帮你总结下:

用本地模型的情况:

用云模型的情况:

很多人会两者结合:比如小任务用本地模型,大任务临时切云模型。更多介绍可以查看官网:https://docs.ollama.com/cloud

虽然云模型很方便,但也有一些要注意的:

假设你原本这样写的:


现在只要改成:


或者在代码里做个小判断 👇


这样就能随时切换运行模式,想本地跑就本地跑,想云跑就云跑。开发调试更灵活,也方便部署。

另外,在Chris 开发的 AI 本地知识库软件 WiseMindAI 上,也即将支持 Ollama Cloud 模型了,预计 10 月底 v0.2.5 版本上线:

Ollama 的云服务包含小时和每日限制,以避免容量问题。目前支持免费和专业版订阅(20 美元),只是免费版的每日限制,官方还没有确定,目前可以免费使用:

Ollama 的云模型功能,可以说是「让你不买显卡,也能玩大模型」,使用的时候:




近期推荐

  • 👉2024 热门 AI 工具

  • 👉2023 热门 AI 工具

  • 👉WiseMindAI:本地化 AI 智能知识库,数据本地化

  • 👉AI视频生成工具|AIPPT工具|AI代码编辑器

  • 👉AI文本转语音|AI音视频转录|AI翻译插件

  • VideoTutor:一款 AI 教育辅助工具,一键生成 K12 动画讲解视频

  • PixelX:自媒体创作者、电商运营、设计师的效率神器!

  • ListenHub:一键将文本、网页、文档生成播客音频的 AI 工具

  • WiseMindAI 五月份新功能汇总!

  • Pemo:一款 AI 驱动的文档管理神器!

  • ChatWise:一款本地化 AI 聊天客户端,支持多种模型

  • 观猹:一个汇集 AI 好产品的社区










大模型技术大模型技术原理大模型技术架构

浏览 (9)
点赞
收藏
1条评论
探小金-AI探金官方🆔
嗨!我是探小金~😊 这篇文章太棒啦!围绕 Ollama 云模型功能展开,详细介绍了如何让用户摆脱本地硬件限制,轻松运行 120B 大模型的解决方案呢! AI知识库选集写得真详细!从原理到实操步骤都很全面,Chris 看到也会很开心的~建议可以多加点实际使用体验分享,这样读者会更感兴趣哦!🤗 话说大家有没有遇到过本地跑大模型时电脑卡成幻灯片的经历呀?都是怎么解决的呢?快来分享一下你的"被卡"血泪史吧!🐤
点赞
评论
到底啦