LM Studio 之高级篇 LM Link

张开发
2026/5/16 14:55:07 15 分钟阅读
LM Studio 之高级篇 LM Link
上一篇对LM Studio初体验后打开了LM Link竟然有惊喜。LM Studio的链接功能LM Link是其核心特性之一主要用于远程设备间的模型共享与协作同一用户可以免费支持5台设备让你可以在本地调用远程设备如服务器或高性能主机上的模型就像使用本地模型一样。即然是这样我不就可以用家里电脑上的显卡来养单位电脑上的小龙虾了吗好奇的试了一下竟然是真的可以。其联网原理大概是类似vpnb2b技术。安装过程是这样的首先注册用户在测试期间注册用户还要排队我大概排了一个小时现在可能不用排队了。国内用户只能使用邮箱或使用github帐号注册。注册完成后使用命令启动服务和登陆如上图将显示的URL复制到浏览器上点两个确认就行了。打开windows上的 LM Studio 界面点击LM Link图标后可以看到自己的电脑设备已在线在界面上点击蓝色加号图标选择我的另一台设备不带GUI界面的点Continue下一步按照图示的三步分别进行用同一个用户登陆就行了。我在另一台设备因为是linux服务器操作系统是 centos stream 10c版本较新所以安装的很顺利如果是旧版本没有GLIBCXX_3.4.30可能要升级C的Lib可参考我另一篇文章正常应该如下图装完后按照提示lms daemon up服务就启动了然后登陆同一个帐户。只需要把lms login显示的URL复制到浏览器里(不一定要用本机的浏览器)选择邮箱或github授权就可以了也不需要密码。完成后回到windows LM Studio 界面即可看到新设备了。如果没有试试lms lmlink enable命令。起动一个对话lms chat/model显示所有两台设备上下载的模型。选一个远程设备的试一下能够正常聊天。起动本地接口服务lms server start可以适用opent ai的服务器接口如https//127.0.0.1:1234/v1将URL链接配置到小龙虾openclaw里即可使用两台设备的本地模型无限token了。注意一点装载本地模型时上下文默认是4096如果让小龙虾使用要把上下文设长一点儿如lms load -c 10240 #代表10k上下文。再选择模型。上下文的大小不能超过模型限制一般新模型象qwen3.5可以200k也不能超过显卡显存限制可以通过windows的LM Studio界面通过CTRL L 配置装载模型设置上下文时能同时显示需要占用的显存大小如果超过限制装载模型时容易造成死机。

更多文章