在当今 AI 智能体技术爆发的时代,NVIDIA 的开源项目 NemoClaw 无疑是企业用户和技术爱好者眼中的明星项目。它不仅继承了 OpenClaw 强大的通用智能体能力: 理解复杂指令、自主编写代码、操作文件以及控制浏览器。更重要的是,通过底层的 NVIDIA OpenShell 运行时,它提供了一个更安全、完全隔离的沙盒环境。
当你拥有一台像 NVIDIA DGX Spark 这样的顶级桌面 AI 超级计算机(配备 GB10 Grace Blackwell 超级芯片,拥有 1 PFLOPS 的算力和 128GB 的 LPDDR5x 统一内存)时,将 NemoClaw 与本地大型语言模型结合,是释放这台机器潜力的最佳方式。
本文将带你了解 NemoClaw 的核心优势,并提供一个极简的部署方案,让你能够轻松地在 DGX Spark 上运行一个基于本地 Qwen3.5 35B 模型的安全智能体。
为什么选择NemoClaw?
NVIDIA NemoClaw 是一个开源软件堆栈,它简化了运行 OpenClaw 实时助手的过程——只需一条命令。它安装了 NVIDIA OpenShell 运行时,来添加基于策略的隐私和安全护栏,让用户能够更多地控制其智能体的行为和数据处理:
沙盒隔离:每个 AI 智能体都在其自身隔离的 OpenShell 沙盒内运行,通过策略强制控制文件访问、网络活动和数据泄露——而且由于这些控制独立于智能体进程之外,无论是智能体本身还是任何恶意的提示词注入都无法覆盖它们。
隐私路由:拦截智能体发出的请求,自动剥离 PII(个人身份信息)和凭证等敏感数据,然后根据你组织的隐私策略将请求路由到本地或外部的 AI 模型。
安全能力演进:当智能体学习新技能或尝试安装新工具时,每一项新能力都要受到相同的安全策略控制。
为什么选择 DGX Spark + 本地大模型?
本地部署具有无与伦比的优势:
零成本无限试错:复杂的智能体任务(如代码调试、网络信息提取)通常需要消耗大量的 token。使用本地模型,你不再需要担心 API 账单,可以让智能体自由工作。
压榨硬件潜力:DGX Spark 的 128GB 统一内存和 273 GB/s 内存带宽可以轻松容纳像 Qwen3.5 35B 这样的开源模型,这些模型兼具强大的推理和编程能力,让你享受极低的推理延迟。
极简部署方案
第1步:准备环境
确保你的 DGX Spark 上已安装 Docker,并且 Ollama 服务已启动。以下过程以 Qwen 3.5 模型为例(DGX Spark 运行 35B 模型毫不费力):
# 拉取 Qwen3.5 35B 模型 ollamapull qwen3.5:35b-a3b
第2步:运行一键部署脚本
克隆辅助脚本并运行它:
# 获取辅助部署脚本 gitclonehttps://github.com/HeKun-NVIDIA/nemoclaw-setup.git cdnemoclaw-setup # 授予执行权限并运行 bash nemoclaw-setup.sh
脚本执行期间的终端交互指南:
脚本将自动检测本地 Ollama 服务并列出已安装的模型。
Detectedlocalinference option: Ollama LocalOllamaisrunningonlocalhost:11434 UselocalOllamaforinference? [Y/n]: Y Ollama models: 1) qwen3.5:35b-a3b 2) llama3:8b Choose model [1]:1
输入你要使用的模型编号(例如,1)并按回车键。
接下来,它将进入 NemoClaw 的官方引导流程。在第 3 步,它会询问是否创建或覆盖沙盒:
Sandbox'my-assistant'already exists. Recreate it? [y/N]: y
输入 y 确认创建。
在第 4 步选择推理方法时,你必须选择 Local Ollama:
Selectan inference provider: 1) OpenAI 2)LocalvLLM 3)LocalOllama Choice:3
选择 3,然后输入你在第一步中选择的模型名称(例如,qwen3.5:35b-a3b)。
在第 7 步选择策略预设时,只需按回车键应用默认推荐配置(通常包括 pypi 和 npm 访问权限)。
脚本将在最后输出以下消息,表明网络路由已成功配置,桥接了沙盒与主机 Ollama 之间的通信:
Patchinggateway inference route... Gateway inference route updated to http://172.17.0.1:11434/v1 ───────────────────────────────────────────────── Browser access: http://127.0.0.1:18789/ ─────────────────────────────────────────────────
第 3 步:远程访问 UI
作为一个例子,假设 IP 地址是 192.168.8.117,你想通过 MacBook 上的浏览器访问 UI。然后在您的电脑上打开一个新终端并设置 SSH 端口转发:
# 将本地端口 18789 转发到 DGX Spark 的端口 18789 ssh-N -L18789:127.0.0.1:18789nvidia@192.168.8.117
保持此终端打开。然后打开你的浏览器并访问部署成功后终端提示的链接(例如):
http://127.0.0.1:18789/#token=ed53e52784cebb810eef349d946aeeca9574c49feb3e15df6852f17473a752b9 (注意:此链接将在上述终端命令执行完毕后显示。请直接复制终端中显示的带有token的链接)。
此时,NemoClaw 极具未来感的控制台界面将显示出来。
与本地智能体聊天

在聊天界面中,你可以直接向 NemoClaw 发送指令。为了验证它正在使用指定的本地模型,你可以问它:“你好,NemoClaw,你的本地大模型是什么?”
它会回复其底层的大模型名字:
智能体回复示例:
你好 Ken!本地运行的大模型是 Qwen3.5:35b-a3b!
详情:
模型系列:Qwen3.5(Qwen 系列的最新版本)
参数量:35B(350 亿参数)
提供商:Inference(通过 API 调用的模型)
模型ID:inference/qwen3.5:35b-a3b
现在,你可以开始给它分配各种任务,例如“帮我写一个贪吃蛇网页游戏并运行它”,同时利用 DGX Spark 带来的推理速度和完全本地化、隐私安全的 AI 智能体体验。
进阶:如何一键更换模型?
得益于 DGX Spark 的 128GB 内存,你可以轻松尝试更大更强的模型。例如,最近流行的国内开源推理模型 DeepSeek-R1;DGX Spark 可以轻松运行其 70B 版本(deepseek-r1:70b)。
如果你想更换模型,无需手动编辑复杂的配置文件。你只需要在终端中指定环境变量并重新运行辅助脚本:
# 提前拉取模型(可选,但推荐) ollamapull deepseek-r1:70b # 一键切换并重建沙盒 NEMOCLAW_MODEL=deepseek-r1:70b NEMOCLAW_RECREATE_SANDBOX=1bash nemoclaw-setup.sh
辅助脚本会自动为你销毁旧沙盒,重建它,并配置所有网络路由。这只需几分钟,你的 NemoClaw 智能体就会带着新的 DeepSeek 大脑重新开始。
在本地智能体的世界里玩得开心!
- 附录1:OpenClaw 风险防范六大核心建议
- 内容来源:国家网络与信息安全信息通报中心
- 附录2:防范OpenClaw安全风险,工信部提出“六要六不要”
- 内容来源:工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)
|作者:Ken He NVIDIA 企业级开发者社区经理 & 高级讲师
- 随机文章
- 热门文章
- 以一抵十的高效连接:12孔航空插头的多线路集成优势
- 普源示波器DS1102抖动测量全流程方法详解
- 喷涂黑科技!Ethernet IP转ModbusTCP网关,让机器人喷涂“指哪打哪”
- 中国多省份共推石窟寺保护气象服务
- “京剧文化之旅”亮相莫斯科 深化中俄文旅交流
- 戏剧舞台也要“节能减排”
- 阻燃橡胶板是什么材料的好一点
- 天创信用:十年砥砺前行,开启信用科技新征程
- 港股6月收官 | 恒指涨3.36%重回24000点关口,中资券商股爆发,新消费多只个股创新高
- 小米电动汽车有望年底实现盈亏平衡,或推动评级上调
- 1感染甲流后该如何科学调养?饮食起居这样做,感染甲流后该如何科学调养?饮食起居这样做
- 2马克龙去的这所大学,太宝藏了吧!,马克龙去的这所大学,太宝藏了吧!
- 3北方多地迎来降雪降温天气 各部门联动“战”寒潮筑牢安全防线,北方多地迎来降雪降温天气 各部门联动“战”寒潮筑牢安全防线
- 4“无保护”攀岩真的无保护吗?“无保护”攀岩真的无保护吗?
- 5福州发布公告:吴石故居将封闭施工,展开系统性修缮
- 6城中话债|激活民间投资:让有效率的资本站上C位
- 7科学家的照片排在董事长之上,科学家的照片排在董事长之上
- 811月份“菜篮子”产品价格呈现季节性上涨 多因素推高生产成本,11月份“菜篮子”产品价格呈现季节性上涨 多因素推高生产成本
- 9晚间重磅!又一万亿级券商将诞生 券业并购潮涌
- 10何立峰:有力有序有效做好2026年金融重点工作