使用NVIDIA DGX Spark构建本地AI智能体

在当今 AI 智能体技术爆发的时代,NVIDIA 的开源项目 NemoClaw 无疑是企业用户和技术爱好者眼中的明星项目。它不仅继承了 OpenClaw 强大的通用智能体能力: 理解复杂指令、自主编写代码、操作文件以及控制浏览器。更重要的是,通过底层的 NVIDIA OpenShell 运行时,它提供了一个更安全、完全隔离的沙盒环境。

当你拥有一台像 NVIDIA DGX Spark 这样的顶级桌面 AI 超级计算机(配备 GB10 Grace Blackwell 超级芯片,拥有 1 PFLOPS 的算力和 128GB 的 LPDDR5x 统一内存)时,将 NemoClaw 与本地大型语言模型结合,是释放这台机器潜力的最佳方式。

本文将带你了解 NemoClaw 的核心优势,并提供一个极简的部署方案,让你能够轻松地在 DGX Spark 上运行一个基于本地 Qwen3.5 35B 模型的安全智能体。

为什么选择NemoClaw?

NVIDIA NemoClaw 是一个开源软件堆栈,它简化了运行 OpenClaw 实时助手的过程——只需一条命令。它安装了 NVIDIA OpenShell 运行时,来添加基于策略的隐私和安全护栏,让用户能够更多地控制其智能体的行为和数据处理:

沙盒隔离:每个 AI 智能体都在其自身隔离的 OpenShell 沙盒内运行,通过策略强制控制文件访问、网络活动和数据泄露——而且由于这些控制独立于智能体进程之外,无论是智能体本身还是任何恶意的提示词注入都无法覆盖它们。

隐私路由:拦截智能体发出的请求,自动剥离 PII(个人身份信息)和凭证等敏感数据,然后根据你组织的隐私策略将请求路由到本地或外部的 AI 模型。

安全能力演进:当智能体学习新技能或尝试安装新工具时,每一项新能力都要受到相同的安全策略控制。

为什么选择 DGX Spark + 本地大模型?

本地部署具有无与伦比的优势:

零成本无限试错:复杂的智能体任务(如代码调试、网络信息提取)通常需要消耗大量的 token。使用本地模型,你不再需要担心 API 账单,可以让智能体自由工作。

压榨硬件潜力:DGX Spark 的 128GB 统一内存和 273 GB/s 内存带宽可以轻松容纳像 Qwen3.5 35B 这样的开源模型,这些模型兼具强大的推理和编程能力,让你享受极低的推理延迟。

极简部署方案

第1步:准备环境

确保你的 DGX Spark 上已安装 Docker,并且 Ollama 服务已启动。以下过程以 Qwen 3.5 模型为例(DGX Spark 运行 35B 模型毫不费力):

# 拉取 Qwen3.5 35B 模型
ollamapull qwen3.5:35b-a3b

第2步:运行一键部署脚本

克隆辅助脚本并运行它:

# 获取辅助部署脚本
gitclonehttps://github.com/HeKun-NVIDIA/nemoclaw-setup.git
cdnemoclaw-setup


# 授予执行权限并运行
bash nemoclaw-setup.sh

脚本执行期间的终端交互指南:

脚本将自动检测本地 Ollama 服务并列出已安装的模型。

Detectedlocalinference option: Ollama
LocalOllamaisrunningonlocalhost:11434
UselocalOllamaforinference? [Y/n]: Y
Ollama models:
1) qwen3.5:35b-a3b
2) llama3:8b
Choose model [1]:1

输入你要使用的模型编号(例如,1)并按回车键。

接下来,它将进入 NemoClaw 的官方引导流程。在第 3 步,它会询问是否创建或覆盖沙盒:

Sandbox'my-assistant'already exists. Recreate it? [y/N]: y

输入 y 确认创建。

在第 4 步选择推理方法时,你必须选择 Local Ollama:

Selectan inference provider:
1) OpenAI
2)LocalvLLM
3)LocalOllama
Choice:3

选择 3,然后输入你在第一步中选择的模型名称(例如,qwen3.5:35b-a3b)。

在第 7 步选择策略预设时,只需按回车键应用默认推荐配置(通常包括 pypi 和 npm 访问权限)。

脚本将在最后输出以下消息,表明网络路由已成功配置,桥接了沙盒与主机 Ollama 之间的通信

Patchinggateway inference route...
 Gateway inference route updated to http://172.17.0.1:11434/v1
─────────────────────────────────────────────────
Browser access:
http://127.0.0.1:18789/
─────────────────────────────────────────────────

第 3 步:远程访问 UI

作为一个例子,假设 IP 地址是 192.168.8.117,你想通过 MacBook 上的浏览器访问 UI。然后在您的电脑上打开一个新终端并设置 SSH 端口转发:

# 将本地端口 18789 转发到 DGX Spark 的端口 18789
ssh-N -L18789:127.0.0.1:18789nvidia@192.168.8.117

保持此终端打开。然后打开你的浏览器并访问部署成功后终端提示的链接(例如):

http://127.0.0.1:18789/#token=ed53e52784cebb810eef349d946aeeca9574c49feb3e15df6852f17473a752b9
(注意:此链接将在上述终端命令执行完毕后显示。请直接复制终端中显示的带有token的链接)。

此时,NemoClaw 极具未来感的控制台界面将显示出来。

与本地智能体聊天

1c1ad558-4dab-11f1-90a1-92fbcf53809c.png

在聊天界面中,你可以直接向 NemoClaw 发送指令。为了验证它正在使用指定的本地模型,你可以问它:“你好,NemoClaw,你的本地大模型是什么?”

它会回复其底层的大模型名字:

智能体回复示例:

你好 Ken!本地运行的大模型是 Qwen3.5:35b-a3b!

详情:

模型系列:Qwen3.5(Qwen 系列的最新版本)

参数量:35B(350 亿参数)

提供商:Inference(通过 API 调用的模型)

模型ID:inference/qwen3.5:35b-a3b

现在,你可以开始给它分配各种任务,例如“帮我写一个贪吃蛇网页游戏并运行它”,同时利用 DGX Spark 带来的推理速度和完全本地化、隐私安全的 AI 智能体体验。

进阶:如何一键更换模型?

得益于 DGX Spark 的 128GB 内存,你可以轻松尝试更大更强的模型。例如,最近流行的国内开源推理模型 DeepSeek-R1;DGX Spark 可以轻松运行其 70B 版本(deepseek-r1:70b)。

如果你想更换模型,无需手动编辑复杂的配置文件。你只需要在终端中指定环境变量并重新运行辅助脚本:

# 提前拉取模型(可选,但推荐)
ollamapull deepseek-r1:70b
# 一键切换并重建沙盒
NEMOCLAW_MODEL=deepseek-r1:70b NEMOCLAW_RECREATE_SANDBOX=1bash nemoclaw-setup.sh

辅助脚本会自动为你销毁旧沙盒,重建它,并配置所有网络路由。这只需几分钟,你的 NemoClaw 智能体就会带着新的 DeepSeek 大脑重新开始。

在本地智能体的世界里玩得开心!

- 附录1:OpenClaw 风险防范六大核心建议

- 内容来源:国家网络与信息安全信息通报中心

- 附录2:防范OpenClaw安全风险,工信部提出“六要六不要”

- 内容来源:工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)

|作者:Ken He NVIDIA 企业级开发者社区经理 & 高级讲师

  • 随机文章
  • 热门文章

您可以还会对下面的文章感兴趣:

暂无相关文章