对于人工智能开发人员和爱好者来说,这是个好消息:Nvidia刚刚让制造人工智能机器人、无人机、智能相机和其他需要大脑的小工具变得便宜得多。该公司的新款Jetson Orin Nano Super,周二宣布现在上市的这款机器人比前一代机器人拥有更多的加工能力,而成本只有前一代的一半,为249美元。
这台掌上电脑的性能提高了70%,人工智能任务的每秒运算量达到67万亿次。这与早期的模型相比是一个重大的飞跃,特别是在为聊天机器人、计算机视觉和机器人应用程序等提供动力方面。
英伟达首席执行官黄仁勋在自家厨房发布的官方视频中表示:“这是一款全新的捷星Nano Super。每秒运行近70万亿次,25瓦,249美元。”。“它运行HGX所做的一切,甚至运行LLM。”
内存带宽也得到了重大升级,增加到每秒102千兆字节,比上一代Jetson快50%。这一改进意味着该设备可以处理更复杂的AI模型,并同时处理多达四个摄像头的数据。
该设备配备了Nvidia的Ampere架构GPU和6核ARM处理器,使其能够同时运行多个AI应用程序。这使开发人员有可能使用更多样化的能力,例如为能够以低处理能力绘制环境、对象识别和语音命令的机器人构建小型模型。
现有的Jetson Orin Nano车主也没有被冷落。Nvidia即将发布软件更新以提高其传统AI处理器的效率。
这个数字英伟达新款Jetson Orin Nano Super背后讲述了一个有趣的故事。只有1024个CUDA内核,与RTX 2060的1920个内核、RTX 3060的3584或RTX 4060的3072相比,它看起来很普通。但原始岩芯计数并不能说明全部情况。
RTX系列等游戏GPU的功耗在115到170瓦之间,而Jetson的功耗仅为7到25瓦。这大约是RTX4060功耗的七分之一,RTX4060是同类产品中效率最高的。
内存带宽数字描绘了类似的画面。与RTX卡的300+GB/s相比,Jetson的102 GB/s可能看起来并不令人印象深刻,但它专门针对边缘的AI工作负载进行了优化高效的数据处理这比原始吞吐量更重要。
也就是说,真正的魔法发生在人工智能的性能上。该设备为人工智能任务提供了67个TOPS(每秒万亿次操作),这个数字很难与RTX卡的TFLOPS直接比较,因为它们测量的是不同类型的操作。
但在实用术语Jetson可以处理运行本地人工智能聊天机器人、处理多个相机馈送和控制机器人等任务,所有这些任务都可以在几乎无法运行游戏GPU冷却风扇的功率预算下同时进行,基本上与RTX 2060并驾齐驱,成本和功耗都只有RTX 2060的一小部分。
8GB的共享内存可能看起来很低,但这意味着在运行本地AI模型时,它比普通的RTX 2060更有能力,比如通量或稳定扩散这可能会在这些GPU上抛出“内存不足”错误,或者将部分工作卸载到普通RAM中,从而减少推理时间——基本上是人工智能的思维过程。
Jetson Orin Nano Super还支持各种小型和大型语言模型包括具有多达80亿个参数的模型,如Llama 3.1模型。当使用这些模型的量化版本时,它可以以大约每秒18-20个的速率生成令牌。有点慢,但对于一些本地应用程序来说仍然足够好。尽管如此,它还是比上一代Jetson AI硬件模型有所改进。
鉴于其价格和特性,Jetson Orin Nano Super主要是为原型设计和小规模应用而设计的。对于需要大量计算资源的高级用户、企业或应用程序来说,与成本更高、需要更多电力的高端系统相比,该设备的功能可能会受到限制。
编辑人安德鲁·海沃德