close
正在加载
这款超轻AI模型适合你的手机,可以击败ChatGPT
互联网 · 2024-04-25 05:53:53
币界网报道:

微软今天声称,它已经发布了“最有能力、最具成本效益的小语言模型”,并表示Phi-3——其小语言模型Phi系列的第三次迭代——优于同等大小的模型和一些更大的模型。

小型语言模型(SLM)是一种人工智能模型,旨在非常有效地执行特定的语言相关任务。与非常适合各种通用任务的大型语言模型(LLM)不同,SLM建立在较小的数据集上,使其在特定用例中更高效、更具成本效益。

微软解释说,Phi-3有不同的版本,最小的是Phi-3 Mini,这是一个在3.3万亿代币上训练的38亿参数模型。尽管其规模相对较小——Llama-3的语料库重达超过15万亿个数据令牌——但Phi-3 Mini仍然能够处理128K个上下文令牌。这使得它可以与GPT-4相媲美,并在代币容量方面击败了Llama-3和Mistral Large。

换言之,像Meta.AI上的Llama-3和Mistral Large这样的人工智能巨头可能会在长时间聊天或提示后崩溃,早在这种轻量级模型开始挣扎之前。

Phi-3 Mini最显著的优势之一是它能够在典型的智能手机上安装和运行。微软在iPhone 14上测试了这款手机,它运行时没有出现任何问题,每秒生成14个代币。运行Phi-3 Mini只需要1.8GB的VRAM,对于有更集中需求的用户来说,这是一种轻量级、高效的替代方案。

虽然Phi-3 Mini可能不太适合高端编码器或有广泛需求的人,但它可能是有特定需求的用户的有效替代品。例如,需要聊天机器人的初创公司或利用LLM进行数据分析的人可以使用Phi-3 Mini进行数据组织、提取信息、进行数学推理和构建代理等任务。如果该模型能够接入互联网,它可以变得非常强大,用实时信息弥补其功能的不足。

由于微软专注于利用最有用的信息管理其数据集,Phi-3 Mini获得了很高的测试分数。事实上,更广泛的Phi家族不适合需要事实知识的任务,但高推理能力使他们超越了主要竞争对手。Phi-3 Medium(一个140亿参数的模型)在大多数合成基准中始终击败了GPT-3.5等强大的LLM(为免费版本的ChatGPT提供动力的LLM),Mini版本则击败了Mixtral-8x7B等强大的模型。

然而,值得注意的是,Phi-3并不像其前身Phi-2那样是开源的。相反,它是一个开放的模型,这意味着它可以访问和使用,但它没有与Phi-2相同的开源许可,这允许更广泛的使用和商业应用。

在未来几周,微软表示将发布更多Phi-3系列机型,包括Phi-3 Small(70亿参数)和上述Phi-3 Medium。

微软已经在Azure AI Studio、Hugging Face和Ollama上推出了Phi-3 Mini。该模型针对ONNX Runtime进行了指令调整和优化,支持Windows DirectML,并支持不同GPU、CPU甚至移动硬件的跨平台支持。

s_logo
App内打开