Ollama 上线自主多模态 AI 引擎:本地推理性能飙升

业界
2025
05/17
15:53
IT之家
分享
评论

5 月 17 日消息,科技媒体 WinBuzzer 昨日(5 月 16 日)发布博文,报道称开源大语言模型服务工具 Ollama 推出自主研发的多模态 AI 定制引擎,摆脱对 llama.cpp 框架的直接依赖。

llama.cpp 项目近期通过 libmtmd 库整合了全面视觉支持,而 Ollama 与其关系也引发社区讨论。

Ollama 团队成员在 Hacker News 上澄清,Ollama 使用 golang 独立开发,未直接借鉴 llama.cpp 的 C++ 实现,并感谢社区反馈改进技术。

Ollama 在官方声明中指出,随着 Meta 的 Llama 4、Google 的 Gemma 3、阿里巴巴的 Qwen 2.5 VL 以及 Mistral Small 3.1 等模型的复杂性增加,现有架构难以满足需求。

因此 Ollama 推出全新引擎,针对在本地推理精度上实现突破,尤其是在处理大图像生成大量 token 时表现突出。

Ollama 引入图像处理附加元数据,优化批量处理和位置数据管理,避免图像分割错误导致输出质量下降,此外,KVCache 优化技术加速了 transformer 模型推理速度。

新引擎还大幅优化内存管理新增图像缓存功能,确保图像处理后可重复使用,避免提前丢弃。Ollama 还联合 NVIDIA、AMD、Qualcomm、Intel 和 Microsoft 等硬件巨头,通过精准检测硬件元数据,优化内存估算。

针对 Meta 的 Llama 4 Scout(1090 亿参数混合专家模型 MoE)等模型,引擎还支持分块注意力(chunked attention)和 2D 旋转嵌入(2D rotary embedding)等技术。

Ollama 未来计划支持更长的上下文长度、复杂推理过程及工具调用流式响应,进一步提升本地 AI 模型的多功能性。

【来源:IT之家】

THE END
广告、内容合作请点击这里 寻求合作
Ollama
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3