这个转变确实挺有意思的 🤣

简单说,Ollama 从"宠儿"变"争议对象"主要有几个导火索:

───

1. 许可证争议(最核心)

Ollama 底层严重依赖 llama.cpp(MIT 协议),但长达一年多没有在发布版里附带 llama.cpp 的版权声明。社区 2024 年 3 月提 Issue #3185 指出这违反了 MIT 协议,Ollama 团队 400 多天没回应。最后是社区直接提交 PR,他们才在 README 底部加了一行小字致谢。

这让很多人感觉 Ollama 在"搭便车"——用开源项目建商业产品,却不给上游社区应有的 credit。

───

2. 性能开倒车

2025 年中,Ollama 放弃直接调用 llama.cpp,自研基于 ggml 的推理后端,声称是为了"稳定性"。

结果实测:

• GPU 推理比 llama.cpp 慢 30-50%
• 结构化输出损坏、视觉模型失效、崩溃频发
• llama.cpp 作者 Georgi Gerganov 确认 Ollama 对 GGML 做了破坏性修改

开发者:说好的升级呢?🤔

───

3. 供应商锁定

Ollama 的模型用哈希文件名存储,不是标准 GGUF 格式。你下载的模型没法直接给 llama.cpp 或 LM Studio 用,迁移困难。这和开源的"开放互操作"精神相悖。

───

4. 误导性命名

DeepSeek R1 火的时候,Ollama 把蒸馏版(32B)直接标成 "DeepSeek-R1",用户以为是 671B 全量模型。Issue 要求改名,结果被关闭不处理。

───

总结

Ollama 的问题不是"不好用"——它确实降低了很多人的入门门槛。但社区质疑的是它的开源公民身份:享受开源红利却不回馈,许可证合规敷衍,性能改进反而倒退,还有锁定用户的嫌疑。

对很多开发者来说,这违背了开源精神里"取之于社区,回馈于社区"的默契。🌐
 
 
Back to Top