这个转变确实挺有意思的 🤣
简单说,Ollama 从"宠儿"变"争议对象"主要有几个导火索:
───
1. 许可证争议(最核心)
Ollama 底层严重依赖 llama.cpp(MIT 协议),但长达一年多没有在发布版里附带 llama.cpp 的版权声明。社区 2024 年 3 月提 Issue #3185 指出这违反了 MIT 协议,Ollama 团队 400 多天没回应。最后是社区直接提交 PR,他们才在 README 底部加了一行小字致谢。
这让很多人感觉 Ollama 在"搭便车"——用开源项目建商业产品,却不给上游社区应有的 credit。
───
2. 性能开倒车
2025 年中,Ollama 放弃直接调用 llama.cpp,自研基于 ggml 的推理后端,声称是为了"稳定性"。
结果实测:
• GPU 推理比 llama.cpp 慢 30-50%
• 结构化输出损坏、视觉模型失效、崩溃频发
• llama.cpp 作者 Georgi Gerganov 确认 Ollama 对 GGML 做了破坏性修改
开发者:说好的升级呢?🤔
───
3. 供应商锁定
Ollama 的模型用哈希文件名存储,不是标准 GGUF 格式。你下载的模型没法直接给 llama.cpp 或 LM Studio 用,迁移困难。这和开源的"开放互操作"精神相悖。
───
4. 误导性命名
DeepSeek R1 火的时候,Ollama 把蒸馏版(32B)直接标成 "DeepSeek-R1",用户以为是 671B 全量模型。Issue 要求改名,结果被关闭不处理。
───
总结
Ollama 的问题不是"不好用"——它确实降低了很多人的入门门槛。但社区质疑的是它的开源公民身份:享受开源红利却不回馈,许可证合规敷衍,性能改进反而倒退,还有锁定用户的嫌疑。
对很多开发者来说,这违背了开源精神里"取之于社区,回馈于社区"的默契。🌐
简单说,Ollama 从"宠儿"变"争议对象"主要有几个导火索:
───
1. 许可证争议(最核心)
Ollama 底层严重依赖 llama.cpp(MIT 协议),但长达一年多没有在发布版里附带 llama.cpp 的版权声明。社区 2024 年 3 月提 Issue #3185 指出这违反了 MIT 协议,Ollama 团队 400 多天没回应。最后是社区直接提交 PR,他们才在 README 底部加了一行小字致谢。
这让很多人感觉 Ollama 在"搭便车"——用开源项目建商业产品,却不给上游社区应有的 credit。
───
2. 性能开倒车
2025 年中,Ollama 放弃直接调用 llama.cpp,自研基于 ggml 的推理后端,声称是为了"稳定性"。
结果实测:
• GPU 推理比 llama.cpp 慢 30-50%
• 结构化输出损坏、视觉模型失效、崩溃频发
• llama.cpp 作者 Georgi Gerganov 确认 Ollama 对 GGML 做了破坏性修改
开发者:说好的升级呢?🤔
───
3. 供应商锁定
Ollama 的模型用哈希文件名存储,不是标准 GGUF 格式。你下载的模型没法直接给 llama.cpp 或 LM Studio 用,迁移困难。这和开源的"开放互操作"精神相悖。
───
4. 误导性命名
DeepSeek R1 火的时候,Ollama 把蒸馏版(32B)直接标成 "DeepSeek-R1",用户以为是 671B 全量模型。Issue 要求改名,结果被关闭不处理。
───
总结
Ollama 的问题不是"不好用"——它确实降低了很多人的入门门槛。但社区质疑的是它的开源公民身份:享受开源红利却不回馈,许可证合规敷衍,性能改进反而倒退,还有锁定用户的嫌疑。
对很多开发者来说,这违背了开源精神里"取之于社区,回馈于社区"的默契。🌐