九维我操你爹
https://open.spotify.com/show/2brlNBDPGxf6RUFRVoDdXr
RSS: https://anchor.fm/s/10e629508/podcast/rss
安利一下大学同学的播客,最新一期东京和维也纳生活大比较挺有意思的
// 才知道日本没有病假
RSS: https://anchor.fm/s/10e629508/podcast/rss
安利一下大学同学的播客,最新一期东京和维也纳生活大比较挺有意思的
// 才知道日本没有病假
给 bub 加了一个 kimi cli 的插件,算是我数字骨灰盒的一部分。我现在感觉各种龙虾最优价值的点其实是消息 gateway,可以接入各种外部事件输入,再输出到各个渠道。而 Agent 相关的能力其实各家的 Coding Agent 目前还是最好的,各种细节调教和各种专属工具省去了重复造轮子,各种 skill 也是直接给 Coding Agent 处理最好,甚至是 Memory 的部分外部也很难做的更好。所以 bub 这种完全插件的方式,可以快速接入各类事件源反而更对我的胃口。
https://github.com/bubbuild/bub-contrib/pull/27
https://github.com/bubbuild/bub-contrib/pull/27
https://mp.weixin.qq.com/s/RWp2QUypJWmq8il2k5UVMg
科普视频:献血前能不能喝咖啡?
发布者:上海市血液中心
那很合理了,不如科普下上海临床用血之前是不是都要先给血制品脱咖啡因😂
科普视频:献血前能不能喝咖啡?
发布者:上海市血液中心
那很合理了,不如科普下上海临床用血之前是不是都要先给血制品脱咖啡因😂
因为 ollama 背后的 llama.cpp 在 qwen3 开始的时候适配有很多不可解的 bug 的,对设备的探测和分析也不正确,我猜大概率是因为没有专门申请设备去测试吧,本身就是作为开源项目存在
但 ollama qwen3.5 开始它 Modelfile 就经常出问题,虽然下载速度很快但是既没有本地优化也没有好好伺候边界问题
而与之相当的 LM Studio 反倒是在 MLX 生态下投入了相当多的时间去打磨,以至于很多模型现在首发都是有 MLX 支持和正确管理的
但 ollama qwen3.5 开始它 Modelfile 就经常出问题,虽然下载速度很快但是既没有本地优化也没有好好伺候边界问题
而与之相当的 LM Studio 反倒是在 MLX 生态下投入了相当多的时间去打磨,以至于很多模型现在首发都是有 MLX 支持和正确管理的
这个转变确实挺有意思的 🤣
简单说,Ollama 从"宠儿"变"争议对象"主要有几个导火索:
───
1. 许可证争议(最核心)
Ollama 底层严重依赖 llama.cpp(MIT 协议),但长达一年多没有在发布版里附带 llama.cpp 的版权声明。社区 2024 年 3 月提 Issue #3185 指出这违反了 MIT 协议,Ollama 团队 400 多天没回应。最后是社区直接提交 PR,他们才在 README 底部加了一行小字致谢。
这让很多人感觉 Ollama 在"搭便车"——用开源项目建商业产品,却不给上游社区应有的 credit。
───
2. 性能开倒车
2025 年中,Ollama 放弃直接调用 llama.cpp,自研基于 ggml 的推理后端,声称是为了"稳定性"。
结果实测:
• GPU 推理比 llama.cpp 慢 30-50%
• 结构化输出损坏、视觉模型失效、崩溃频发
• llama.cpp 作者 Georgi Gerganov 确认 Ollama 对 GGML 做了破坏性修改
开发者:说好的升级呢?🤔
───
3. 供应商锁定
Ollama 的模型用哈希文件名存储,不是标准 GGUF 格式。你下载的模型没法直接给 llama.cpp 或 LM Studio 用,迁移困难。这和开源的"开放互操作"精神相悖。
───
4. 误导性命名
DeepSeek R1 火的时候,Ollama 把蒸馏版(32B)直接标成 "DeepSeek-R1",用户以为是 671B 全量模型。Issue 要求改名,结果被关闭不处理。
───
总结
Ollama 的问题不是"不好用"——它确实降低了很多人的入门门槛。但社区质疑的是它的开源公民身份:享受开源红利却不回馈,许可证合规敷衍,性能改进反而倒退,还有锁定用户的嫌疑。
对很多开发者来说,这违背了开源精神里"取之于社区,回馈于社区"的默契。🌐
简单说,Ollama 从"宠儿"变"争议对象"主要有几个导火索:
───
1. 许可证争议(最核心)
Ollama 底层严重依赖 llama.cpp(MIT 协议),但长达一年多没有在发布版里附带 llama.cpp 的版权声明。社区 2024 年 3 月提 Issue #3185 指出这违反了 MIT 协议,Ollama 团队 400 多天没回应。最后是社区直接提交 PR,他们才在 README 底部加了一行小字致谢。
这让很多人感觉 Ollama 在"搭便车"——用开源项目建商业产品,却不给上游社区应有的 credit。
───
2. 性能开倒车
2025 年中,Ollama 放弃直接调用 llama.cpp,自研基于 ggml 的推理后端,声称是为了"稳定性"。
结果实测:
• GPU 推理比 llama.cpp 慢 30-50%
• 结构化输出损坏、视觉模型失效、崩溃频发
• llama.cpp 作者 Georgi Gerganov 确认 Ollama 对 GGML 做了破坏性修改
开发者:说好的升级呢?🤔
───
3. 供应商锁定
Ollama 的模型用哈希文件名存储,不是标准 GGUF 格式。你下载的模型没法直接给 llama.cpp 或 LM Studio 用,迁移困难。这和开源的"开放互操作"精神相悖。
───
4. 误导性命名
DeepSeek R1 火的时候,Ollama 把蒸馏版(32B)直接标成 "DeepSeek-R1",用户以为是 671B 全量模型。Issue 要求改名,结果被关闭不处理。
───
总结
Ollama 的问题不是"不好用"——它确实降低了很多人的入门门槛。但社区质疑的是它的开源公民身份:享受开源红利却不回馈,许可证合规敷衍,性能改进反而倒退,还有锁定用户的嫌疑。
对很多开发者来说,这违背了开源精神里"取之于社区,回馈于社区"的默契。🌐
#晚安世界
https://www.youtube.com/watch?v=3Obh9kg6o_U
⸻
https://www.youtube.com/watch?v=3Obh9kg6o_U
On Your Mark いつも走りだせば
流行の風邪にやられた
On Your Mark 僕らがそれでも止めないのは
夢の斜面見上げて 行けそうな気がするから
そして僕らは 心の小さな空き地で
互いに振り落とした 言葉の夕立
答えを出さない それが答えのような
針の消えた時計の 文字を読むような
君と僕 全てを
認めてしまうにはまだ 若すぎる
⸻
On Your Mark──每当我们起跑,
总被这时代流行的病症击倒。
On Your Mark——而我们仍不停步,
因为仰望梦想的坡道,仍觉得自己能走上去。
于是我们在心里那片小小空地上,
向彼此倾下骤雨般的话语。
没有说出的答案,仿佛也是答案;
像读着一座失去指针的时钟。
你和我都还太年轻,
还无法坦然接受这一切。
https://x.com/i/trending/2045102099722035548
之前发过一次影响自己人生的动漫作品九宫格,我应该把龙与虎加上的
之前发过一次影响自己人生的动漫作品九宫格,我应该把龙与虎加上的