在 n8n 中使用 Ollama 的本地 LLM 模型 V2EX-最新主题 DejavuMoe 6 November 2025 at 23:25 DejavuMoe: 纯 CPU 跑还是有点吃力呀,有 GPU 云就好了😭 https://blog.dejavu.moe/posts/try-n8n-automation-with-ollama/