在 n8n 中使用 Ollama 的本地 LLM 模型
6 November 2025 at 23:25
DejavuMoe:
纯 CPU 跑还是有点吃力呀,有 GPU 云就好了😭 https://blog.dejavu.moe/posts/try-n8n-automation-with-ollama/
纯 CPU 跑还是有点吃力呀,有 GPU 云就好了😭 https://blog.dejavu.moe/posts/try-n8n-automation-with-ollama/