Ollama
共 5 篇關於「Ollama」的技術文章。
Content Cascade Engine:寫一篇部落格,自動變出 5 篇社群貼文
我建了一套 Content Cascade 系統:每天早上 7 點自動掃描新部落格文章,用本地 Ollama 模型拆成 3-5 篇 Threads 貼文,零 API 費用、零人工介入。一篇文章變六篇內容,寫作時間不變。完整架構、Prompt 設計、品質數據全公開。
免費方案大亂鬥 2026:Gemini vs Claude vs Ollama 誰最划算?
我們用 Ultra Lab 的真實產線數據,對 Gemini 免費方案、Claude Pro、Ollama 本地部署做了一場完整的成本效能評測。結論不是「哪個最便宜」,而是「什麼場景用什麼最划算」。附完整決策樹。
本地 GPU 推論 vs 雲端 API:30 天真實成本分析
我們用同一個 AI Agent 工作負載,在本地 NVIDIA GPU 和雲端 API 上各跑了 30 天。這篇完整拆解:硬體、電費、API 費用、隱藏成本、和損益平衡點。
NVIDIA GPU 上的多 Agent 編排:自治 AI 艦隊的架構設計
我們如何在一張 NVIDIA RTX GPU 上編排 4 隻自治 AI Agent。涵蓋 Agent 隔離、上下文分離、任務排程、和讓多 Agent GPU 推論可靠運行的架構模式。
一張 RTX 3060 Ti 跑 4 隻 AI Agent:完整硬體配置、效能調校與 30 天實戰數據
我們在一張 NVIDIA RTX 3060 Ti(8GB VRAM)上跑 4 隻自治 AI Agent。13.2 tok/s 推論速度、105 個日常任務、99.9% uptime。這篇完整公開硬體配置、效能調校踩坑、和 30 天的生產環境數據。