← Blog

Ollama

共 3 篇關於「Ollama」的技術文章。

NVIDIAGPU本地推論雲端 API成本分析Ollama推論加速ROI

本地 GPU 推論 vs 雲端 API:30 天真實成本分析

我們用同一個 AI Agent 工作負載,在本地 NVIDIA GPU 和雲端 API 上各跑了 30 天。這篇完整拆解:硬體、電費、API 費用、隱藏成本、和損益平衡點。

· 12 分鐘閱讀
NVIDIAGPU多 Agent編排OpenClawOllamaCUDA架構設計

NVIDIA GPU 上的多 Agent 編排:自治 AI 艦隊的架構設計

我們如何在一張 NVIDIA RTX GPU 上編排 4 隻自治 AI Agent。涵蓋 Agent 隔離、上下文分離、任務排程、和讓多 Agent GPU 推論可靠運行的架構模式。

· 17 分鐘閱讀
NVIDIAGPURTX 3060 TiOllama本地推論AI AgentCUDA推論加速

一張 RTX 3060 Ti 跑 4 隻 AI Agent:完整硬體配置、效能調校與 30 天實戰數據

我們在一張 NVIDIA RTX 3060 Ti(8GB VRAM)上跑 4 隻自治 AI Agent。13.2 tok/s 推論速度、105 個日常任務、99.9% uptime。這篇完整公開硬體配置、效能調校踩坑、和 30 天的生產環境數據。

· 15 分鐘閱讀