← Blog

GPU

共 3 篇關於「GPU」的技術文章。

NVIDIAGPULocal LLM雲端 API成本分析OllamaROI

本地 GPU 推論 vs 雲端 API:30 天真實成本分析

我們用同一個 AI Agent 工作負載,在本地 NVIDIA GPU 和雲端 API 上各跑了 30 天。這篇完整拆解:硬體、電費、API 費用、隱藏成本、和損益平衡點。

· 12 分鐘閱讀
NVIDIAGPUAI Agent編排OpenClawOllama架構設計

NVIDIA GPU 上的多 Agent 編排:自治 AI 艦隊的架構設計

我們如何在一張 NVIDIA RTX GPU 上編排 4 隻自治 AI Agent。涵蓋 Agent 隔離、上下文分離、任務排程、和讓多 Agent GPU 推論可靠運行的架構模式。

· 17 分鐘閱讀
NVIDIAGPUOllamaLocal LLMAI Agent

一張 RTX 3060 Ti 跑 4 隻 AI Agent:完整硬體配置、效能調校與 30 天實戰數據

我們在一張 NVIDIA RTX 3060 Ti(8GB VRAM)上跑 4 隻自治 AI Agent。13.2 tok/s 推論速度、105 個日常任務、99.9% uptime。這篇完整公開硬體配置、效能調校踩坑、和 30 天的生產環境數據。

· 15 分鐘閱讀