🌐 超越邊界:Ollama (Windows) 與 Dify (WSL2) 的完美結合
0. 核心架構圖:跨越虛擬機的隱形網路線 在開始之前,我們先建立一個清晰的空間概念。你的電腦現在被分為兩個世界: 代码段 graph TD subgraph Windows_Host ["Windows 宿主機 (你的電腦)"] Ollama[("🐳 Ollama<br>(負責模型推理LLM/Embedding)") ] GPU[("🚀 NVIDIA/AMD GPU<br>(硬體加速)") ] Ollama --> GPU end subgraph WSL2_Linux ["WSL2 虛擬 Linux (Ubuntu)"] Dify[("🧩 Dify 全棧平台<br>(負責應用邏輯/工作流)") ] Docker[("🐋 Docker Containers<br>(Postgres, Redis, Sandbox)") ] Dify --> Docker end %% 關鍵連線 Dify -. "透過 http://host.docker.internal:11434 連線" .-> Ollama Ollama -. "接收來自 WSL2 的請求" .-> Dify style Windows_Host fill:#e1f5fe,stroke:#01579b,stroke-width:2px style WSL2_Linux fill:#e8f5e9,stroke:#1b5e20,stroke-width:2px style Ollama fill:#fff,stroke:#000,stroke-width:2px style Dify fill:#fff,stroke:#000,stroke-width:2px Windows 的角色 :扮演「強大的肌肉」。Ollama 在這裡直接存取 GPU 驅動,發揮最強的模型推理效能。 WSL2 的...