Proxmox 9 + Windows 11 + passthrough GPU + Ollama + Open WebUI
Opis Ollama Ollama to lokalny serwer modeli językowych (LLM), który pozwala uruchamiać i używać dużych
Opis Ollama Ollama to lokalny serwer modeli językowych (LLM), który pozwala uruchamiać i używać dużych
Konfiguracja maszyny wirtualnej Proxmox VE dla Windows 11 z obsługą TPM 2.0 Dla wygodnej