PassioniInformaticaAI e GPU

Guida: Open WebUI — interfaccia chat per Ollama

04/03/2026

ChatGPT-like UI per i tuoi LLM locali

Open WebUI (ex Ollama WebUI) fornisce un'interfaccia web moderna e completa per interagire con i modelli Ollama, simile a ChatGPT.

1. Installazione con Docker

docker run -d --name open-webui \
  -p 3000:8080 \
  -e OLLAMA_BASE_URL=http://192.168.1.81:11434 \
  -v open-webui:/app/backend/data \
  --restart unless-stopped \
  ghcr.io/open-webui/open-webui:main

2. Configurazione

Accedere a http://IP:3000. Creare account admin. I modelli Ollama vengono rilevati automaticamente.

3. Funzionalità principali

  • Chat multipla: più conversazioni in parallelo
  • Modelli multipli: switch tra modelli con un click
  • RAG integrato: upload documenti e chat con il contenuto
  • System prompt: personalizzare il comportamento del modello
  • Storico: tutte le conversazioni salvate
  • Multi-utente: account separati con permessi

4. Collegare server Ollama multipli

Nelle impostazioni admin, aggiungere gli URL di tutti i server Ollama dell'infrastruttura per avere accesso a tutti i modelli da una singola interfaccia.

5. Upload documenti (RAG)

Trascinare PDF, TXT, MD nella chat. Open WebUI li indicizza automaticamente e il modello risponde basandosi sul contenuto.

Open WebUI trasforma il homelab AI in una piattaforma di chat completa, accessibile da qualsiasi dispositivo della rete.

← Guida: Benchmark GPU — misurare le prestazioni Guida: Fine-tuning di un LLM su dati custom →
← Torna all'elenco