Ollama¶
Ollama è uno strumento per eseguire modelli LLM in locale, direttamente da terminale.
In questa pagina trovi il minimo essenziale per iniziare su Linux:
- installazione;
- aggiunta di un modello;
- primo utilizzo.
Installazione (Linux)¶
Per installare Ollama:
Verifica che sia installato:
Su distribuzioni Linux con systemd, il servizio parte in automatico. In caso contrario, puoi avviarlo manualmente:
Aggiungere un modello¶
Esempio con un modello piccolo e open di Microsoft: phi3:mini.
Per vedere i modelli scaricati:
Usarlo¶
Prompt singolo:
Sessione interattiva:
Invio di un file via pipe:
Per uscire dalla sessione interattiva, usa /bye.
Lanciare una coding CLI (Claude Code o OpenCode)¶
Con ollama launch puoi configurare e avviare tool come Claude Code e OpenCode usando un modello locale oppure un modello cloud gestito da Ollama.
1) Verifica versione¶
Serve Ollama v0.15+:
2) Scegli e scarica un modello¶
Modello locale (esempio):
Modello cloud gestito da Ollama (esempio):
3) Avvia la CLI¶
Per Claude Code con modello cloud:
Per Claude Code con modello locale:
Per OpenCode con modello cloud:
Per OpenCode con modello locale:
Se non specifichi --model, il comando è interattivo e ti fa scegliere il modello (locale o cloud), senza dover impostare variabili d'ambiente o file di configurazione manuali.
Se vuoi solo configurare, senza avviare subito il tool:
Nota pratica
Per sessioni di coding lunghe, Ollama consiglia modelli con contesto ampio (almeno 64000 token) e, se necessario, di usare i modelli cloud.