Come Installare DeepSeek con Ollama su Linux Guida Rapida
Integrare modelli di linguaggio avanzati come DeepSeek nella propria infrastruttura può rivoluzionare i processi aziendali. In questa guida pratica, spiegheremo come installare Deepseek-r1 utilizzando Ollama in locale su sistemi Linux, in ambienti professionali.
DeepSeek r1 sta impressionando l'industria per il basso costo dell'addestramento, e per i risultati nei test superiori a OpenAI ChatGPT e Google Gemini che offrendo un'alternativa outsider a basso costo e open source.
I ricercatori hanno dichiarato che è stato possibile grazie a un processo di addestramento chiamato "reinforcement learning" che permette di ridurre tempi e costi del training.
Il Large Language Model (LLM) inoltre integra un processo "chain of thought" che permette di ripercorrere le richieste dell'utente simulando una catena di ragionamenti passo passo "step by step"
Perché Scegliere DeepSeek con Ollama?
- Efficienza computazionale: Ottimizzato per hardware enterprise
- Gestione semplificata: Interfaccia unificata via Ollama
- Modelli specializzati: DeepSeek r1 offre prestazioni superiori nell'analisi dati
Vuoi integrare DeepSeek nell'infrastruttura della tua azienda, in locale o Cloud? Fai due chiacchiere con un nostro sistemista Linux, ti aiuterà in tutte le fasi, dall'installazione alla manutenzione.
Prerequisiti di Sistema
- Distribuzione Linux consigliate (Ubuntu 22.04 o superiore, Debian 11 o superiore)
- 8 GB RAM minimo (16 GB consigliati per carichi intensivi)
- 20 GB spazio disco libero
- Accesso
root
osudo
- Connessione Internet stabile
Passo 1: Installazione di Ollama
Installiamo Ollama, il layer di gestione modelli AI open-source:
curl -fsSL https://ollama.ai/install.sh | sh
Abilitiamo e avviamo il servizio ollama
sudo systemctl enable ollama
sudo systemctl start ollama
Verifichiamo che il servizio sia attivo
sudo systemctl status ollama
* ollama.service - Ollama Service
Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: enabled)
Active: active (running) since Thu 2025-01-30 16:56:57 UTC; 7s ago
Main PID: 3348 (ollama)
Tasks: 13 (limit: 308814)
Memory: 21.5M
CPU: 97ms
CGroup: /system.slice/ollama.service
`-3348 /usr/local/bin/ollama serve
Verifica l'installazione:
ollama --version
Passo 2: Installazione di DeepSeek-r1
Dopo aver configurato Ollama, abbiamo bisogno di scaricare un Large Language Model, procediamo con il modello LLM Deepseek r1 in locale.
Scegliamo il modello che vogliamo utilizzare questi link al repository di Ollama, ad esempio
- Ollama
deepseek-r1
: La prima generazione di modelli di ragionamento di DeepSeek, con prestazioni comparabili a OpenAI-o1, inclusi sei modelli densi distillati da DeepSeek-R1 basati su Llama e Qwen. - Ollama
deepseek-v3
: Un potente modello di linguaggio Mixture-of-Experts (MoE) con 671 miliardi di parametri totali, di cui 37 miliardi attivati per ogni token. - Ollama
deepseek-coder-v2
: Un modello di linguaggio per il codice open-source basato su Mixture-of-Experts che raggiunge prestazioni paragonabili a GPT4-Turbo in attività specifiche per il codice.
Copiamo il comando di download del modello, che riporta il tag selezionato nel formato nome:tag
, come questo esempio per DeepSeek-R1-Distill-Qwen-7B:
ollama run deepseek-r1:7b
ollama run deepseek-r1
Passo 3: Configurazione di Open WebUI (Interfaccia Web)
Implementiamo un pannello di controllo centralizzato come interfaccia web per DeepSeek:
Installa python3 e le dipendenze necessarie:
sudo apt install python3-venv python3-pip
Crea un Virtual Environment in Python:
python3 -m venv ~/open-webui
Attiva il
venv
:source ~/open-webui/bin/activate
Installa
open-webui
tramitepip
escludendo la cache che può creare problemi:pip install open-webui --no-cache-dir
Avvia il server di
open-webui
conopen-webui serve
INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)
- Accedi via browser a
http://localhost:8080

Verifica dell'Installazione
Esegui un test di DeepSeek in locale da console completo con:
ollama run deepseek-r1 "mostrami la versione del modello deepseek che sto utilizzando"
<think>
</think>
Il DeepSeek-R1 è il recente modello di deep learning sviluppatore DeepSeek. Per ottenere informazioni
dettagliate sull'-versione attiva che stai utilizzando, segui questi passaggi:
1. **Apri il tuo client**: Apri il client DeepSeek che stai utilizzando.
2. **Trova le opzioni di versione**:
- Se stai utilizzando l'app mobile, scrolla su/attraversa lo schermo per trovare le optioni di versione.
- Se stai utilizzando il sito web, entra nel menu "Configurazioni" e cerca le opzioni di versione.
3. **Controlla la tua versione**:
- Inoltre, puoi ottenere informazioni generali sulla tua versione香蕉che Apri il menu di supporto (spesso
indicato con un doppio clic sull'icona del client) e cerca "Informazioni sul cliente" o simili. Di solito,
vengono visualizzate le informazioni generali includendo la versione attiva.
4. **Uso online**:
- Se sei in dubbio, puoi anche utilizzare il comando diayuda del client per ottenere ulteriori dettagli su
quali versioni sono disponibili.
Per esempio, se stai utilizzando l'app mobile, puoi digitare `comandosuap ripristinaconf` o simili nel campo di
comando per ottenere informazioni sulla tua versione.
Se ti serve un elenco delle versioni attive disponibili, puoi seguire i passaggi sopra e Trovare le opzioni
specifiche della tua versione.
FAQ (Domande Frequenti)
1. Quali sono i requisiti hardware per DeepSeek?
Consigliamo server dedicati con:
- CPU x86_64 a 8 core
- 32 GB RAM DDR4
- Storage NVMe
2. Come aggiornare i modelli DeepSeek?
ollama pull deepseek-r1
3. È possibile integrare l'API in applicazioni custom?
Sì, utilizza gli endpoint REST:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1",
"prompt": "Analizza dataset XYZ"
}'
4. Come scaricare DeepSeek
Per testare l'AI è possibile scaricare le applicazioni ufficiali DeepSeek disponibili per smartphone Android su Google Play e iPhone App Store che utilizzano la versione online
Per l'installazione in locale ci sono differenti approcci, la soluzione più semplice è utilizzare Ollama per eseguire il modello come descritto in questa guida
Conclusione e Prossimi Passi
Hai ora un'istanza di DeepSeek R1 integrata con Ollama. Per implementazioni complesse e ottimizzazioni avanzate, contatta il nostro team