Salta al contenuto principale

Come Installare DeepSeek con Ollama su Linux Guida Rapida

Integrare modelli di linguaggio avanzati come DeepSeek nella propria infrastruttura può rivoluzionare i processi aziendali. In questa guida pratica, spiegheremo come installare Deepseek-r1 utilizzando Ollama in locale su sistemi Linux, in ambienti professionali.

DeepSeek r1 sta impressionando l'industria per il basso costo dell'addestramento, e per i risultati nei test superiori a OpenAI ChatGPT e Google Gemini che offrendo un'alternativa outsider a basso costo e open source.

I ricercatori hanno dichiarato che è stato possibile grazie a un processo di addestramento chiamato "reinforcement learning" che permette di ridurre tempi e costi del training.
Il Large Language Model (LLM) inoltre integra un processo "chain of thought" che permette di ripercorrere le richieste dell'utente simulando una catena di ragionamenti passo passo "step by step"

Perché Scegliere DeepSeek con Ollama?

  • Efficienza computazionale: Ottimizzato per hardware enterprise
  • Gestione semplificata: Interfaccia unificata via Ollama
  • Modelli specializzati: DeepSeek r1 offre prestazioni superiori nell'analisi dati

Vuoi integrare DeepSeek nell'infrastruttura della tua azienda, in locale o Cloud? Fai due chiacchiere con un nostro sistemista Linux, ti aiuterà in tutte le fasi, dall'installazione alla manutenzione.

Prerequisiti di Sistema

  1. Distribuzione Linux consigliate (Ubuntu 22.04 o superiore, Debian 11 o superiore)
  2. 8 GB RAM minimo (16 GB consigliati per carichi intensivi)
  3. 20 GB spazio disco libero
  4. Accesso root o sudo
  5. Connessione Internet stabile

Passo 1: Installazione di Ollama

Installiamo Ollama, il layer di gestione modelli AI open-source:

curl -fsSL https://ollama.ai/install.sh | sh

Abilitiamo e avviamo il servizio ollama

sudo systemctl enable ollama
sudo systemctl start ollama

Verifichiamo che il servizio sia attivo

sudo systemctl status ollama
* ollama.service - Ollama Service
     Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: enabled)
     Active: active (running) since Thu 2025-01-30 16:56:57 UTC; 7s ago
   Main PID: 3348 (ollama)
      Tasks: 13 (limit: 308814)
     Memory: 21.5M
        CPU: 97ms
     CGroup: /system.slice/ollama.service
             `-3348 /usr/local/bin/ollama serve

Verifica l'installazione:

ollama --version

Passo 2: Installazione di DeepSeek-r1

Dopo aver configurato Ollama, abbiamo bisogno di scaricare un Large Language Model, procediamo con il modello LLM Deepseek r1 in locale.

Scegliamo il modello che vogliamo utilizzare questi link al repository di Ollama, ad esempio

  • Ollama deepseek-r1: La prima generazione di modelli di ragionamento di DeepSeek, con prestazioni comparabili a OpenAI-o1, inclusi sei modelli densi distillati da DeepSeek-R1 basati su Llama e Qwen.
  • Ollamadeepseek-v3: Un potente modello di linguaggio Mixture-of-Experts (MoE) con 671 miliardi di parametri totali, di cui 37 miliardi attivati per ogni token.
  • Ollama deepseek-coder-v2: Un modello di linguaggio per il codice open-source basato su Mixture-of-Experts che raggiunge prestazioni paragonabili a GPT4-Turbo in attività specifiche per il codice.

Copiamo il comando di download del modello, che riporta il tag selezionato nel formato nome:tag, come questo esempio per DeepSeek-R1-Distill-Qwen-7B:

ollama run deepseek-r1:7b
ollama run deepseek-r1

Passo 3: Configurazione di Open WebUI (Interfaccia Web)

Implementiamo un pannello di controllo centralizzato come interfaccia web per DeepSeek:

  1. Installa python3 e le dipendenze necessarie:

    sudo apt install python3-venv python3-pip
  2. Crea un Virtual Environment in Python:

    python3 -m venv ~/open-webui
  3. Attiva il venv:

    source ~/open-webui/bin/activate
  4. Installa open-webui tramite pip escludendo la cache che può creare problemi:

    pip install open-webui --no-cache-dir
  5. Avvia il server di open-webui con

    open-webui serve
    INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)
  6. Accedi via browser a http://localhost:8080
DeepSeek Open Web UI
Deepseek Open Web UI

Verifica dell'Installazione

Esegui un test di DeepSeek in locale da console completo con:

ollama run deepseek-r1 "mostrami la versione del modello deepseek che sto utilizzando"
<think>
</think>
Il DeepSeek-R1 è il recente modello di deep learning sviluppatore DeepSeek. Per ottenere informazioni 
dettagliate sull'-versione attiva che stai utilizzando, segui questi passaggi:
1. **Apri il tuo client**: Apri il client DeepSeek che stai utilizzando.
2. **Trova le opzioni di versione**:
   - Se stai utilizzando l'app mobile, scrolla su/attraversa lo schermo per trovare le optioni di versione.
   - Se stai utilizzando il sito web, entra nel menu "Configurazioni" e cerca le opzioni di versione.
3. **Controlla la tua versione**:
   - Inoltre, puoi ottenere informazioni generali sulla tua versione香蕉che Apri il menu di supporto (spesso 
indicato con un doppio clic sull'icona del client) e cerca "Informazioni sul cliente" o simili. Di solito, 
vengono visualizzate le informazioni generali includendo la versione attiva.
4. **Uso online**:
   - Se sei in dubbio, puoi anche utilizzare il comando diayuda del client per ottenere ulteriori dettagli su 
quali versioni sono disponibili.
Per esempio, se stai utilizzando l'app mobile, puoi digitare `comandosuap ripristinaconf` o simili nel campo di 
comando per ottenere informazioni sulla tua versione.
Se ti serve un elenco delle versioni attive disponibili, puoi seguire i passaggi sopra e Trovare le opzioni 
specifiche della tua versione.

FAQ (Domande Frequenti)

1. Quali sono i requisiti hardware per DeepSeek?

Consigliamo server dedicati con:

  • CPU x86_64 a 8 core
  • 32 GB RAM DDR4
  • Storage NVMe

2. Come aggiornare i modelli DeepSeek?

ollama pull deepseek-r1

3. È possibile integrare l'API in applicazioni custom?

Sì, utilizza gli endpoint REST:

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "Analizza dataset XYZ"
}'

Ottimizza la Tua Infrastruttura con il Nostro Supporto

Implementare soluzioni AI come DeepSeek richiede competenze specifiche. Il nostro team di esperti Linux è pronto ad affiancarti nella configurazione e ottimizzazione.

4. Come scaricare DeepSeek

Per testare l'AI è possibile scaricare le applicazioni ufficiali DeepSeek disponibili per smartphone Android su Google Play e iPhone App Store che utilizzano la versione online

Per l'installazione in locale ci sono differenti approcci, la soluzione più semplice è utilizzare Ollama per eseguire il modello come descritto in questa guida

Conclusione e Prossimi Passi

Hai ora un'istanza di DeepSeek R1 integrata con Ollama. Per implementazioni complesse e ottimizzazioni avanzate, contatta il nostro team

Risorse Utili

  1. Github Ollama
  2. Repository GitHub Deepseek

Aggiungi un commento

Comment

  • Elementi HTML permessi: <br> <p> <code class="language-*"> <pre>
  • Linee e paragrafi vanno a capo automaticamente.
  • Solo le immagini ospitate su questo sito possono essere utilizzate nel tag <img>.