DeepSeek R1 mit Codium für die Programmierung verwenden

28.01.2025

DeepSeek-R1 ist ein LLM (Large Language Model), das für die Programmierung verwendet werden kann und dabei ressourcensparsam, also preiswert ist.

 

Installation von Ollama und Download des DeepSeek-R1 LLM unter Linux

Weitere Details zur Installation gibt es in der Ollama Anleitung bei github.

Zuerst erstellen wir einen neuen Benutzer, unter dem der Ollama Dienst im Anschluss läuft und wechseln in diesen Benutzer:

adduser ollama
su - ollama

Im Homelaufwerk muss nun Ollama heruntergeladen werden und das Binary ausgeführt werden:

wget https://ollama.com/download/ollama-linux-amd64.tgz
tar xzvf ollama-linux-amd64.tgz

Jetzt kann Ollama gestartet werden und das DeepSeek-R1 LLM heruntergeladen werden:

./bin/ollama serve
ollama run deepseek-r1

 

Damit die Integration mit Codium (oder VSCode) funktioniert, benötigen wir die Extension "Continue".
Nach der Installation der Extension muss dessen Config angepasst werden. Dabei wird der Abschnitt "models" und "tabAutocompleteModel" wie folgt angepasst:

{
  "models": [
    {
      "model": "deepseek-r1",
      "provider": "ollama",
      "title": "DeepSeek R1"
    }
  ],
  "tabAutocompleteModel": {
    "title": "DeepSeek R1",
    "provider": "ollama",
    "model": "deepseek-r1"
  },
 ....

 

Möchte man Ollama beim Systemstart automatisch laden, benötigt man noch ein Service Script, welches unter /etc/systemd/system/ollama.service erstellt werden muss:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/home/ollama/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

Zum Schluss noch den Dienst auf Autostart stellen:

systemctl daemon-reload
systemctl enable ollama.service