Este guia mostra como executar o Deepseek em um ambiente Docker com Ollama expondo o servidor REST. Uma excelente opção para rodar um modelo de linguagem (LLM) localmente e integrá-lo a outras aplicações.
Em um diretório de sua máquina, crie um arquivo chamado docker-compose.yml com o seguinte conteúdo:
version: '3.8'
services:
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "11434:11434"
volumes:
- ./ollama:/root/.ollamaNo mesmo diretório, crie um subdiretório chamado ollama. Esse subdiretório será usado para persistir os dados do container, permitindo que ele seja reiniciado sem a necessidade de baixar os modelos novamente.
mkdir ollamaExecute o comando abaixo para iniciar o Docker Compose:
docker compose upO Docker irá baixar as dependências necessárias e iniciar o servidor anexado ao terminal atual.
Em outro terminal, faça o download de um dos modelos disponíveis). Para este guia, utilizaremos o modelo deepseek-r1:14b:
curl http://localhost:11434/api/pull -d '{"model": "deepseek-r1:14b"}'Agora você pode interagir com o Llama usando curl:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:14b",
"prompt":"Quantos minutos tem uma hora?",
"stream": false
}'{
"model": "deepseek-r1:14b",
"created_at": "2024-11-30T02:56:10.335418081Z",
"response": "Uma hora é igual a 60 minutos.",
"done": true,
}