Skip to content

refatora/deepseek-docker

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 

Repository files navigation

Rode Deepseek (Ollama) Pelo Docker

Este guia mostra como executar o Deepseek em um ambiente Docker com Ollama expondo o servidor REST. Uma excelente opção para rodar um modelo de linguagem (LLM) localmente e integrá-lo a outras aplicações.

Configuração do Docker Compose

Em um diretório de sua máquina, crie um arquivo chamado docker-compose.yml com o seguinte conteúdo:

docker-compose.yml

version: '3.8'

services:
  ollama:
    image: ollama/ollama
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ./ollama:/root/.ollama

Preparação do Volume

No mesmo diretório, crie um subdiretório chamado ollama. Esse subdiretório será usado para persistir os dados do container, permitindo que ele seja reiniciado sem a necessidade de baixar os modelos novamente.

mkdir ollama

Inicializando o Docker Compose

Execute o comando abaixo para iniciar o Docker Compose:

docker compose up

O Docker irá baixar as dependências necessárias e iniciar o servidor anexado ao terminal atual.

Baixando o Modelo

Em outro terminal, faça o download de um dos modelos disponíveis). Para este guia, utilizaremos o modelo deepseek-r1:14b:

curl http://localhost:11434/api/pull -d '{"model": "deepseek-r1:14b"}'

Interagindo com o Llama

Agora você pode interagir com o Llama usando curl:

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:14b",
  "prompt":"Quantos minutos tem uma hora?",
  "stream": false
}'
{
  "model": "deepseek-r1:14b",
  "created_at": "2024-11-30T02:56:10.335418081Z",
  "response": "Uma hora é igual a 60 minutos.",
  "done": true,
}

About

Rode ollama pelo docker com o modelo deepseek

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published