Files changed (1) hide show
  1. Dockerfile +22 -18
Dockerfile CHANGED
@@ -1,26 +1,30 @@
1
- # Use uma imagem base do Python
2
- FROM python:3.9-slim
3
 
4
- # Instale dependências necessárias
5
- RUN apt-get update && apt-get install -y curl
6
 
7
- # Instale o Ollama como root
8
- RUN curl -fsSL https://ollama.com/install.sh | sh
9
 
10
- # Adicione um usuário específico com UID 1000
11
- RUN useradd -m -u 1000 ollama-user
12
 
13
- # Ajuste as permissões para o diretório
14
- RUN chown -R ollama-user /usr/local/bin/ollama
 
 
15
 
16
- # Troque para o novo usuário
17
- USER ollama-user
18
 
19
- # Defina o diretório de trabalho
20
- WORKDIR /home/ollama-user
21
 
22
- # Exponha a porta
23
- EXPOSE 11434
 
 
 
24
 
25
- # Execute o Ollama
26
- CMD ["ollama", "serve"]
 
1
+ FROM ollama/ollama:latest
 
2
 
3
+ # Instala curl e outros pacotes necessários
4
+ RUN apt-get update && apt-get install curl -y
5
 
6
+ # Criação de um usuário não-root
7
+ RUN useradd -m -u 1000 user
8
 
9
+ # Muda para o usuário não-root
10
+ USER user
11
 
12
+ # Configura variáveis de ambiente
13
+ ENV HOME=/home/user \
14
+ PATH=/home/user/.local/bin:$PATH \
15
+ OLLAMA_HOST=0.0.0.0
16
 
17
+ # Define o diretório de trabalho
18
+ WORKDIR $HOME/app
19
 
20
+ # Copia o Modelfile para o diretório de trabalho
21
+ COPY --chown=user:user Modelfile $HOME/app/
22
 
23
+ # Baixa o modelo Llama 3.1
24
+ RUN curl -fsSL https://huggingface.co/meta-llama/Meta-Llama-3.1-8B/resolve/main/llama3.1_ggmlv3.gguf -o llama3.1.gguf
25
+
26
+ # Inicia o serviço Ollama e cria o modelo usando o Modelfile
27
+ RUN ollama serve & sleep 5 && ollama create llama3.1 -f Modelfile
28
 
29
+ # Exponha a porta usada pelo serviço Ollama
30
+ EXPOSE 11434