FROM ollama/ollama:latest # Instala curl e outros pacotes necessários RUN apt-get update && apt-get install curl -y # Criação de um usuário não-root RUN useradd -m -u 1000 user # Muda para o usuário não-root USER user # Configura variáveis de ambiente ENV HOME=/home/user \ PATH=/home/user/.local/bin:$PATH \ OLLAMA_HOST=0.0.0.0 # Define o diretório de trabalho WORKDIR $HOME/app # Copia o Modelfile para o diretório de trabalho COPY --chown=user:user Modelfile $HOME/app/ # Baixa o modelo Llama 3.1 RUN curl -fsSL https://huggingface.co/meta-llama/Meta-Llama-3.1-8B/resolve/main/llama3.1_ggmlv3.gguf -o llama3.1.gguf # Inicia o serviço Ollama e cria o modelo usando o Modelfile RUN ollama serve & sleep 5 && ollama create llama3.1 -f Modelfile # Exponha a porta usada pelo serviço Ollama EXPOSE 11434