#pip install -U "huggingface_hub[cli]" | |
# Démarrez le service Ollama en arrière-plan | |
ollama serve & | |
# Attendez que le service soit prêt | |
sleep 10 | |
# Exécutez la commande pull | |
ollama pull llama3:8b-instruct-q8_0 | |
# Gardez le conteneur en cours d'exécution | |
tail -f /dev/null |