#!/bin/bash #pip install -U "huggingface_hub[cli]" # Démarrez le service Ollama en arrière-plan ollama serve & # Attendez que le service soit prêt sleep 10 # Exécutez la commande pull ollama pull llama3:8b-instruct-q8_0 # Gardez le conteneur en cours d'exécution tail -f /dev/null