cd ollama OLLAMA_CUSTOM_CPU_DEFS="-DGGML_AVX=on -DGGML_AVX2=on -DGGML_F16C=on -DGGML_FMA=on" go generate ./... --verbose go build . --verbose go install . --verbose cd ../llama.cpp # LLAMA_CUDA=1 make -j llama-quantize llama-gguf-split llama-imatrix --verbose LLAMA_CUDA=0 make -j llama-quantize --verbose cd .. ollama serve & sleep 5 python app.py --verbose