Llama-3.1-Nemotron-70B-Instruct
/
model_weights
/model.decoder.layers.self_attention.linear_qkv.weight
-
259 Bytes
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS
-
21 MB
LFS