pablo-rf commited on
Commit
da0e574
1 Parent(s): 10bafb6

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +185 -0
README.md ADDED
@@ -0,0 +1,185 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - gl
4
+ - es
5
+ - en
6
+ - cat
7
+ - pt
8
+ licence:
9
+ - MIT
10
+ tags:
11
+ - galician
12
+ - Llama
13
+ - llama-cpp
14
+ - gguf-my-repo
15
+ license: llama3.1
16
+ inference:
17
+ parameters:
18
+ top_k: 10
19
+ do_sample: true
20
+ temperature: 0.4
21
+ widget:
22
+ - text: 'Traduce ao galego esta frase en inglés:
23
+
24
+ Inglés: "my sister is studying Biology at the university."
25
+
26
+ Galego: "a miña irmá está a estudar bioloxía na universidade."
27
+
28
+ ----
29
+
30
+ Traduce ao galego esta frase en inglés:
31
+
32
+ Inglés: "You are working with my mother on a very interesting project."
33
+
34
+ Galego: "Estás a traballar coa miña nai nun proxecto moi interesante"
35
+
36
+ ----
37
+
38
+ Traduce ao galego esta frase en inglés:
39
+
40
+ Inglés: "You have to fix the computer now"
41
+
42
+ Galego:'
43
+ example_title: Translation
44
+ - text: 'Responde á seguinte pregunta.
45
+
46
+ Pregunta: "Cal é a capital de Noruega?"
47
+
48
+ Resposta: "A capital de Noruega é Oslo."
49
+
50
+ ----
51
+
52
+ Responde á seguinte pregunta.
53
+
54
+ Pregunta: "Cal é a moeda de Portugal"
55
+
56
+ Resposta: "A moeda de Portugal é o euro."
57
+
58
+ ----
59
+
60
+ Responde á seguinte pregunta.
61
+
62
+ Pregunta: "Cal é a capital de Suecia?"
63
+
64
+ Resposta:'
65
+ example_title: Question&Answering
66
+ - text: 'Cualifica como Positivo ou Negativo o sentimento da seguinte frase:
67
+
68
+ Texto: "Estou moi feliz"
69
+
70
+ Polaridade: Positivo
71
+
72
+ ----
73
+
74
+ Cualifica como Positivo ou Negativo o sentimento da seguinte frase:
75
+
76
+ Texto: "Non me gusta beber cervexa"
77
+
78
+ Polaridade: Negativo
79
+
80
+ ----
81
+
82
+ Cualifica como Positivo ou Negativo o sentimento da seguinte frase:
83
+
84
+ Texto: "O meu pai detesta o seu traballo"
85
+
86
+ Polaridade: Negativo
87
+
88
+ ----
89
+
90
+ Cualifica como Positivo ou Negativo o sentimento da seguinte frase:
91
+
92
+ Texto: "Uxía desfruta xogando ao fútbol"
93
+
94
+ Polaridade: Positivo
95
+
96
+ ----
97
+
98
+ Cualifica como Positivo ou Negativo o sentimento da seguinte frase:
99
+
100
+ Texto: "O neno non está contento coas notas"
101
+
102
+ Polaridade:'
103
+ example_title: Sentiment Analysis
104
+ - text: 'Extrae as entidades nomeadas do seguinte texto:
105
+
106
+ Texto: "Chámome Wolfgang e vivo en Berlin"
107
+
108
+ Entidades: Wolfgang:PER, Berlin:LOC
109
+
110
+ ----
111
+
112
+ Extrae as entidades nomeadas do seguinte texto:
113
+
114
+ Texto: "María e Miguel non teñen ningún problema"
115
+
116
+ Entidades: María:PER, Miguel:PER
117
+
118
+ ----
119
+
120
+ Extrae as entidades nomeadas do seguinte texto:
121
+
122
+ Texto: "O mellor de Barcelona é o bar do meu amigo Pablo"
123
+
124
+ Entidades: Pablo:PER, Barcelona:LOC
125
+
126
+ ----
127
+
128
+ Extrae as entidades nomeadas do seguinte texto:
129
+
130
+ Texto: "Carlos comparte cuarto con Marc"
131
+
132
+ Entidades:'
133
+ example_title: Name Entity Recognition (NER)
134
+ - text: A receita tradicional das filloas é
135
+ example_title: Filloas
136
+ - text: O neno vivía preto de
137
+ example_title: O neno
138
+ base_model: proxectonos/Llama-3.1-Carballo
139
+ pipeline_tag: text-generation
140
+ library_name: transformers
141
+ ---
142
+
143
+ # pablo-rf/Llama-3.1-Carballo-Q4_K_M-GGUF
144
+ This model was converted to GGUF format from [`proxectonos/Llama-3.1-Carballo`](https://huggingface.co/proxectonos/Llama-3.1-Carballo) using llama.cpp via the ggml.ai's [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) space.
145
+ Refer to the [original model card](https://huggingface.co/proxectonos/Llama-3.1-Carballo) for more details on the model.
146
+
147
+ ## Use with llama.cpp
148
+ Install llama.cpp through brew (works on Mac and Linux)
149
+
150
+ ```bash
151
+ brew install llama.cpp
152
+
153
+ ```
154
+ Invoke the llama.cpp server or the CLI.
155
+
156
+ ### CLI:
157
+ ```bash
158
+ llama-cli --hf-repo pablo-rf/Llama-3.1-Carballo-Q4_K_M-GGUF --hf-file llama-3.1-carballo-q4_k_m.gguf -p "The meaning to life and the universe is"
159
+ ```
160
+
161
+ ### Server:
162
+ ```bash
163
+ llama-server --hf-repo pablo-rf/Llama-3.1-Carballo-Q4_K_M-GGUF --hf-file llama-3.1-carballo-q4_k_m.gguf -c 2048
164
+ ```
165
+
166
+ Note: You can also use this checkpoint directly through the [usage steps](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) listed in the Llama.cpp repo as well.
167
+
168
+ Step 1: Clone llama.cpp from GitHub.
169
+ ```
170
+ git clone https://github.com/ggerganov/llama.cpp
171
+ ```
172
+
173
+ Step 2: Move into the llama.cpp folder and build it with `LLAMA_CURL=1` flag along with other hardware-specific flags (for ex: LLAMA_CUDA=1 for Nvidia GPUs on Linux).
174
+ ```
175
+ cd llama.cpp && LLAMA_CURL=1 make
176
+ ```
177
+
178
+ Step 3: Run inference through the main binary.
179
+ ```
180
+ ./llama-cli --hf-repo pablo-rf/Llama-3.1-Carballo-Q4_K_M-GGUF --hf-file llama-3.1-carballo-q4_k_m.gguf -p "The meaning to life and the universe is"
181
+ ```
182
+ or
183
+ ```
184
+ ./llama-server --hf-repo pablo-rf/Llama-3.1-Carballo-Q4_K_M-GGUF --hf-file llama-3.1-carballo-q4_k_m.gguf -c 2048
185
+ ```