Update README.md
Browse files
README.md
CHANGED
@@ -1 +1,158 @@
|
|
1 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: other
|
3 |
+
license_name: llama3
|
4 |
+
license_link: >-
|
5 |
+
https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct/blob/main/LICENSE
|
6 |
+
language:
|
7 |
+
- de
|
8 |
+
- en
|
9 |
+
tags:
|
10 |
+
- dpo
|
11 |
+
---
|
12 |
+
|
13 |
+
|
14 |
+
![SauerkrautLM](https://vago-solutions.ai/wp-content/uploads/2024/04/Llama3-Pic.png "Llama-3-SauerkrautLM-8b-Instruct")
|
15 |
+
## VAGO solutions Llama-3-SauerkrautLM-8b-Instruct
|
16 |
+
Introducing **Llama-3-SauerkrautLM-8b-Instruct** – our Sauerkraut version of the powerful [meta-llama/Meta-Llama-3-8B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct)!
|
17 |
+
|
18 |
+
The model **Llama-3-SauerkrautLM-8b-Instruct** is a **joint effort** between **VAGO Solutions** and **Hyperspace.ai.**
|
19 |
+
|
20 |
+
- Aligned with **DPO**
|
21 |
+
|
22 |
+
# Table of Contents
|
23 |
+
1. [Overview of all Llama-3-SauerkrautLM-8b-Instruct](#all-Llama-3-SauerkrautLM-8b-Instruct)
|
24 |
+
2. [Model Details](#model-details)
|
25 |
+
- [Prompt template](#prompt-template)
|
26 |
+
- [Training procedure](#proceed-of-the-training)
|
27 |
+
3. [Evaluation](#evaluation)
|
28 |
+
5. [Disclaimer](#disclaimer)
|
29 |
+
6. [Contact](#contact)
|
30 |
+
7. [Collaborations](#collaborations)
|
31 |
+
8. [Acknowledgement](#acknowledgement)
|
32 |
+
|
33 |
+
|
34 |
+
## All SauerkrautLM-llama-3-8B-Instruct
|
35 |
+
|
36 |
+
| Model | HF | EXL2 | GGUF | AWQ |
|
37 |
+
|-------|-------|-------|-------|-------|
|
38 |
+
| Llama-3-SauerkrautLM-8b-Instruct | [Link](https://huggingface.co/VAGOsolutions/Llama-3-SauerkrautLM-8b-Instruct) | coming soon | coming soon | coming soon |
|
39 |
+
|
40 |
+
## Model Details
|
41 |
+
**SauerkrautLM-llama-3-8B-Instruct**
|
42 |
+
- **Model Type:** Llama-3-SauerkrautLM-8b-Instruct is a finetuned Model based on [meta-llama/Meta-Llama-3-8B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct)
|
43 |
+
- **Language(s):** German, English
|
44 |
+
- **License:** [meta-llama](https://llama.meta.com/llama3/license)
|
45 |
+
- **Contact:** [VAGO solutions](https://vago-solutions.ai), [Hyperspace.ai](https://hyperspace.computer/)
|
46 |
+
|
47 |
+
### Training procedure:
|
48 |
+
- We trained this model in a two staged DPO procedure for 1 epoch with 65k data and another epoch with 20k data.
|
49 |
+
- LaserRMT version coming soon
|
50 |
+
|
51 |
+
**We improved the model's capabilities noticably by feeding it with curated German data.**
|
52 |
+
|
53 |
+
|
54 |
+
### Prompt Template:
|
55 |
+
|
56 |
+
**English:**
|
57 |
+
```
|
58 |
+
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
|
59 |
+
|
60 |
+
You are a helpful AI assistant.<|eot_id|><|start_header_id|>user<|end_header_id|>
|
61 |
+
|
62 |
+
Input<|eot_id|><|start_header_id|>assistant<|end_header_id|>
|
63 |
+
|
64 |
+
```
|
65 |
+
|
66 |
+
**German:**
|
67 |
+
```
|
68 |
+
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
|
69 |
+
|
70 |
+
Du bist ein freundlicher und hilfreicher deutscher KI-Assistent.<|eot_id|><|start_header_id|>user<|end_header_id|>
|
71 |
+
|
72 |
+
Input<|eot_id|><|start_header_id|>assistant<|end_header_id|>
|
73 |
+
|
74 |
+
```
|
75 |
+
### Example output of german language:
|
76 |
+
|
77 |
+
```
|
78 |
+
|
79 |
+
Prompt: Erkläre mir die Vorteile für das Fine-Tuning von Meta's LLama Modellen.
|
80 |
+
|
81 |
+
Antwort:
|
82 |
+
Sehr gern!
|
83 |
+
|
84 |
+
Fine-tuning von Meta's LLaMA-Modellen ist eine sehr effektive Möglichkeit, um Ihre Anwendung oder Ihr Projekt mit einer hochentwickelten Sprachverarbeitung auszustatten.
|
85 |
+
|
86 |
+
Die Vorteile des Fine-Tunings von LLaMA-Modellen sind:
|
87 |
+
|
88 |
+
Adaptation an spezielle Aufgaben: Durch das Fine-Tuning können Sie die Modelle auf Ihre speziellen Bedürfnisse und Anforderungen anpassen.
|
89 |
+
Dies ermöglicht es Ihnen, die Leistung der Modelle in Ihren Anwendungen zu verbessern.
|
90 |
+
|
91 |
+
Verbesserte Genauigkeit: Die fine-tuned Modelle lernen, sich an die spezifischen Merkmale Ihres Datenbestands anzupassen, was zu einer besseren Genauigkeit bei der Textklassifizierung, -generierung, -summarisierung usw. führt.
|
92 |
+
|
93 |
+
Anpassung an Branche oder Domain: Wenn Sie beispielsweise ein Medizinprojekt haben, können Sie die Modelle auf medizinische Fachterminologie und -konzepte trainieren, um eine höhere Präzision bei der Analyse medizinischer Texte zu erzielen.
|
94 |
+
|
95 |
+
Kosten-Effektivität: Im Vergleich zum Training neuer Modelle von Grund auf kann das Fine-Tuning viel kosteneffektiver sein, da Sie nur einen kleinen Teil des Trainingsdatums benötigen, um die Modelle an Ihre spezifischen Anforderungen anzupassen.
|
96 |
+
|
97 |
+
Schnellere Entwicklung: Das Fine-Tuning ermöglicht es Entwicklern, schnell neue Funktionen und Features in ihre Anwendungen einzufügen, ohne dass sie lange warten müssen, bis neue Modelle trainiert werden.
|
98 |
+
|
99 |
+
Bessere Interpretierbarkeit: Da die fine-tuned Modelle auf Ihre spezifischen Daten bestimmt wurden, können Sie leichter verstehen, warum bestimmte Entscheidungen getroffen werden, was wichtig ist, wenn es um Transparenz und Verantwortlichkeit geht.
|
100 |
+
|
101 |
+
Insgesamt bietet das Fine-Tuning von LLaMA-Modellen eine flexible und effektive Möglichkeit, um Ihre Anwendungen und Projekte durch die Integration von fortschrittlichen Sprachmodellen zu verbessern.
|
102 |
+
```
|
103 |
+
|
104 |
+
## Evaluation
|
105 |
+
|
106 |
+
**Open LLM Leaderboard:**
|
107 |
+
|
108 |
+
evaluated with lm-evaluation-benchmark-harness 0.4.2
|
109 |
+
| Metric | Value |
|
110 |
+
|-----------------------|---------------------------|
|
111 |
+
| Avg. | **74.57** |
|
112 |
+
| ARC (25-shot) | 74.66 |
|
113 |
+
| HellaSwag (10-shot) | 89.60 |
|
114 |
+
| MMLU (5-shot) | 66.55 |
|
115 |
+
| TruthfulQA (0-shot) | 66.32 |
|
116 |
+
| Winogrande (5-shot) | 80.98 |
|
117 |
+
| GSM8K (5-shot) | 69.29 |
|
118 |
+
|
119 |
+
|
120 |
+
**MT-Bench English**
|
121 |
+
|
122 |
+
```
|
123 |
+
########## First turn ##########
|
124 |
+
score
|
125 |
+
model turn
|
126 |
+
Llama-3-SauerkrautLM-8b-Instruct 1 8.15625
|
127 |
+
|
128 |
+
########## Second turn ##########
|
129 |
+
score
|
130 |
+
model turn
|
131 |
+
Llama-3-SauerkrautLM-8b-Instruct 2 7.65
|
132 |
+
|
133 |
+
########## Average ##########
|
134 |
+
score
|
135 |
+
model
|
136 |
+
Llama-3-SauerkrautLM-8b-Instruct 7.903125 *
|
137 |
+
|
138 |
+
```
|
139 |
+
* due to specific instruction training the english MT-Bench score is slightly lower than the original LLama-3-8B-Instruct
|
140 |
+
|
141 |
+
|
142 |
+
**MT-Bench German**
|
143 |
+
coming soon
|
144 |
+
|
145 |
+
|
146 |
+
## Disclaimer
|
147 |
+
We must inform users that despite our best efforts in data cleansing, the possibility of uncensored content slipping through cannot be entirely ruled out.
|
148 |
+
However, we cannot guarantee consistently appropriate behavior. Therefore, if you encounter any issues or come across inappropriate content, we kindly request that you inform us through the contact information provided.
|
149 |
+
Additionally, it is essential to understand that the licensing of these models does not constitute legal advice. We are not held responsible for the actions of third parties who utilize our models.
|
150 |
+
|
151 |
+
## Contact
|
152 |
+
If you are interested in customized LLMs for business applications, please get in contact with us via our websites. We are also grateful for your feedback and suggestions.
|
153 |
+
|
154 |
+
## Collaborations
|
155 |
+
We are also keenly seeking support and investment for our startups, VAGO solutions and Hyperspace where we continuously advance the development of robust language models designed to address a diverse range of purposes and requirements. If the prospect of collaboratively navigating future challenges excites you, we warmly invite you to reach out to us at [VAGO solutions](https://vago-solutions.de/#Kontakt), [Hyperspace.computer](https://hyperspace.computer/)
|
156 |
+
|
157 |
+
## Acknowledgement
|
158 |
+
Many thanks to [Meta](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct) for providing such valuable model to the Open-Source community
|