|
--- |
|
license: apache-2.0 |
|
datasets: |
|
- Vikhrmodels/GrandMaster-PRO-MAX |
|
- Vikhrmodels/Grounded-RAG-RU-v2 |
|
language: |
|
- en |
|
- ru |
|
base_model: |
|
- mistralai/Mistral-Nemo-Instruct-2407 |
|
--- |
|
|
|
## Vikhr-Nemo-12B-Instruct-R-21-09-24 |
|
|
|
### Описание |
|
|
|
**Vikhr-Nemo** - это наша фалгманская умнимодальная LLM (Large Language Model) представляющая из себя улучшенную версию [mistralai/Mistral-Nemo-Instruct-2407](https://huggingface.co/mistralai/Mistral-Nemo-Instruct-2407) командой **VikhrModels**, адаптированную преимущественно для русского и английского языков. Для ее обучения мы использовали несколько этапов включаюзих в себя **SFT** и **SMPO** - нашу собственную вариацию DPO, подробнее читайте в секции *"Как эта модель создавалась"*. |
|
|
|
Модель оптимизированна для различных вариантов использования, включая рассуждения, обобщение и ответы на вопросы. Vikhr-Nemo обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что в некоторыых случаях может использоваться как локальная замена для gpt-4o-mini от OpenAI. |
|
|
|
Весь использованный код для обучения выложен в нашем репозитории [effective_llm_alignment](https://github.com/VikhrModels/leffective_llm_alignment/) на GitHub, а основаные датасеты дсотупны в нашем [профиле на HF](https://huggingface.co/Vikhrmodels). |
|
|
|
### Особенности |
|
1. Высокое качество генераций на русском и английском языках, а также некоторых других языках, благодаря датасету Grandmaster-PRO-MAX и исходной модели. |
|
2. Поддержка системных промптов для регулриования стиля ответов |
|
3. Поддержка до 128k токенов контекста благодаря исходной модели |
|
4. Grounded RAG режим - модель имеет специальную роль documents и специальный режим работы для поиска идентификаторов релевантных вопросу пользователя документов и использования их для ответа на вопрос, вдохновлено аналогичной способность модели Command-R |
|
|
|
### Метрики и оценка качества |
|
|
|
Модель оценивалась на нашем русскоязычном опен-сорс SBS бенчмарке [ru-arena-general](https://github.com/VikhrModels/ru_llm_arena) (50 вопросов по 10 топикам), где судьей выступает gpt-4-1106-preview и [бенчмарке]() для RAG на основе тестового сета [Grounded-RAG-v2](https://huggingface.co/datasets/Vikhrmodels/Grounded-RAG-RU-v2), где судей выступа gpt-4o. |
|
|
|
#### Результаты на Ru-Arena-General |
|
|
|
В качестве референсых отвеов, с которыми сравниваются модели выступают ответы от gpt-3.5-turbo-0125, поэтому она имеет винрейт 50%. |
|
|
|
Здесь приведена лишь часть лидерборда, подробнее смотрите в репозитории бенчмарка. |
|
|
|
| Model Name | Winrate | 95% CI | Average # Tokens | |
|
|--------------------------------------------------|--------|--------------------|------------------| |
|
| gpt-4-1106-preview | 90.9 | (-1.3, 1.0) | 541 | |
|
| gpt-4o-mini | 83.9 | (-1.8, 1.1) | 448 | |
|
| **vikhr-nemo-12b-instruct-r-21-09-24** | **79.8** | (-2.2, 1.9) | **627** | |
|
| gemma-2-9b-it-sppo-iter3 | 73.6 | (-1.6, 2.2) | 509 | |
|
| gemma-2-9b-it | 69.2 | (-2.5, 1.9) | 459 | |
|
| t-lite-instruct-0.1 | 64.7 | (-2.1, 1.7) | 810 | |
|
| vikhr-llama3.1-8b-instruct-r-21-09-24 | 63.4 | (-2.1, 2.5) | 618 | |
|
| suzume-llama-3-8B-multilingual-orpo-borda-half | 57.1 | (-1.9, 2.2) | 682 | |
|
| mistral-nemo-instruct-2407 | 50.5 | (-2.7, 2.6) | 403 | |
|
| gpt-3.5-turbo-0125 | 50.0 | (0.0, 0.0) | 220 | |
|
| c4ai-command-r-v01 | 49.0 | (-1.7, 2.2) | 529 | |
|
|
|
#### Результаты на бенчмарке RAG |
|
|
|
Тут в для оценки качества модель-судья была проинструктирована учитывать релеватность и фактологичкскую полноту ответов исходя из документов и реферсного ответа от gpt-4-1106-preview. |
|
|
|
... |
|
|
|
### Как эта модель создавалась |
|
|
|
### Как работать с RAG |
|
|
|
### Нюансы и ограничения |
|
|
|
### Авторы |
|
|