Alikhan Urumov commited on
Commit
999644b
1 Parent(s): 79bcc86

update model card README.md

Browse files
Files changed (1) hide show
  1. README.md +44 -49
README.md CHANGED
@@ -4,58 +4,53 @@ tags:
4
  model-index:
5
  - name: wav2vec2-russian
6
  results: []
7
- widget:
8
- - src: https://cdn-media.huggingface.co/speech_samples/common_voice_ru_18849022.mp3
9
-
10
  ---
11
 
12
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
13
  should probably proofread and complete it, then remove this comment. -->
14
 
15
  # wav2vec2-russian
16
- #
17
- ---
18
- # Загрузите аудиофайл в формате wav для распознования. Результат можно откорректировать в другой моей сети. которая исправляет ошибки, расставляет знаки припинания и исправляет цифры. https://huggingface.co/UrukHan/t5-russian-spell
19
-
20
- <table border="0">
21
- <tr>
22
- <td><b style="font-size:30px">Output wav2vec2</b></td>
23
- <td><b style="font-size:30px">Output spell correcor</b></td>
24
- </tr>
25
- <tr>
26
- <td>ывсем привет выныканалетоп армии и это двадцать пятый день спец операций на украине ет самый главной новости российские военные ракетами кинжалы калибр уничтожили крупную военную топливную базу украины ракетным ударом по населенному пункту под жетамиром уничтжены более стаукраинских военных</td>
27
- <td>Всем привет! Вы в курсе новостей от армии. И это 25 день спецопераций на Украине. Есть самые главные новости. Российские военные ракетами «Кинжалы» и «Кинжалы» калибра уничтожили крупную военную топливную базу Украины. Ракетным ударом по населенному пункту под Жетамиром уничтожены более ста украинских военных.</td>
28
- </tr>
29
- </table>
30
-
31
- #
32
- ---
33
- # Запуск сети пример в колабе https://colab.research.google.com/drive/1dVZvccYJq02hmEsapWgmuJ-pLdezFnn1?usp=sharing
34
- #
35
- ```python
36
-
37
- from transformers import AutoModelForCTC, Wav2Vec2Processor
38
-
39
- model = AutoModelForCTC.from_pretrained("wav2vec2-russian-colab")
40
- processor = Wav2Vec2Processor.from_pretrained("wav2vec2-russian-colab")
41
-
42
- def map_to_result(batch):
43
- with torch.no_grad():
44
- input_values = torch.tensor(batch["input_values"]).unsqueeze(0) #, device="cuda"
45
- logits = model(input_values).logits
46
-
47
- pred_ids = torch.argmax(logits, dim=-1)
48
- batch = processor.batch_decode(pred_ids)[0]
49
- return batch
50
-
51
- map_to_result()
52
- ```
53
-
54
- #
55
- ---
56
- # Тренировка модели с обработкой данных и созданием датасета разобрать можете в колабе:
57
- # https://colab.research.google.com/drive/1zkCA2PtKxD2acqLr55USh35OomoOwOhm?usp=sharing
58
-
59
- # Можно пропусстить обработку аудио. готовый датасет если использовать "https://huggingface.co/datasets/UrukHan/wav2vec2-russian"
60
- # словарь также самому можно вручную собрать, там для русского язывка всего 36 символов
61
-
 
4
  model-index:
5
  - name: wav2vec2-russian
6
  results: []
 
 
 
7
  ---
8
 
9
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
10
  should probably proofread and complete it, then remove this comment. -->
11
 
12
  # wav2vec2-russian
13
+
14
+ This model was trained from scratch on the None dataset.
15
+ It achieves the following results on the evaluation set:
16
+ - eval_loss: 0.3457
17
+ - eval_wer: 0.4635
18
+ - eval_runtime: 157.5931
19
+ - eval_samples_per_second: 9.613
20
+ - eval_steps_per_second: 1.206
21
+ - epoch: 1.95
22
+ - step: 3500
23
+
24
+ ## Model description
25
+
26
+ More information needed
27
+
28
+ ## Intended uses & limitations
29
+
30
+ More information needed
31
+
32
+ ## Training and evaluation data
33
+
34
+ More information needed
35
+
36
+ ## Training procedure
37
+
38
+ ### Training hyperparameters
39
+
40
+ The following hyperparameters were used during training:
41
+ - learning_rate: 1e-07
42
+ - train_batch_size: 16
43
+ - eval_batch_size: 8
44
+ - seed: 42
45
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
46
+ - lr_scheduler_type: linear
47
+ - lr_scheduler_warmup_steps: 1000
48
+ - num_epochs: 10
49
+ - mixed_precision_training: Native AMP
50
+
51
+ ### Framework versions
52
+
53
+ - Transformers 4.18.0
54
+ - Pytorch 1.10.0+cu111
55
+ - Datasets 2.0.0
56
+ - Tokenizers 0.11.6