Update README.md
#2
by
SeungAhSon
- opened
README.md
CHANGED
@@ -10,7 +10,7 @@ tags:
|
|
10 |
## Model Details
|
11 |
|
12 |
DeBERTa는 Disentangled Attention과 Enhanced Masked Language Model을 통해 BERT의 성능을 향상시킨 모델입니다.
|
13 |
-
그중 DeBERTa V3은 ELECTRA-Style Pre-Training에 Gradient-Disentangled Embedding Sharing을
|
14 |
|
15 |
이 연구는 구글의 TPU Research Cloud(TRC)를 통해 지원받은 Cloud TPU로 학습되었습니다.
|
16 |
|
|
|
10 |
## Model Details
|
11 |
|
12 |
DeBERTa는 Disentangled Attention과 Enhanced Masked Language Model을 통해 BERT의 성능을 향상시킨 모델입니다.
|
13 |
+
그중 DeBERTa V3은 ELECTRA-Style Pre-Training에 Gradient-Disentangled Embedding Sharing을 적용하여 DeBERTA를 개선했습니다.
|
14 |
|
15 |
이 연구는 구글의 TPU Research Cloud(TRC)를 통해 지원받은 Cloud TPU로 학습되었습니다.
|
16 |
|