master_cate_lh0 / README.md
mini1013's picture
Push model using huggingface_hub.
2ad14e3 verified
---
base_model: mini1013/master_domain
library_name: setfit
metrics:
- metric
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 아에르 마스크 피크V라이트핏 10 KF94마스크새부리형 여름용 조인성 대형 블랙 50 복덩이가게
- text: 전자담배 무화기 폐호흡 3 개/갑 cudo ONID 미니 포드 카트리지 1.0ohm 저항 recoment Vape 01 3pcs
one pack 썬데이무드
- text: 렉스팟 REX POD 릴렉스 전자담배 RELX 호환 포도 베이프코드
- text: 슈얼리 배란테스트기 30개입+임테기 3개입 배테기 배란일 배란기 [임신테스트기]_클리어 얼리 패스트 X 3 뉴트리헬스케어 주식회사
- text: 부푸 브이메이트맥스 액상입호흡입문전자담배 오닉스블랙 토이베이프
inference: true
model-index:
- name: SetFit with mini1013/master_domain
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: metric
value: 0.9110184776944967
name: Metric
---
# SetFit with mini1013/master_domain
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 17 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 4.0 | <ul><li>'천년거북온구기(점화식)+진영감생명쑥봉80+터보라이터 세진메디칼약품(주)'</li><li>'가정용 왕쑥봉 말린쑥 약숙 쑥가루 주전부리 김진수'</li><li>'[NF81261]압봉- 기황 은6호 한국메디칼'</li></ul> |
| 9.0 | <ul><li>'고려수지침 서암출혈침관 사혈기 세트 침100개 알콜100매 한방종합'</li><li>'KM침 1통(100쌈 1000개) 일회용침 알콜솜 20매 멸균 스프링침 소독 0.40x60 주식회사 에이치이바이오'</li><li>'TG 서암봉1호/6호 금색 5박스 04. 6호 금색 5박스 '</li></ul> |
| 14.0 | <ul><li>'올바스 오일 칠드런 12ml 대용량 3. 올바스오일 오리지널 30ml 바이트랜스'</li><li>'꿀잠꿀잠 입벌림 방지 마우스 밴드(25매)-3개 메디팩토리'</li><li>'힐조 유칼립투스 민트밤 25g 단품 구매_유칼립투스 민트밤 30g (2개이상 무료배송) 힐조'</li></ul> |
| 12.0 | <ul><li>'헬베이프 젤로 맥스 팟 공팟 0.6옴 메쉬팟(낱개1개) 전자담배 전담 코일 카트리지 디어베이프'</li><li>'몬스터펀치 전자담배액상 전담액상 완성형 알로에베라 무니코틴 워리어컴퍼니'</li><li>'국내배송 아이코스3 캡, 홀더 (아이코스 듀오 호환) 메가트랜디패션'</li></ul> |
| 5.0 | <ul><li>'마스클립 마스크 안쪽까지 보호하는 마스크스트랩 화이트그레이 주식회사 아이리스'</li><li>'아에르 넥밴드 10종 (택1) 실리콘 넥스트랩 마스크줄 국산 CS-NB_PIN 넥 밴드 (핑크) 1개 해밀컴퍼니 주식회사'</li><li>'카론슨 고급 마스크 스트랩 목걸이 03.밀리터리카키 핑셀링(PINGSELLING)'</li></ul> |
| 8.0 | <ul><li>'휴족시간 신형 6매 x 3팩 발패치 다리 종아리 쿨링시트 일본히트 건강스토어'</li><li>'휴족시간 쿨링시트 6매입 x 5개 (주)씨제이이엔엠'</li><li>'휴족시간 쿨링시트 6매입 x 5개 / 다리관리 패치 쿨링패치 7.온감테라피 온열 발바닥밴드 4매입x2개 jullia2222'</li></ul> |
| 16.0 | <ul><li>'베리메디 파라핀 왁스 레몬 453g, 12개 슈어트레이드'</li><li>'왁싱워머기 제모용 고급 업소용 왁싱워머 셀프 왁스 오렌지 핸드 왁스 1조각 (450g) 헬로구쯔'</li><li>'파라핀 보온 장갑 찜질 보습 보호 덮개 가정용 장갑 052640DC 대상컴퍼니'</li></ul> |
| 6.0 | <ul><li>'찐마스크 KFAD 대형 50입 화이트 [내추럴키스 찐마스크] KFAD대형화이트50입개별포장 주식회사 웹이즈'</li><li>'식약처 의약외품 수술용 수성 덴탈마스크 백색 50매 엠알오샵'</li><li>'아이바나리 KF94 마스크 새부리형마스크 컬러 10매 MS_코튼아이보리 주식회사 라온브라더스'</li></ul> |
| 13.0 | <ul><li>'손가락마사지기 손가락지압기 지압구슬 손가락롤러 로즈의하루'</li><li>'손가락 지압기 혈자리 합곡혈 지압봉 블랙 365랜드1'</li><li>'손 가락 핸드 마사지 지압 맛사지 안마 기 손가락 마사지 롤러 에스더블유컴퍼니'</li></ul> |
| 3.0 | <ul><li>'대장검사키트 분변잠혈검사 이지디텍트 용종선종 3매 대장검사키트 X 4매 (주)대지인팜'</li><li>'메디위 셀프 이지디텍트 대장검사지/간편2분/초기 대장암 자가진단/용종 검사 주식회사 소연'</li><li>'청폐88 수동식흉벽진동기 목 가래 제거기 배출기 객담 유도기 호흡 재활 폐활량 운동기 1_연두색(불투명) 케이비스토어'</li></ul> |
| 1.0 | <ul><li>'페이버 R300B 스포츠팔찌 3줄타입 핸드메이드 야구 용품 남자 여자 R300B-08_XL 버들버들RYU'</li><li>'게르마늄 스포츠팔찌 음이온 밸런스 밴드 검은색 S사이즈 르보'</li><li>'건강팔찌 게르마늄팔찌 순도 회복 피로 99 남성용 로즈 골드 (올 블랙 게르마늄) 나의선물'</li></ul> |
| 10.0 | <ul><li>'마스케어 메탈 투명 위생 마스크 식당 주방 주방용 음식점 메탈_1개입 (주)코스모스웨이'</li><li>'마스케어 메탈 투명 위생 마스크 식당 주방 주방용 음식점 에코_5개입 (주)코스모스웨이'</li><li>'마스케어 메탈 투명 위생 마스크 식당 주방 주방용 음식점 메탈_5개입 (주)코스모스웨이'</li></ul> |
| 2.0 | <ul><li>'아로마 금연 파이프 니코틴 없는 비타 스틱 피우는 비타민 담배 대체 복만두닷컴'</li><li>'금연보조제 금연파이프 약국 니코틴 패치 배출 금연초 약 영맨'</li><li>'담배대신 피우는 약국 비타민 담배 파이프 아그얼라'</li></ul> |
| 0.0 | <ul><li>'호무로 겨울용 먼지없는 고급 차렵이불 단품 SS Q K SK(당일출고) 크림_슈퍼킹 SK 범퍼카타요'</li><li>'펜던트 보관 효도 약목걸이 목걸이 BW5BA3C5 골드_협심증N 하니스토어16'</li><li>'토네이도목걸이 마라톤 ex와이어 건강 러닝 스포츠 야구jkl493 EX와이어토네이도목걸이핑크-화이트43cm 샵프리G'</li></ul> |
| 15.0 | <ul><li>'NS 발포세척정 50정 세척제 코세척기 텀블러 물병 틀니 음식기 조리기 살균 세정제 NS세척정(50정) 메디파인'</li><li>'노즈스위퍼 코세척기(분말10포)+분말100포set/코세정 MinSellAmount 메디파인'</li><li>'눈가습기 환절기 비강 코건조 치료 콧구멍 스팀기 G. 50ml 용량 + 드라이 아이팩 5팩 하늘'</li></ul> |
| 11.0 | <ul><li>'액상 전자담배 오리지널 Yocan Flat Plus 배터리 베이프 펜 900mAh 510 스레드 10s 예열 C타입 08ohm 카트리지 전자 담배 Black_3pcs 톱켓'</li><li>'전자담배 무화기 폐호흡 교체 아크릴 천둥 패널 커버 Cthulhu AIO 박스 모드 액세서리 01 WHITE 특별한하루직구'</li><li>'요요 멜로망스 입호흡 전자담배 액상 러브피치 퐁당스'</li></ul> |
| 7.0 | <ul><li>'예스이어 소음방지 이어플러그 수면귀마개 층간 차단 수영 NS4000 FI3000 TI5000 [제품2]NS4000_오렌지 예스이어본사'</li><li>'실리콘귀덮개 염색용귀보호커버 파마용귀마개 리테일파크'</li><li>'맥스 소음방지 귀마개 대용량 소프트폼 드림걸 100개입 코 골이 소음차단 수면 이어플러그 울트라 100개입 (주)에버셀'</li></ul> |
## Evaluation
### Metrics
| Label | Metric |
|:--------|:-------|
| **all** | 0.9110 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_lh0")
# Run inference
preds = model("부푸 브이메이트맥스 액상입호흡입문전자담배 오닉스블랙 토이베이프")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:--------|:----|
| Word count | 3 | 10.4659 | 31 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0.0 | 50 |
| 1.0 | 50 |
| 2.0 | 25 |
| 3.0 | 50 |
| 4.0 | 50 |
| 5.0 | 50 |
| 6.0 | 50 |
| 7.0 | 50 |
| 8.0 | 50 |
| 9.0 | 50 |
| 10.0 | 28 |
| 11.0 | 50 |
| 12.0 | 24 |
| 13.0 | 50 |
| 14.0 | 50 |
| 15.0 | 50 |
| 16.0 | 50 |
### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (20, 20)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 40
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0082 | 1 | 0.4305 | - |
| 0.4098 | 50 | 0.347 | - |
| 0.8197 | 100 | 0.1694 | - |
| 1.2295 | 150 | 0.0708 | - |
| 1.6393 | 200 | 0.0363 | - |
| 2.0492 | 250 | 0.0314 | - |
| 2.4590 | 300 | 0.0411 | - |
| 2.8689 | 350 | 0.0414 | - |
| 3.2787 | 400 | 0.0175 | - |
| 3.6885 | 450 | 0.0267 | - |
| 4.0984 | 500 | 0.0184 | - |
| 4.5082 | 550 | 0.0085 | - |
| 4.9180 | 600 | 0.0185 | - |
| 5.3279 | 650 | 0.0094 | - |
| 5.7377 | 700 | 0.0022 | - |
| 6.1475 | 750 | 0.0078 | - |
| 6.5574 | 800 | 0.0104 | - |
| 6.9672 | 850 | 0.004 | - |
| 7.3770 | 900 | 0.0081 | - |
| 7.7869 | 950 | 0.0058 | - |
| 8.1967 | 1000 | 0.0045 | - |
| 8.6066 | 1050 | 0.0021 | - |
| 9.0164 | 1100 | 0.0079 | - |
| 9.4262 | 1150 | 0.0021 | - |
| 9.8361 | 1200 | 0.0002 | - |
| 10.2459 | 1250 | 0.0001 | - |
| 10.6557 | 1300 | 0.0001 | - |
| 11.0656 | 1350 | 0.0001 | - |
| 11.4754 | 1400 | 0.002 | - |
| 11.8852 | 1450 | 0.0002 | - |
| 12.2951 | 1500 | 0.0039 | - |
| 12.7049 | 1550 | 0.0001 | - |
| 13.1148 | 1600 | 0.0001 | - |
| 13.5246 | 1650 | 0.002 | - |
| 13.9344 | 1700 | 0.0005 | - |
| 14.3443 | 1750 | 0.0002 | - |
| 14.7541 | 1800 | 0.0001 | - |
| 15.1639 | 1850 | 0.0001 | - |
| 15.5738 | 1900 | 0.0001 | - |
| 15.9836 | 1950 | 0.0001 | - |
| 16.3934 | 2000 | 0.0001 | - |
| 16.8033 | 2050 | 0.0001 | - |
| 17.2131 | 2100 | 0.0001 | - |
| 17.6230 | 2150 | 0.0001 | - |
| 18.0328 | 2200 | 0.0001 | - |
| 18.4426 | 2250 | 0.0001 | - |
| 18.8525 | 2300 | 0.0001 | - |
| 19.2623 | 2350 | 0.0 | - |
| 19.6721 | 2400 | 0.0001 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0.dev0
- Sentence Transformers: 3.1.1
- Transformers: 4.46.1
- PyTorch: 2.4.0+cu121
- Datasets: 2.20.0
- Tokenizers: 0.20.0
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->