Model Information
μ΄ λͺ¨λΈμ νμμ μ§λ‘ μλ΄ μμ½ λ΄μ©μ λΆμνμ¬ κ°μΈνλ μ§λ‘ μλ΄μ μ 곡νλ μ±λ΄μ λλ€. νμμ ν₯λ―Έ, μ·¨λ―Έ, κ·Έλ¦¬κ³ μ΄λ―Έ νμν μ§λ‘ κ²½λ‘λ₯Ό κΈ°λ°μΌλ‘ λ§μΆ€ν μ§λ‘ μ‘°μΈμ μ 곡ν©λλ€.
Training
- νκ²½: Colab A100
- λ°μ΄ν°μ : AiHub μΈκ³΅μ§λ₯κΈ°λ° νμ μ§λ‘νμμ μν μλ΄ λ°μ΄ν° ꡬμΆνμ΅λλ€.
- μ μ 리μμ€λ‘ νμ΅ κ°λ₯ν μ μλλ‘ QLoRA(Quantized Low-Rank Adaptation) κΈ°λ²μ νμ©ν΄ νμΈνλμ μ§ννμ΅λλ€.
- μ΄ κΈ°λ²μ λ©λͺ¨λ¦¬ μ¬μ©λλ μ€μΌμ μκ³ μ±λ₯μ μ μ§ν μ μμ λλ¦ μ νμ μΈ μμμμ νμ΅ν μμκ² ν©λλ€.
How to Use
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "godfam3/CareerSage"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
model_pipeline = pipeline("text-generation", model=model, tokenizer=tokenizer, max_new_tokens=1024, device='cuda')
example = 'μ§μ
μ νΈλ κ²μ¬λ₯Ό λ°μλ³Έ μ μ΄ μμΌλ©° μ·¨λ―Έλ μ΄λμ΄λ€.\nμ΄λκ³Ό κ²μμ μ’μνμ§λ§, μ΄λμ΄λ κ²μμΌλ‘ μ§λ‘λ₯Ό μ νν λ§μμ μλ€.\nμ΄λκ³Ό κ΄λ ¨λ μ§μ
μΌλ‘ κ²½μ°°, μλ°© 곡무μμ΄λ 체μ‘νκ³Ό, κ²½νΈνκ³Ό λ±μ λνμ¬ μκ² λμλ€.\nμ’μνλ κ³Όλͺ©μΌλ‘λ 체μ‘μ κΌ½μμΌλ©°, μ²΄μ‘ μ μλμ μ§λ‘λ‘ μκ°ν΄ 보μλ€κ° μμ΄λ€μ΄ μ μλκ» μμ μκ² κ΅¬λ κ±Έ λ³΄κ³ μκ°μ λ°κΎΈμλ€.\nμ§λ‘λ₯Ό νμν΄λ³Ό λ°©λ²μΌλ‘ κ΅μ‘μ²μμ μ£Όκ΄νλ κΏμ νκ΅μ λνμ¬ μκ² λμλ€.\nμ§λ μλ΄ μκ°μ μ²΄μ‘ κ΅μ¬μ λνμ¬ λνλ₯Ό λλμλλ° μ¬μ ν μ²΄μ‘ κ΅μ¬μλ κ΄μ¬μ΄ μλ€.\nμ·¨λ―Έλ μ΄λμ΄λ©° μ΄λκ³Ό κ΄λ ¨λ μ§μ
μ μ€ν¬μΈ λ§μΌν°, μ€ν¬μΈ κΈ°λ‘ λΆμμ°κ΅¬μ, μ€ν¬μΈ ν΄μ€κ°, μ€ν¬μΈ νΈλ μ΄λ, μ€ν¬μΈ μμ΄μ νΈ, μ€ν¬μΈ μΉ΄μ΄μ¬λ¬, μΌμΈνλ μ§λμ¬ λ±μ΄ μμμ μκ² λμλ€.\nμ΄λκ³Ό κ΄λ ¨λ κ° μ§μ
μ΄ νλ μΌλ€μ λνμ¬ μκ² λμμΌλ κ΄μ¬μ΄ κ°λ μ§μ
μ μλ€.'
messages = [
{
"role": "user",
"content": "λΉμ μ μ§λ‘ μλ΄ μ λ¬Έκ°μ
λλ€. λ€μ κΈμ νμ μ§λ‘ μλ΄ μμ½λ¬Έμ
λλ€. ν΄λΉ νμμκ² μλ§λ μ§λ‘ μλ΄μ μμ±ν΄μ£ΌμΈμ: {}".format(example)
}
]
prompt = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipe_finetuned(
prompt,
do_sample=True,
temperature=0.2,
top_k=50,
top_p=0.95,
add_special_tokens=True
)
print(outputs[0]["generated_text"][len(prompt):])
"""
νμμ μ΄λμ μ’μνκ³ μ·¨λ―Έλ‘ μ΄λμ νκ³ μλ€. 체μ‘κ΅μ¬μλ κ΄μ¬μ΄ μμμΌλ μμ΄λ€μ΄ μ μλκ» μμ μκ² κ΅¬νλ κ²μ λ³΄κ³ ν₯λ―Έλ₯Ό μμλ€κ³ νλ€. 체μ‘κ³Ό κ΄λ ¨λ μ§μ
μ λν΄μλ μμ보μμΌλ κ΄μ¬μ΄ μλ€.
νμμκ² μΆμ²νλ μ§λ¬΄λ μ΄λ κ΄λ ¨μ§, μμ κ΄λ ¨μ§, κ΅μ‘ κ΄λ ¨ μλΉμ€μ§μ΄λ€. μ΄λ κ΄λ ¨μ§μλ μ΄λμ μ, μ€ν¬μΈ νΈλ μ΄λ, μ€ν¬μΈ κ°μ¬ λ±μ΄ μλ€. νμμ΄ μ΄λμ μ’μνκ³ μ·¨λ―Έλ‘ νκ³ μμΌλ―λ‘ μ΄ μ§μ
μ λμ ν΄ λ³Ό μ μλ€. μμ κ΄λ ¨μ§μλ κ²½μ°°, μλ°©κ΄, κ²½νΈμ λ±μ΄ μλ€. νμμ΄ μμλ₯Ό κ°κ³ μ¬λλ€μ λμμ£Όκ³ μΆλ€λ©΄ μ΄ μ§μ
μ μ ννλ κ²μ΄ μ’μ κ²μ΄λ€. κ΅μ‘ κ΄λ ¨ μλΉμ€μ§μλ μ΄λ±νκ΅ κ΅μ¬, μ μΉμ κ΅μ¬, 보μ‘κ΅μ¬ λ±μ΄ μλ€. νμμ΄ μμ΄λ€μ μ’μνκ³ μμλ₯Ό κ°κ³ μμΌλ―λ‘ μ΄ μ§μ
μ μ ννλ κ²λ μ’μ μ νμ΄ λ μ μλ€.
νμμ νμ¬ μ΄λ±νκ΅ 5νλ
μΌλ‘ μ§λ‘λ₯Ό μ νλ λ°λ μΆ©λΆν μκ°μ΄ μλ€. λ€μν μ§μ
μ λν΄μ μμλ³΄κ³ μμ μ μ±ν₯κ³Ό μ λ§λ μ§μ
μ΄ λ¬΄μμΈμ§ μμ보λ μκ°μ κ°μ§κΈ°λ₯Ό κΆνλ€. λν μ§μ
체νμ ν΄λ³΄κ±°λ μ§μ
μΈμ λ§λμ μΈν°λ·°ν΄ 보λ κ²λ μ’μ λ°©λ²μ΄ λ μ μλ€.
"""
Fine-tuning νλΌλ―Έν°
λ³Έ μ½λμμ outputs = pipe_finetuned(...) ꡬ문μ νμΈνλλ λͺ¨λΈμ νΈμΆνμ¬ μ£Όμ΄μ§ ν둬ννΈμ λν μλ΅μ μμ±νλ μν μ ν©λλ€. μ΄λ prompt 맀κ°λ³μλ λͺ¨λΈμ΄ μλ΅ν μ¬μ©μ μ λ ₯ λλ νμμ μ§λ‘ μλ΄ μμ½λ¬Έμ ν¬ν¨νκ³ μμ΅λλ€.
- do_sample=Trueλ λͺ¨λΈμ΄ ν μ€νΈλ₯Ό μμ±ν λ μνλ§μ μ¬μ©νλλ‘ μ€μ νμ¬ λ€μνκ³ μ°½μμ μΈ μλ΅μ μ λν©λλ€.
- temperature=0.2λ μμ±λλ ν μ€νΈμ κ²°μ μ±μ λμ¬μ£Όμ΄, λ μΌκ΄λκ³ μ§μ€λ λ΅λ³μ μ 곡ν©λλ€.
- top_k=50κ³Ό top_p=0.95λ λͺ¨λΈμ΄ λ€μ λ¨μ΄λ₯Ό μ νν λ κ³ λ €ν ν ν°μ λ²μλ₯Ό μ ννμ¬ νμ§μ μ μ§νλ©΄μλ λ€μ±λ‘μ΄ μΆλ ₯μ κ°λ₯νκ² ν©λλ€.
- add_special_tokens=Trueλ λͺ¨λΈμ΄ μ λ ₯ λ° μΆλ ₯μ μ¬λ°λ₯΄κ² ν¬λ§·ν μ μλλ‘ νμν νΉμ ν ν°μ ν¬ν¨νλλ‘ μ€μ ν©λλ€.
μ΄λ¬ν κ³Όμ μ ν΅ν΄ νμΈνλλ λͺ¨λΈμ μ¬μ©μμκ² λ³΄λ€ κ°μΈνλ μ§λ‘ μλ΄ μλ΅μ μ 곡ν μ μκ² λ©λλ€.
λ―Έλ μΆκ° λ°μ κ°λ₯μ±
λͺ¨λΈμ΄ νμμ μ€μκ° νΌλλ°±μ λ°μνμ¬ λ κ°μΈνλ μΆμ²μ ν μ μλ κΈ°λ₯μ μΆκ°νκ±°λ, λ°μ΄ν°μ μ λ νμ₯νμ¬ λ€μν μ§μ κ΅°μ λν λ κΉμ΄ μλ λΆμμ΄ κ°λ₯νλλ‘ μΆκ° κ°λ°ν μ μμκ² κ°μ΅λλ€. λν, λ€κ΅μ΄ μ§μμ΄λ λ λ€μν νλ¬Έμ , μ§μ μ λ°°κ²½μ λ°μν μλ΄ κΈ°λ₯μ κ°λ° κ°λ₯μ±λ μμ΅λλ€.
- Downloads last month
- 6