AhmedBadawy11's picture
Add new SentenceTransformer model.
b0fa122 verified
metadata
base_model: intfloat/multilingual-e5-small
datasets: []
language: []
library_name: sentence-transformers
pipeline_tag: sentence-similarity
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:1193
  - loss:MultipleNegativesRankingLoss
widget:
  - source_sentence: >-
      في ديسمبر 2011، الفرقة اختارت اسمها الذي هو إكسو، مع أسماء إكسو-كي للفرقة
      الكورية وإكسو-إم للفرقة الصينية. وتم التعريف عن الأعضاء الأثني عشر بشكل
      منفرد من خلال 23 تيرز "إعلان" مختلف صدر من ديسمبر 2011 إلى فبراير 2012.
      وكان كل من كاي ولوهان وتاو وتشين، أول أربعة أعضاء يتم التعريف عنهم وقد
      ظهروا لأول مرة في أول أداء علني لهم في حدث نظام بث سول "دايجو دايجون"
      بتاريخ 29 ديسمبر 2011.
    sentences:
      - من هم أول أربعة الأعضاء اللذين تم التعرف عليهم؟
      - في أي عام إنتهى حكم زين العابدين؟
      - الى ماذا أشار اسم پلشت؟
  - source_sentence: >-
      يستطيع السرطان أن يصيب كل المراحل العمرية عند الإنسان حتى الأجنة، ولكن
      تزيد مخاطر الإصابة به كلما تقدم الإنسان في العمر. ويسبب السرطان الوفاة
      بنسبة 13% من جميع حالات الوفاة. ويشير مجتمع السرطان الأمريكي ACS إلى موت
      7.6 مليون شخص مريض بالسرطان في العالم في عام 2007. كما يصيب السرطان
      الإنسان فإن أشكال منه تصيب الحيوان والنبات على حد سواء.
    sentences:
      - >-
        كم كان عمر اللاعب رونالدو عند فوزه بجائزه الفيفا لكونه افضل لاعب لأول
        مره؟
      - ما هى نسب الوفاة بالسرطان؟
      - قبل اعتزاله من العب, مع اي فريق قضى الاعب رونالدو اخر سنتين؟
  - source_sentence: >-
      يسرا (10 مارس 1951  -)، ممثلة مصرية، قدمت عدداً كبير من الأعمال في السينما
      المصرية والدراما التلفزيونية، وهي سفيرة نوايا حسنة لبرنامج الأمم المتحدة
      الإنمائي. بدأت حياتها السينمائية في أواخر السبعينيات القرن العشرين، مع أول
      ظهور لها عام 1973 على الشاشة الفضية، تبرر عملها في بداياتها ببعض الأفلام
      التي قد لا ترقى إلى مستوى فني جيد بقولها: «عندما بدأت كانت بداخلي شحنة
      كبيرة للتمثيل، وكان مجرد تفريغها يرضيني، وشيئا فشيئا أدركت الفرق بين
      الانتشار والاختيار»، قبل الأشتغال في مجال الفن والسينما، استمر مشوارها مع
      السينما المصرية من فيلم لآخر حتى استطاعت أن تكتسب شعبية كبيرة في أواخر
      الثمانينيات القرن العشرين ومطلع تسعينيات القرن العشرين، ومنها مجموعة من
      الأفلام التي وقفت فيها أمام الفنان عادل إمام، وتتحدث دوماً عن تأثير المخرج
      يوسف شاهين والفنان عادل إمام على مشوارها الفني حيث تعاملت مع المخرج يوسف
      شاهين لأول مرة من خلال فيلم حدوتة مصرية، أما عادل إمام فقد مثلا معا لأول
      مرة من خلال فيلم شباب يرقص فوق النار في عام 1978، وقدمت بعدها معه نحو 15
      فيلماً.
    sentences:
      - أين ولد عنترة؟
      - متى ولدت يسرا؟
      - في أي عام إستقلت الأردن من فلسطين الإنتدابية؟
  - source_sentence: >-
      في صباح اليوم التّالي اجتمع الرّسول الكريم في قبيلة قريش وأخبرهم بما حصل
      معه، فقال أكثر النّاس: والله هذا الأمر لبيّن، وإنّ الرّسول لصادق ٌ آمين،
      وإنّ العير لتطرد شهرآ من مكّة إلى الشام مدبرة، وشهراً مقبلة، وقال بعضهم:
      إنّ هذا القول لا يصدّق أفيذهب محمّدٌ ويرجع إلى مكّة في ليلة واحدة؟! فارتدّ
      كثيرٌ ممّن كان قد أسلم، وذهب النّاس إلى أبي بكر، فقالوا له: يا أبا بكر إنّ
      صاحبك محمّد يزعم أنّه قد جاء من بيت المقدس وصلّى فيه ورجع إلى مكّة، فقال
      لهم أبو بكر: إنّكم تكذبون على رسول الله، فقالوا: بلى، ها هو الرّسول في
      المسجد يحدّث الناس بما حدث معه، فقال أبو بكر: والله لئن كان قال هذا الكلام
      لقد صدق، فما العجب من ذلك! فوالله إنّه ليخبرني أنّ الخبر يأتيه من الله من
      السّماء إلى الأرض في ساعةٍ من ليلٍ أو نهار فأصدّقه، فهذا أبعد ممّا تعجبون
      منه.
    sentences:
      - متى أخبر الرسول قبيلة قريش ما حصل معه؟
      - من ابوه؟
      - لماذا قال انها مبررة؟
  - source_sentence: >-
      إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة المتحدة
      وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر
      الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في
      الشرق، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر
      الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في
      شمال المحيط الأطلسي، كما تشمل أيضًا أكثر من 100 جزيرة صغيرة، مثل جزر سيلي
      وجزيرة وايت.
    sentences:
      - ما الامثلة لجزر انجلترا؟
      - فى اى بلد نشأ عيد الام؟
      - ماهي طبيعية النظام السياسي في النمسا؟

SentenceTransformer based on intfloat/multilingual-e5-small

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-small. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-small
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 384 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("AhmedBadawy11/multilingual-e5-small-finetuned-ar")
# Run inference
sentences = [
    'إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي، كما تشمل أيضًا أكثر من 100 جزيرة صغيرة، مثل جزر سيلي وجزيرة وايت.',
    'ما الامثلة لجزر انجلترا؟',
    'ماهي طبيعية النظام السياسي في النمسا؟',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 1,193 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 51 tokens
    • mean: 173.61 tokens
    • max: 512 tokens
    • min: 5 tokens
    • mean: 12.68 tokens
    • max: 28 tokens
  • Samples:
    positive anchor
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - من هو جمال أحمد حمزة خاشقجي؟
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - متى ولد جمال أحمد حمزة خاشقجي وتوفي؟ ال
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - في أي مدينة ولد جمال أحمد حمزة خاشقجي؟ ال
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 202 evaluation samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 62 tokens
    • mean: 178.02 tokens
    • max: 512 tokens
    • min: 6 tokens
    • mean: 12.32 tokens
    • max: 25 tokens
  • Samples:
    positive anchor
    حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد، وعمُّه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر، وهو خير أعمامه لقوله: «خَيْرُ إِخْوَتِي عَلِيٌّ، وَخَيْرُ أَعْمَامِي حَمْزَةُ رَضِيَ اللَّهُ عَنْهُمَا». بما وصفه رسول الله؟
    أسلم حمزة في السنة الثانية من بعثة النبي محمد، فلمَّا أسلم علمت قريش أن الرسولَ محمداً قد عز وامتنع وأن حمزة سيمنعه، فكفّوا عن بعض ما كانوا ينالون منه. ثم هاجر حمزة إلى المدينة المنورة، فآخى الرسولُ بينه وبين زيد بن حارثة. وكان أولُ لواء عقده الرسولُ محمدٌ هو اللواءَ الذي عقده لحمزة، وشهد حمزةُ غزوة بدر، وقَتَلَ فيها شيبة بن ربيعة مبارزةً، وقتل غيرَه كثيراً من المشركين، كما شهد غزوة أحد، فقُتل بها سنة 3هـ، وكان قد قَتَلَ من المشركين قبل أن يُقتل واحداً وثلاثين نفساً، وكان الذي قتله هو وحشي بن حرب الحبشي غلامُ جبير بن مطعم، ومثَّل به المشركون، وبقرت هند بنت عتبة بطنَه فأخرجت كبده، فجعلت تلوكها فلم تسغها فلفظتها، فقال الرسولُ محمدٌ: ، وخرج الرسولُ يلتمس حمزة، فوجده ببطن الوادي قد مُثِّل به، فلم ير منظراً كان أوجع لقلبه منه فقال: . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد. و ماذا فعل فى غزوة بدر؟
    القمر هو القمر الطبيعي الوَحيد للأرض بالإضافة إلى أنه خامس أكبر قمرٍ طبيعيٍ في المجموعة الشمسية. فهو يُعَدُ أكبر قمرٍ طبيعيٍ في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له، حيث أن قطره يصل إلى ربع قطر الأرض، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض، هذا بالإضافة إلى أنه يُعَدُ ثاني أعلى قمرٍ من ناحية الكثافة بعد قمر إيو. هذا ويتسم القمر الأرضي حركته التزامنية مع كوكبه (الأرض)، عارضاً دائماً الوجه نفسه؛ حيث يتميز الجانب القريب بمنطقةٍ بركانيةٍ منخفضةٍ مظلمةٍ، والتي تقع فيما بين مرتفعات القشرة الأرضية القديمة البراقة والفوهات الصدمية الشاهقة. كما يُلاحظ أن القمر الأرضي هو أكثر جسمٍ لامعٍ في السماء ليلاً، وعموماً هو الجسم الأكثر لمعاناً بعد الشمس، وهذا على الرغم من أن سطحه معتم جداً، حيث أن له انعكاساً مماثلاً للفحم. كان بروز القمر في السماء المظلمة ليلاً، ودورته المنتظمة الأطوار (المراحل) قد جعل له على مر العصور القديمة تأثيراً ثقافياً هاماً على كلٍ من اللغة، التقويم القمري، ، والأساطير القديمة، المتمثلة في آلهة القمر والتي منها عبر الحضارات: "خونسو" في الديانة المصرية القديمة، "تشانغ" في الحضارة الصينية وكذلك "ماما قيلا" في حضارة الإنكا. ومن السمات الكامنة للقمر كذلك، تأثير جاذبيته التي تسفر عن وقوع عمليتي مد وجزر المحيطات وإطالة الدقيقة (نتيجة تسارع المد والجزر) لليوم. مع ملاحظة أن المسافة المدارية الحالية للقمر، والتي تُقَدَرُ بثلاثين مرةٍ قدر قطر الكرة الأرضية، تتسبب في أن يبدو القمر أغلب الوقت بنفس حجمه دون تغيير في السماء كما هو الحال مع الشمس، مما يسمح له (القمر) بأن يغطي الشمس بصورةٍ شبه تامةٍ في ظاهرة الكسوف الكلي للشمس. كم المسافة المدارية للقمر؟
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 10
  • per_device_eval_batch_size: 10
  • learning_rate: 2e-05
  • weight_decay: 0.01
  • num_train_epochs: 30
  • warmup_ratio: 0.1
  • fp16: True
  • load_best_model_at_end: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 10
  • per_device_eval_batch_size: 10
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.01
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 30
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss loss
0.3333 50 1.1123 -
0.6667 100 0.8668 0.4901
1.0 150 0.2325 -
1.3333 200 0.7716 0.4220
1.6667 250 0.6343 -
2.0 300 0.1111 0.4935
2.3333 350 0.5677 -
2.6667 400 0.4588 0.4456
3.0 450 0.0711 -
3.3333 500 0.3811 0.4628
3.6667 550 0.3077 -
4.0 600 0.0332 0.5094
4.3333 650 0.2041 -
4.6667 700 0.2032 0.5058
5.0 750 0.0147 -
5.3333 800 0.1282 0.5928
5.6667 850 0.1462 -
6.0 900 0.0072 0.5126
6.3333 950 0.1108 -
6.6667 1000 0.0826 0.5600
7.0 1050 0.0047 -
7.3333 1100 0.0736 0.5639
7.6667 1150 0.0705 -
8.0 1200 0.0049 0.5298
8.3333 1250 0.0467 -
8.6667 1300 0.0471 0.5729
9.0 1350 0.0026 -
9.3333 1400 0.0286 0.5728
9.6667 1450 0.0233 -
10.0 1500 0.0026 0.5323
10.3333 1550 0.0187 -
10.6667 1600 0.0257 0.6122
11.0 1650 0.0021 -
11.3333 1700 0.0134 0.6243
11.6667 1750 0.017 -
12.0 1800 0.0017 0.5424
12.3333 1850 0.0086 -
12.6667 1900 0.0099 0.6278
13.0 1950 0.0015 -
13.3333 2000 0.0047 0.5956
13.6667 2050 0.0059 -
14.0 2100 0.0013 0.5540
0.4167 50 0.0679 -
0.8333 100 0.0287 0.6804
0.3333 50 0.0022 -
0.6667 100 0.0052 0.6104
1.0 150 0.001 -
1.3333 200 0.0027 0.6163
1.6667 250 0.0022 -
2.0 300 0.0007 0.5714
2.3333 350 0.003 -
2.6667 400 0.0031 0.5855
3.0 450 0.0006 -
3.3333 500 0.0024 0.5832
3.6667 550 0.0113 -
4.0 600 0.0008 0.6035
0.3333 50 0.002 -
0.6667 100 0.0054 0.6003
1.0 150 0.0005 -
1.3333 200 0.0007 0.6455
1.6667 250 0.0006 -
2.0 300 0.0003 0.5867
2.3333 350 0.0021 -
2.6667 400 0.0022 0.5723
3.0 450 0.0011 -
3.3333 500 0.0136 0.6295
3.6667 550 0.007 -
4.0 600 0.001 0.6163
4.3333 650 0.0089 -
4.6667 700 0.0058 0.6816
5.0 750 0.0013 -
5.3333 800 0.0023 0.6337
5.6667 850 0.0014 -
6.0 900 0.0006 0.5974
6.3333 950 0.001 -
6.6667 1000 0.0009 0.6871
7.0 1050 0.0004 -
7.3333 1100 0.0005 0.6807
7.6667 1150 0.0007 -
8.0 1200 0.0004 0.6377
8.3333 1250 0.0003 -
8.6667 1300 0.0005 0.6099
9.0 1350 0.0002 -
9.3333 1400 0.0004 0.6636
9.6667 1450 0.0004 -
10.0 1500 0.0003 0.6657
10.3333 1550 0.0003 -
10.6667 1600 0.0003 0.6837
11.0 1650 0.0002 -
11.3333 1700 0.0002 0.6655
11.6667 1750 0.0002 -
12.0 1800 0.0002 0.6687
12.3333 1850 0.0002 -
12.6667 1900 0.0002 0.6852
13.0 1950 0.0002 -
13.3333 2000 0.0002 0.6802
13.6667 2050 0.0002 -
14.0 2100 0.0002 0.6837
14.3333 2150 0.0002 -
14.6667 2200 0.0003 0.7097
15.0 2250 0.0002 -
15.3333 2300 0.0002 0.6871
15.6667 2350 0.0003 -
16.0 2400 0.0002 0.6774
16.3333 2450 0.0002 -
16.6667 2500 0.0002 0.6864
17.0 2550 0.0001 -
17.3333 2600 0.0002 0.6970
17.6667 2650 0.0002 -
18.0 2700 0.0001 0.6883
18.3333 2750 0.0002 -
18.6667 2800 0.0002 0.7124
19.0 2850 0.0001 -
19.3333 2900 0.0002 0.7006
19.6667 2950 0.0002 -
20.0 3000 0.0001 0.6969
20.3333 3050 0.0001 -
20.6667 3100 0.0001 0.7102
21.0 3150 0.0001 -
21.3333 3200 0.0001 0.6979
21.6667 3250 0.0001 -
22.0 3300 0.0001 0.7192
22.3333 3350 0.0001 -
22.6667 3400 0.0001 0.7169
23.0 3450 0.0001 -
23.3333 3500 0.0001 0.7235
0.6667 50 0.03 -
1.3333 100 0.027 0.8348
0.1672 50 0.0001 -
0.3344 100 0.0001 0.4700
0.5017 150 0.0001 -
0.6689 200 0.0001 0.4949
0.8361 250 0.0 -
1.0033 300 0.0001 0.4648
0.1672 50 0.0001 -
0.3344 100 0.0 0.4727
0.5017 150 0.0 -
0.6689 200 0.0 0.4947
0.8361 250 0.0 -
1.0033 300 0.0 0.4778
0.4167 50 0.0301 -
0.8333 100 0.0084 0.8593
1.25 150 0.0216 -
1.6667 200 0.0175 0.8385
2.0833 250 0.0043 -
2.5 300 0.0141 0.8201
2.9167 350 0.004 -
3.3333 400 0.0049 0.8553
3.75 450 0.0036 -
4.1667 500 0.0042 0.8287
4.5833 550 0.003 -
5.0 600 0.0011 0.8337
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.0.1
  • Transformers: 4.42.4
  • PyTorch: 2.3.1+cu121
  • Accelerate: 0.27.0
  • Datasets: 2.21.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply}, 
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}