Edit model card

SentenceTransformer based on intfloat/multilingual-e5-small

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-small. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-small
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 384 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("AhmedBadawy11/multilingual-e5-small-finetuned-ar")
# Run inference
sentences = [
    'إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي، كما تشمل أيضًا أكثر من 100 جزيرة صغيرة، مثل جزر سيلي وجزيرة وايت.',
    'ما الامثلة لجزر انجلترا؟',
    'ماهي طبيعية النظام السياسي في النمسا؟',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 1,193 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 51 tokens
    • mean: 173.61 tokens
    • max: 512 tokens
    • min: 5 tokens
    • mean: 12.68 tokens
    • max: 28 tokens
  • Samples:
    positive anchor
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - من هو جمال أحمد حمزة خاشقجي؟
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - متى ولد جمال أحمد حمزة خاشقجي وتوفي؟ ال
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - في أي مدينة ولد جمال أحمد حمزة خاشقجي؟ ال
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 202 evaluation samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 62 tokens
    • mean: 178.02 tokens
    • max: 512 tokens
    • min: 6 tokens
    • mean: 12.32 tokens
    • max: 25 tokens
  • Samples:
    positive anchor
    حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد، وعمُّه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر، وهو خير أعمامه لقوله: «خَيْرُ إِخْوَتِي عَلِيٌّ، وَخَيْرُ أَعْمَامِي حَمْزَةُ رَضِيَ اللَّهُ عَنْهُمَا». بما وصفه رسول الله؟
    أسلم حمزة في السنة الثانية من بعثة النبي محمد، فلمَّا أسلم علمت قريش أن الرسولَ محمداً قد عز وامتنع وأن حمزة سيمنعه، فكفّوا عن بعض ما كانوا ينالون منه. ثم هاجر حمزة إلى المدينة المنورة، فآخى الرسولُ بينه وبين زيد بن حارثة. وكان أولُ لواء عقده الرسولُ محمدٌ هو اللواءَ الذي عقده لحمزة، وشهد حمزةُ غزوة بدر، وقَتَلَ فيها شيبة بن ربيعة مبارزةً، وقتل غيرَه كثيراً من المشركين، كما شهد غزوة أحد، فقُتل بها سنة 3هـ، وكان قد قَتَلَ من المشركين قبل أن يُقتل واحداً وثلاثين نفساً، وكان الذي قتله هو وحشي بن حرب الحبشي غلامُ جبير بن مطعم، ومثَّل به المشركون، وبقرت هند بنت عتبة بطنَه فأخرجت كبده، فجعلت تلوكها فلم تسغها فلفظتها، فقال الرسولُ محمدٌ: ، وخرج الرسولُ يلتمس حمزة، فوجده ببطن الوادي قد مُثِّل به، فلم ير منظراً كان أوجع لقلبه منه فقال: . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد. و ماذا فعل فى غزوة بدر؟
    القمر هو القمر الطبيعي الوَحيد للأرض بالإضافة إلى أنه خامس أكبر قمرٍ طبيعيٍ في المجموعة الشمسية. فهو يُعَدُ أكبر قمرٍ طبيعيٍ في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له، حيث أن قطره يصل إلى ربع قطر الأرض، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض، هذا بالإضافة إلى أنه يُعَدُ ثاني أعلى قمرٍ من ناحية الكثافة بعد قمر إيو. هذا ويتسم القمر الأرضي حركته التزامنية مع كوكبه (الأرض)، عارضاً دائماً الوجه نفسه؛ حيث يتميز الجانب القريب بمنطقةٍ بركانيةٍ منخفضةٍ مظلمةٍ، والتي تقع فيما بين مرتفعات القشرة الأرضية القديمة البراقة والفوهات الصدمية الشاهقة. كما يُلاحظ أن القمر الأرضي هو أكثر جسمٍ لامعٍ في السماء ليلاً، وعموماً هو الجسم الأكثر لمعاناً بعد الشمس، وهذا على الرغم من أن سطحه معتم جداً، حيث أن له انعكاساً مماثلاً للفحم. كان بروز القمر في السماء المظلمة ليلاً، ودورته المنتظمة الأطوار (المراحل) قد جعل له على مر العصور القديمة تأثيراً ثقافياً هاماً على كلٍ من اللغة، التقويم القمري، ، والأساطير القديمة، المتمثلة في آلهة القمر والتي منها عبر الحضارات: "خونسو" في الديانة المصرية القديمة، "تشانغ" في الحضارة الصينية وكذلك "ماما قيلا" في حضارة الإنكا. ومن السمات الكامنة للقمر كذلك، تأثير جاذبيته التي تسفر عن وقوع عمليتي مد وجزر المحيطات وإطالة الدقيقة (نتيجة تسارع المد والجزر) لليوم. مع ملاحظة أن المسافة المدارية الحالية للقمر، والتي تُقَدَرُ بثلاثين مرةٍ قدر قطر الكرة الأرضية، تتسبب في أن يبدو القمر أغلب الوقت بنفس حجمه دون تغيير في السماء كما هو الحال مع الشمس، مما يسمح له (القمر) بأن يغطي الشمس بصورةٍ شبه تامةٍ في ظاهرة الكسوف الكلي للشمس. كم المسافة المدارية للقمر؟
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 10
  • per_device_eval_batch_size: 10
  • learning_rate: 2e-05
  • weight_decay: 0.01
  • num_train_epochs: 30
  • warmup_ratio: 0.1
  • fp16: True
  • load_best_model_at_end: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 10
  • per_device_eval_batch_size: 10
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.01
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 30
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss loss
0.3333 50 1.1123 -
0.6667 100 0.8668 0.4901
1.0 150 0.2325 -
1.3333 200 0.7716 0.4220
1.6667 250 0.6343 -
2.0 300 0.1111 0.4935
2.3333 350 0.5677 -
2.6667 400 0.4588 0.4456
3.0 450 0.0711 -
3.3333 500 0.3811 0.4628
3.6667 550 0.3077 -
4.0 600 0.0332 0.5094
4.3333 650 0.2041 -
4.6667 700 0.2032 0.5058
5.0 750 0.0147 -
5.3333 800 0.1282 0.5928
5.6667 850 0.1462 -
6.0 900 0.0072 0.5126
6.3333 950 0.1108 -
6.6667 1000 0.0826 0.5600
7.0 1050 0.0047 -
7.3333 1100 0.0736 0.5639
7.6667 1150 0.0705 -
8.0 1200 0.0049 0.5298
8.3333 1250 0.0467 -
8.6667 1300 0.0471 0.5729
9.0 1350 0.0026 -
9.3333 1400 0.0286 0.5728
9.6667 1450 0.0233 -
10.0 1500 0.0026 0.5323
10.3333 1550 0.0187 -
10.6667 1600 0.0257 0.6122
11.0 1650 0.0021 -
11.3333 1700 0.0134 0.6243
11.6667 1750 0.017 -
12.0 1800 0.0017 0.5424
12.3333 1850 0.0086 -
12.6667 1900 0.0099 0.6278
13.0 1950 0.0015 -
13.3333 2000 0.0047 0.5956
13.6667 2050 0.0059 -
14.0 2100 0.0013 0.5540
0.4167 50 0.0679 -
0.8333 100 0.0287 0.6804
0.3333 50 0.0022 -
0.6667 100 0.0052 0.6104
1.0 150 0.001 -
1.3333 200 0.0027 0.6163
1.6667 250 0.0022 -
2.0 300 0.0007 0.5714
2.3333 350 0.003 -
2.6667 400 0.0031 0.5855
3.0 450 0.0006 -
3.3333 500 0.0024 0.5832
3.6667 550 0.0113 -
4.0 600 0.0008 0.6035
0.3333 50 0.002 -
0.6667 100 0.0054 0.6003
1.0 150 0.0005 -
1.3333 200 0.0007 0.6455
1.6667 250 0.0006 -
2.0 300 0.0003 0.5867
2.3333 350 0.0021 -
2.6667 400 0.0022 0.5723
3.0 450 0.0011 -
3.3333 500 0.0136 0.6295
3.6667 550 0.007 -
4.0 600 0.001 0.6163
4.3333 650 0.0089 -
4.6667 700 0.0058 0.6816
5.0 750 0.0013 -
5.3333 800 0.0023 0.6337
5.6667 850 0.0014 -
6.0 900 0.0006 0.5974
6.3333 950 0.001 -
6.6667 1000 0.0009 0.6871
7.0 1050 0.0004 -
7.3333 1100 0.0005 0.6807
7.6667 1150 0.0007 -
8.0 1200 0.0004 0.6377
8.3333 1250 0.0003 -
8.6667 1300 0.0005 0.6099
9.0 1350 0.0002 -
9.3333 1400 0.0004 0.6636
9.6667 1450 0.0004 -
10.0 1500 0.0003 0.6657
10.3333 1550 0.0003 -
10.6667 1600 0.0003 0.6837
11.0 1650 0.0002 -
11.3333 1700 0.0002 0.6655
11.6667 1750 0.0002 -
12.0 1800 0.0002 0.6687
12.3333 1850 0.0002 -
12.6667 1900 0.0002 0.6852
13.0 1950 0.0002 -
13.3333 2000 0.0002 0.6802
13.6667 2050 0.0002 -
14.0 2100 0.0002 0.6837
14.3333 2150 0.0002 -
14.6667 2200 0.0003 0.7097
15.0 2250 0.0002 -
15.3333 2300 0.0002 0.6871
15.6667 2350 0.0003 -
16.0 2400 0.0002 0.6774
16.3333 2450 0.0002 -
16.6667 2500 0.0002 0.6864
17.0 2550 0.0001 -
17.3333 2600 0.0002 0.6970
17.6667 2650 0.0002 -
18.0 2700 0.0001 0.6883
18.3333 2750 0.0002 -
18.6667 2800 0.0002 0.7124
19.0 2850 0.0001 -
19.3333 2900 0.0002 0.7006
19.6667 2950 0.0002 -
20.0 3000 0.0001 0.6969
20.3333 3050 0.0001 -
20.6667 3100 0.0001 0.7102
21.0 3150 0.0001 -
21.3333 3200 0.0001 0.6979
21.6667 3250 0.0001 -
22.0 3300 0.0001 0.7192
22.3333 3350 0.0001 -
22.6667 3400 0.0001 0.7169
23.0 3450 0.0001 -
23.3333 3500 0.0001 0.7235
0.6667 50 0.03 -
1.3333 100 0.027 0.8348
0.1672 50 0.0001 -
0.3344 100 0.0001 0.4700
0.5017 150 0.0001 -
0.6689 200 0.0001 0.4949
0.8361 250 0.0 -
1.0033 300 0.0001 0.4648
0.1672 50 0.0001 -
0.3344 100 0.0 0.4727
0.5017 150 0.0 -
0.6689 200 0.0 0.4947
0.8361 250 0.0 -
1.0033 300 0.0 0.4778
0.4167 50 0.0301 -
0.8333 100 0.0084 0.8593
1.25 150 0.0216 -
1.6667 200 0.0175 0.8385
2.0833 250 0.0043 -
2.5 300 0.0141 0.8201
2.9167 350 0.004 -
3.3333 400 0.0049 0.8553
3.75 450 0.0036 -
4.1667 500 0.0042 0.8287
4.5833 550 0.003 -
5.0 600 0.0011 0.8337
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.0.1
  • Transformers: 4.42.4
  • PyTorch: 2.3.1+cu121
  • Accelerate: 0.27.0
  • Datasets: 2.21.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply}, 
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
6
Safetensors
Model size
118M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for AhmedBadawy11/multilingual-e5-small-finetuned-ar

Finetuned
(56)
this model