Edit model card

SentenceTransformer based on BAAI/bge-base-en-v1.5

This is a sentence-transformers model finetuned from BAAI/bge-base-en-v1.5. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BAAI/bge-base-en-v1.5
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("AhmedBadawy11/bge-base-ar-v1.5-finetuned")
# Run inference
sentences = [
    'محلياً، ليفربول هو ثاني أكثر الأندية الإنجليزية فوزاً بلقب الدوري بـ18 بطولة متأخراً عن مانشستر يونايتد ببطولتين الذي فاز بلقب بالدوري 20 مرة. أيضاً حصل ليفربول على بطولة دوري لانكشاير وحيدة في عام 1892، وفاز بلقب الدوري الدرجة الثانية 4 مرات. أما على مستوى الكؤوس فقد حصد الفريق على 15 لقباً في كأس الدرع الخيرية، و 7 ألقاب في كأس الإتحاد الإنجليزي، و 8 ألقاب في كأس الرابطة الإنجليزية. ليصبح بذلك مجموع بطولاته المحلية حوالي 54 لقباً. بعد تأسيس النادي ليفربول في عام 1892، شارك في دوري كرة القدم في السنة التي تلتها. وتعتبر الفترة الأكثر نجاحاً لليفربول كانت في السبعينات و الثمانينات، عندما قاد بيل شانكلي وبوب بيزلي النادي لتحقيق أحد عشر لقب دوري و سبع كؤوس أوربية. ليفربول لديه منافسات طويلة مع جاره إيفرتون ومانشستر يونايتد. يلعب الفريق بالملابس الحمراء منذ عام 1964 عندما غير بيل شانكلي ملابس الفريق من القميص الأحمر و السروال الأبيض إلى اللون الأحمر. نشيد النادي هو "لن تسير لوحدك أبدا" والتي يقوم الجمهور بغنائها قبل بداية كل مباراة على أرضه. يلعب النادي في ملعبه الأنفيلد منذ تأسيسه.',
    'في كم من بطولة  فاز نادي ليفيربول بلقب الدوري؟',
    'متى فاز المنتخب الايطالى بالبطولة مرتين متتاليتين؟',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 1,193 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 129 tokens
    • mean: 367.5 tokens
    • max: 512 tokens
    • min: 8 tokens
    • mean: 29.93 tokens
    • max: 73 tokens
  • Samples:
    positive anchor
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - من هو جمال أحمد حمزة خاشقجي؟
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - متى ولد جمال أحمد حمزة خاشقجي وتوفي؟ ال
    جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. - في أي مدينة ولد جمال أحمد حمزة خاشقجي؟ ال
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 202 evaluation samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 156 tokens
    • mean: 386.96 tokens
    • max: 512 tokens
    • min: 8 tokens
    • mean: 29.01 tokens
    • max: 63 tokens
  • Samples:
    positive anchor
    حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد، وعمُّه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر، وهو خير أعمامه لقوله: «خَيْرُ إِخْوَتِي عَلِيٌّ، وَخَيْرُ أَعْمَامِي حَمْزَةُ رَضِيَ اللَّهُ عَنْهُمَا». بما وصفه رسول الله؟
    أسلم حمزة في السنة الثانية من بعثة النبي محمد، فلمَّا أسلم علمت قريش أن الرسولَ محمداً قد عز وامتنع وأن حمزة سيمنعه، فكفّوا عن بعض ما كانوا ينالون منه. ثم هاجر حمزة إلى المدينة المنورة، فآخى الرسولُ بينه وبين زيد بن حارثة. وكان أولُ لواء عقده الرسولُ محمدٌ هو اللواءَ الذي عقده لحمزة، وشهد حمزةُ غزوة بدر، وقَتَلَ فيها شيبة بن ربيعة مبارزةً، وقتل غيرَه كثيراً من المشركين، كما شهد غزوة أحد، فقُتل بها سنة 3هـ، وكان قد قَتَلَ من المشركين قبل أن يُقتل واحداً وثلاثين نفساً، وكان الذي قتله هو وحشي بن حرب الحبشي غلامُ جبير بن مطعم، ومثَّل به المشركون، وبقرت هند بنت عتبة بطنَه فأخرجت كبده، فجعلت تلوكها فلم تسغها فلفظتها، فقال الرسولُ محمدٌ: ، وخرج الرسولُ يلتمس حمزة، فوجده ببطن الوادي قد مُثِّل به، فلم ير منظراً كان أوجع لقلبه منه فقال: . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد. و ماذا فعل فى غزوة بدر؟
    القمر هو القمر الطبيعي الوَحيد للأرض بالإضافة إلى أنه خامس أكبر قمرٍ طبيعيٍ في المجموعة الشمسية. فهو يُعَدُ أكبر قمرٍ طبيعيٍ في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له، حيث أن قطره يصل إلى ربع قطر الأرض، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض، هذا بالإضافة إلى أنه يُعَدُ ثاني أعلى قمرٍ من ناحية الكثافة بعد قمر إيو. هذا ويتسم القمر الأرضي حركته التزامنية مع كوكبه (الأرض)، عارضاً دائماً الوجه نفسه؛ حيث يتميز الجانب القريب بمنطقةٍ بركانيةٍ منخفضةٍ مظلمةٍ، والتي تقع فيما بين مرتفعات القشرة الأرضية القديمة البراقة والفوهات الصدمية الشاهقة. كما يُلاحظ أن القمر الأرضي هو أكثر جسمٍ لامعٍ في السماء ليلاً، وعموماً هو الجسم الأكثر لمعاناً بعد الشمس، وهذا على الرغم من أن سطحه معتم جداً، حيث أن له انعكاساً مماثلاً للفحم. كان بروز القمر في السماء المظلمة ليلاً، ودورته المنتظمة الأطوار (المراحل) قد جعل له على مر العصور القديمة تأثيراً ثقافياً هاماً على كلٍ من اللغة، التقويم القمري، ، والأساطير القديمة، المتمثلة في آلهة القمر والتي منها عبر الحضارات: "خونسو" في الديانة المصرية القديمة، "تشانغ" في الحضارة الصينية وكذلك "ماما قيلا" في حضارة الإنكا. ومن السمات الكامنة للقمر كذلك، تأثير جاذبيته التي تسفر عن وقوع عمليتي مد وجزر المحيطات وإطالة الدقيقة (نتيجة تسارع المد والجزر) لليوم. مع ملاحظة أن المسافة المدارية الحالية للقمر، والتي تُقَدَرُ بثلاثين مرةٍ قدر قطر الكرة الأرضية، تتسبب في أن يبدو القمر أغلب الوقت بنفس حجمه دون تغيير في السماء كما هو الحال مع الشمس، مما يسمح له (القمر) بأن يغطي الشمس بصورةٍ شبه تامةٍ في ظاهرة الكسوف الكلي للشمس. كم المسافة المدارية للقمر؟
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • learning_rate: 2e-05
  • weight_decay: 0.01
  • num_train_epochs: 30
  • warmup_ratio: 0.1
  • fp16: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 8
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.01
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 30
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss loss
0.7143 50 1.8594 -
1.4 100 1.4656 1.4937
2.0857 150 1.341 -
2.8 200 1.1444 1.5586
3.4857 250 0.9108 -
4.1714 300 0.8002 1.8091
4.8857 350 0.7166 -
5.5714 400 0.5053 1.9486
6.2571 450 0.5315 -
6.9714 500 0.4235 1.8879
7.6571 550 0.3278 -
8.3429 600 0.2581 1.9823
9.0286 650 0.2086 -
9.7429 700 0.1924 2.2867
10.4286 750 0.1868 -
11.1143 800 0.1407 2.3309
11.8286 850 0.0886 -
12.5143 900 0.0818 2.4801
13.2 950 0.0592 -
13.9143 1000 0.0436 2.4795
14.6 1050 0.033 -
15.2857 1100 0.0402 2.3954
16.0 1150 0.0173 -
16.6857 1200 0.0129 2.5721
17.3714 1250 0.0092 -
18.0571 1300 0.0062 2.7104
18.7714 1350 0.004 -
19.4571 1400 0.0048 2.6302
20.1429 1450 0.0024 -
20.8571 1500 0.0022 2.7479
21.5429 1550 0.0026 -
22.2286 1600 0.002 2.7710
22.9429 1650 0.0012 -
23.6286 1700 0.0025 2.8215
24.3143 1750 0.0013 -
25.0286 1800 0.0012 2.8204
25.7143 1850 0.001 -
26.4 1900 0.0008 2.7807
27.0857 1950 0.0008 -
27.8 2000 0.0007 2.7852
28.4857 2050 0.0008 -
29.1714 2100 0.0006 2.7865
1.1136 50 0.0836 -
2.2273 100 0.0707 3.0166
3.3409 150 0.0475 -
4.4545 200 0.0445 2.9946
5.5682 250 0.0356 -
6.6818 300 0.0152 3.0658
7.7955 350 0.0119 -
0.5747 50 0.0086 -
1.1494 100 0.004 2.5749
1.7241 150 0.0019 -
2.2989 200 0.0011 2.5823
2.8736 250 0.0014 -
3.4483 300 0.001 2.5131
4.0230 350 0.0009 -
4.5977 400 0.0006 2.6015
5.1724 450 0.0008 -
5.7471 500 0.0005 2.6230
6.3218 550 0.0049 -
6.8966 600 0.0004 2.7468
7.4713 650 0.0004 -
8.0460 700 0.0004 2.8550
8.6207 750 0.0004 -
9.1954 800 0.0003 2.7715
9.7701 850 0.0002 -
10.3448 900 0.0002 2.7766
10.9195 950 0.0002 -
11.4943 1000 0.0002 2.7591
12.0690 1050 0.0002 -
12.6437 1100 0.0001 2.8042
13.2184 1150 0.0002 -
13.7931 1200 0.0001 2.7808
14.3678 1250 0.0002 -
14.9425 1300 0.0001 2.8014
15.5172 1350 0.0001 -
16.0920 1400 0.0001 2.8210
16.6667 1450 0.0001 -
0.3333 50 0.0001 -
0.6667 100 0.5517 2.7122
1.0 150 1.6965 -
1.3333 200 0.001 2.0810
1.6667 250 0.2513 -
2.0 300 0.9902 1.6166
2.3333 350 0.0014 -
2.6667 400 0.115 1.9114
3.0 450 0.4511 -
3.3333 500 0.002 1.8573
3.6667 550 0.0431 -
4.0 600 0.1999 1.6124
4.3333 650 0.0019 -
4.6667 700 0.0497 1.8718
5.0 750 0.1246 -
5.3333 800 0.0017 1.8478
5.6667 850 0.0109 -
6.0 900 0.0483 1.7342
6.3333 950 0.0024 -
6.6667 1000 0.0086 1.8704
7.0 1050 0.0384 -
7.3333 1100 0.0011 1.8326
7.6667 1150 0.0036 -
8.0 1200 0.024 1.8500
8.3333 1250 0.0009 -
8.6667 1300 0.0055 1.8877
9.0 1350 0.0085 -
9.3333 1400 0.0007 1.9404
9.6667 1450 0.0024 -
10.0 1500 0.0041 1.9150
10.3333 1550 0.0006 -
10.6667 1600 0.0013 1.8994
11.0 1650 0.0033 -
11.3333 1700 0.0004 1.8311
11.6667 1750 0.0014 -
12.0 1800 0.0021 1.9934
12.3333 1850 0.0003 -
12.6667 1900 0.0009 2.0044
13.0 1950 0.0015 -
13.3333 2000 0.0004 1.8513
13.6667 2050 0.0006 -
14.0 2100 0.001 1.9651
14.3333 2150 0.0003 -
14.6667 2200 0.0006 1.9487
15.0 2250 0.0007 -
15.3333 2300 0.0003 1.9379
15.6667 2350 0.0004 -
16.0 2400 0.0009 1.8542
16.3333 2450 0.0002 -
16.6667 2500 0.0022 1.8877
17.0 2550 0.0009 -
17.3333 2600 0.0003 1.9211
17.6667 2650 0.0005 -
18.0 2700 0.0005 1.9077
18.3333 2750 0.0002 -
18.6667 2800 0.0004 1.8729
19.0 2850 0.0006 -
19.3333 2900 0.0002 1.9024
19.6667 2950 0.0003 -
20.0 3000 0.0005 1.9126
20.3333 3050 0.0002 -
20.6667 3100 0.0003 1.8753
21.0 3150 0.0004 -
21.3333 3200 0.0002 1.8870
21.6667 3250 0.0003 -
22.0 3300 0.0005 1.9221
22.3333 3350 0.0002 -
22.6667 3400 0.0002 1.9221
23.0 3450 0.0004 -
23.3333 3500 0.0001 1.9080
23.6667 3550 0.0002 -
24.0 3600 0.0003 1.9192
24.3333 3650 0.0001 -
24.6667 3700 0.0002 1.9218
25.0 3750 0.0003 -
25.3333 3800 0.0001 1.9277
25.6667 3850 0.0002 -
26.0 3900 0.0003 1.9338
26.3333 3950 0.0001 -
26.6667 4000 0.0002 1.9307
27.0 4050 0.0003 -
27.3333 4100 0.0001 1.9302
27.6667 4150 0.0002 -
28.0 4200 0.0002 1.9271
28.3333 4250 0.0002 -
28.6667 4300 0.0002 1.9231
29.0 4350 0.0003 -
29.3333 4400 0.0002 1.9279
29.6667 4450 0.0002 -
30.0 4500 0.0003 1.9273

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.0.1
  • Transformers: 4.42.4
  • PyTorch: 2.3.1+cu121
  • Accelerate: 0.27.0
  • Datasets: 2.21.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply}, 
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
4
Safetensors
Model size
109M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for AhmedBadawy11/bge-base-ar-v1.5-finetuned

Finetuned
(253)
this model