SentenceTransformer based on intfloat/multilingual-e5-large
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-large
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("dankalin/multilingual-e5-large-hack")
# Run inference
sentences = [
'Какое значение апертуры миграции было использовано?',
'Миграция выполнялась с использованием программы TIKIM до суммирования во временной области по классам удалений. Апертура миграции составила 3000 м',
'коэффициентов взаимной корреляции позволяют использовать полученные зависимости для построения карт ФЕС (в частности – карт значений эффективных толщин ) (Граф',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Triplet
- Dataset:
e5_triplet_eval
- Evaluated with
TripletEvaluator
Metric | Value |
---|---|
cosine_accuracy | 0.9643 |
dot_accuracy | 0.0357 |
manhattan_accuracy | 0.9643 |
euclidean_accuracy | 0.9643 |
max_accuracy | 0.9643 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 4,926 training samples
- Columns:
anchor
,positive
, andnegative
- Approximate statistics based on the first 1000 samples:
anchor positive negative type string string string details - min: 9 tokens
- mean: 20.24 tokens
- max: 41 tokens
- min: 21 tokens
- mean: 129.99 tokens
- max: 512 tokens
- min: 2 tokens
- mean: 93.1 tokens
- max: 512 tokens
- Samples:
anchor positive negative Какова оценка точности (стандартные отклонения) структурных построений для отражающего горизонта А?
В таблице 3.5 представлены данные выполненных расч тов. Таблица 3.5. Оценка точности структурных построений ОГ Vпл/ м/с Т/ с Т/ с Vпл/ м/с Н/ м ТЮ2 Т3 (ЮВ10) А 3350 3400 3400 0.005 0.010 0.020 0
Точность структурных построений Горизонт НБВ7 НБВ4 НБВ3 М max, м 17 15 19 9 min, м 0 0 0 0 max, м min, м 18 7 10 8 1 0 0 0 , м 8 8 8 4 4 Структурные карты (схемы) по всем отражающим горизонтам
Какова точность структурных построений для отражающего горизонта Б?
2 Точность структурных построений ОГ АП5 ОГ БП9 1 ОГ БП10 0 Абсолютная отметка, м поправка, м Абсолютная отметка, м поправка, м Абсолютная отметка, м поправка, м 6.51 10.51 9.65 ОГ Б поправка , м (миним. вариант) -11.93 поправка , м (максим. вариант) 11.01 Абсолютна я отметка, м 3227.584 1 ОГ Ю1 поправка , м (миним. вариант) 1.116 поправка , м (максим. вариант) 15.971 Абсолютна я отметка, м 3282.26 2 ОГ Ю1 поправка , м (миним. вариант) 1.53 поправка , м (максим. вариант) -0.813 14.51 16.63 6.03 15.51 3.38 1.64 172 4
Отражающий горизонт Г является реперным горизонтом и коррелируется без затруднений по всему Валынтойскому кубу сейсморазведки 3D
В скольки скважинах есть данных акустического каротажа?
Комплекс ГИС, выполненный в скважинах 93Р и 309ПО Скв
Проведены сейсморазведочные работы 3Д на Валынтойской площади в объ ме 300 квадратных километров. Полевые работы ВСП в скважине 309ПО Валынтойской площади
- Loss:
TripletLoss
with these parameters:{ "distance_metric": "TripletDistanceMetric.EUCLIDEAN", "triplet_margin": 5 }
Evaluation Dataset
Unnamed Dataset
- Size: 1,232 evaluation samples
- Columns:
anchor
,positive
, andnegative
- Approximate statistics based on the first 1000 samples:
anchor positive negative type string string string details - min: 9 tokens
- mean: 20.38 tokens
- max: 41 tokens
- min: 21 tokens
- mean: 132.2 tokens
- max: 512 tokens
- min: 2 tokens
- mean: 86.95 tokens
- max: 512 tokens
- Samples:
anchor positive negative Какова оценка точности (стандартные отклонения) структурных построений для отражающего горизонта А?
В таблице 3.5 представлены данные выполненных расч тов. Таблица 3.5. Оценка точности структурных построений ОГ Vпл/ м/с Т/ с Т/ с Vпл/ м/с Н/ м ТЮ2 Т3 (ЮВ10) А 3350 3400 3400 0.005 0.010 0.020 0
Бирюзовой Вертикальны й 1:2 500 Структурная карта по отражающему горизонту А (подошва юрского комплекса) Карта изохрон по отражающему горизонту А Структурная карта по отражающему горизонту Т3(ЮВ10)
Какова оценка точности (стандартные отклонения) структурных построений для отражающего горизонта ТЮ2?
В таблице 3.5 представлены данные выполненных расч тов. Таблица 3.5. Оценка точности структурных построений ОГ Vпл/ м/с Т/ с Т/ с Vпл/ м/с Н/ м ТЮ2 Т3 (ЮВ10) А 3350 3400 3400 0.005 0.010 0.020 0
Построение и анализ карт средних толщин между полученными и интервальных также карт точности структурных структурными поверхностями
Сколько скважин было выбрано для обоснования выделения коллекторов?
После анализа каротажных данных для обоснования выделения коллекторов были отобраны 15 скважин Критериями их отбора послужило наличие в комплексе ГИС акустического каротажа по продольным волнам
После анализа каротажных данных для обоснования выделения коллекторов были отобраны 15 скважин Критериями их отбора послужило наличие в комплексе ГИС акустического каротажа по продольным волнам хорошего и удовлетворительного качества, а также близкое расположение скважин к сейсмическим профилям. Кроме того, в статистической обработке принимали участие ещ две скважины: 115 и 122, поскольку в них записан акустический каротаж по поперечной волне
- Loss:
TripletLoss
with these parameters:{ "distance_metric": "TripletDistanceMetric.EUCLIDEAN", "triplet_margin": 5 }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 2per_device_eval_batch_size
: 2gradient_accumulation_steps
: 64learning_rate
: 2e-05warmup_ratio
: 0.1bf16
: Truebatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 2per_device_eval_batch_size
: 2per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 64eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 3max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Truefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 1ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Truedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseeval_use_gather_object
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | loss | e5_triplet_eval_max_accuracy |
---|---|---|---|---|
0 | 0 | - | - | 0.8166 |
0.0520 | 1 | 4.9631 | - | - |
0.1040 | 2 | 4.96 | - | - |
0.1560 | 3 | 4.9406 | 4.9202 | 0.8799 |
0.2080 | 4 | 4.9321 | - | - |
0.2600 | 5 | 4.9293 | - | - |
0.3119 | 6 | 4.91 | 4.8456 | 0.9237 |
0.3639 | 7 | 4.8801 | - | - |
0.4159 | 8 | 4.8692 | - | - |
0.4679 | 9 | 4.838 | 4.7461 | 0.9432 |
0.5199 | 10 | 4.8053 | - | - |
0.5719 | 11 | 4.7793 | - | - |
0.6239 | 12 | 4.7584 | 4.6476 | 0.9489 |
0.6759 | 13 | 4.6925 | - | - |
0.7279 | 14 | 4.6888 | - | - |
0.7799 | 15 | 4.6673 | 4.5346 | 0.9554 |
0.8318 | 16 | 4.626 | - | - |
0.8838 | 17 | 4.6053 | - | - |
0.9358 | 18 | 4.5582 | 4.4151 | 0.9570 |
0.9878 | 19 | 4.5486 | - | - |
1.0398 | 20 | 4.4967 | - | - |
1.0918 | 21 | 4.4503 | 4.2993 | 0.9667 |
1.1438 | 22 | 4.3997 | - | - |
1.1958 | 23 | 4.326 | - | - |
1.2478 | 24 | 4.3163 | 4.1739 | 0.9643 |
1.2998 | 25 | 4.2882 | - | - |
1.3517 | 26 | 4.1748 | - | - |
1.4037 | 27 | 4.1791 | 4.0528 | 0.9594 |
1.4557 | 28 | 4.1503 | - | - |
1.5077 | 29 | 4.1213 | - | - |
1.5597 | 30 | 4.049 | 3.9291 | 0.9586 |
1.6117 | 31 | 4.0259 | - | - |
1.6637 | 32 | 3.9762 | - | - |
1.7157 | 33 | 3.9038 | 3.8741 | 0.9651 |
1.7677 | 34 | 3.9605 | - | - |
1.8197 | 35 | 3.9297 | - | - |
1.8716 | 36 | 3.8387 | 3.7686 | 0.9619 |
1.9236 | 37 | 3.871 | - | - |
1.9756 | 38 | 3.8464 | - | - |
2.0276 | 39 | 3.7463 | 3.7241 | 0.9643 |
2.0796 | 40 | 3.8166 | - | - |
2.1316 | 41 | 3.801 | - | - |
2.1836 | 42 | 3.6812 | 3.6745 | 0.9610 |
2.2356 | 43 | 3.6979 | - | - |
2.2876 | 44 | 3.7102 | - | - |
2.3396 | 45 | 3.648 | 3.6470 | 0.9635 |
2.3916 | 46 | 3.6465 | - | - |
2.4435 | 47 | 3.6907 | - | - |
2.4955 | 48 | 3.6242 | 3.5768 | 0.9635 |
2.5475 | 49 | 3.6351 | - | - |
2.5995 | 50 | 3.659 | - | - |
2.6515 | 51 | 3.6246 | 3.5535 | 0.9643 |
2.7035 | 52 | 3.5615 | - | - |
2.7555 | 53 | 3.5733 | - | - |
2.8075 | 54 | 3.577 | 3.5572 | 0.9667 |
2.8595 | 55 | 3.5187 | - | - |
2.9115 | 56 | 3.6122 | - | - |
2.9634 | 57 | 3.5786 | 3.5517 | 0.9643 |
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.0.1
- Transformers: 4.43.3
- PyTorch: 2.4.0+cu121
- Accelerate: 0.33.0
- Datasets: 2.20.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
TripletLoss
@misc{hermans2017defense,
title={In Defense of the Triplet Loss for Person Re-Identification},
author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
year={2017},
eprint={1703.07737},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
- Downloads last month
- 2
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for dankalin/multilingual-e5-large-hack
Base model
intfloat/multilingual-e5-largeEvaluation results
- Cosine Accuracy on e5 triplet evalself-reported0.964
- Dot Accuracy on e5 triplet evalself-reported0.036
- Manhattan Accuracy on e5 triplet evalself-reported0.964
- Euclidean Accuracy on e5 triplet evalself-reported0.964
- Max Accuracy on e5 triplet evalself-reported0.964