lemon-mint's picture
Add new SentenceTransformer model.
992f1f0 verified
metadata
language: []
library_name: sentence-transformers
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:499500
  - loss:MSELoss
base_model: lemon-mint/KoEn-Embed-Turbo-v0.6
datasets: []
metrics:
  - pearson_cosine
  - spearman_cosine
  - pearson_manhattan
  - spearman_manhattan
  - pearson_euclidean
  - spearman_euclidean
  - pearson_dot
  - spearman_dot
  - pearson_max
  - spearman_max
  - cosine_accuracy@1
  - cosine_accuracy@3
  - cosine_accuracy@5
  - cosine_accuracy@10
  - cosine_precision@1
  - cosine_precision@3
  - cosine_precision@5
  - cosine_precision@10
  - cosine_recall@1
  - cosine_recall@3
  - cosine_recall@5
  - cosine_recall@10
  - cosine_ndcg@10
  - cosine_mrr@10
  - cosine_map@100
  - dot_accuracy@1
  - dot_accuracy@3
  - dot_accuracy@5
  - dot_accuracy@10
  - dot_precision@1
  - dot_precision@3
  - dot_precision@5
  - dot_precision@10
  - dot_recall@1
  - dot_recall@3
  - dot_recall@5
  - dot_recall@10
  - dot_ndcg@10
  - dot_mrr@10
  - dot_map@100
widget:
  - source_sentence: 'query: 순드리 우탐찬다니의 대표적인 단편 소설은 무엇입니까?'
    sentences:
      - 'query: What works have been influenced by "Fourth World"?'
      - 'query: 학교 건물의 건축 스타일은 무엇입니까?'
      - >-
        query: Which group of people's experiences did the JERS study aim to
        document?
  - source_sentence: 'query: 비센테 게레로 시정촌의 주요 산업은 무엇입니까?'
    sentences:
      - 'query: 캐나다의 지방 선거는 어떤 주체가 관할합니까?'
      - 'query: 2024년 네브래스카주 상원 특별 선거에서 승리할 것으로 예상되는 후보는 누구입니까?'
      - 'query: 라말링게슈와라 사원 단지에 있는 사원들은 모두 같은 시대에 지어졌습니까?'
  - source_sentence: 'query: 세인트 존의 부인은 결혼 전에 어떤 직업을 가졌습니까?'
    sentences:
      - >-
        query: What led to amateur astronomy becoming an independent hobby
        activity distinct from professional astronomy?
      - 'query: HIK 학교는 어떤 시대에 설립되었나요?'
      - 'query: 호주에서 "스쿼터"가 된 사람들은 대부분 어떤 계층의 사람들이었나요?'
  - source_sentence: 'query: How many home runs did Eddie Mathews hit in 1957?'
    sentences:
      - 'query: How long did Major live in the White House?'
      - >-
        query: How many points did Lithuania receive in the Eurovision Song
        Contest semi-final in 2005?
      - 'query: Why did Loretta Tupper return to show business?'
  - source_sentence: 'query: 해롤드 데이비스는 어떤 국가의 선수였나요?'
    sentences:
      - 'query: 릴리는 어떤 스포츠를 좋아했습니까?'
      - 'query: 안토니오 데 카스트로 마이어는 1988년에 어떤 행위로 인해 논란을 일으켰습니까?'
      - 'query: When was the Herefordshire Light Infantry founded?'
pipeline_tag: sentence-similarity
model-index:
  - name: SentenceTransformer based on lemon-mint/KoEn-Embed-Turbo-v0.6
    results:
      - task:
          type: semantic-similarity
          name: Semantic Similarity
        dataset:
          name: sts dev
          type: sts-dev
        metrics:
          - type: pearson_cosine
            value: 0.7166865142404676
            name: Pearson Cosine
          - type: spearman_cosine
            value: 0.7179436638586734
            name: Spearman Cosine
          - type: pearson_manhattan
            value: 0.6562645352982684
            name: Pearson Manhattan
          - type: spearman_manhattan
            value: 0.6713564101735439
            name: Spearman Manhattan
          - type: pearson_euclidean
            value: 0.6576343568691049
            name: Pearson Euclidean
          - type: spearman_euclidean
            value: 0.6720055780017863
            name: Spearman Euclidean
          - type: pearson_dot
            value: 0.581317643897043
            name: Pearson Dot
          - type: spearman_dot
            value: 0.6227048224971706
            name: Spearman Dot
          - type: pearson_max
            value: 0.7166865142404676
            name: Pearson Max
          - type: spearman_max
            value: 0.7179436638586734
            name: Spearman Max
      - task:
          type: information-retrieval
          name: Information Retrieval
        dataset:
          name: Ko StrategyQA dev
          type: Ko-StrategyQA-dev
        metrics:
          - type: cosine_accuracy@1
            value: 0.16722972972972974
            name: Cosine Accuracy@1
          - type: cosine_accuracy@3
            value: 0.25844594594594594
            name: Cosine Accuracy@3
          - type: cosine_accuracy@5
            value: 0.30236486486486486
            name: Cosine Accuracy@5
          - type: cosine_accuracy@10
            value: 0.38006756756756754
            name: Cosine Accuracy@10
          - type: cosine_precision@1
            value: 0.16722972972972974
            name: Cosine Precision@1
          - type: cosine_precision@3
            value: 0.09853603603603603
            name: Cosine Precision@3
          - type: cosine_precision@5
            value: 0.07128378378378379
            name: Cosine Precision@5
          - type: cosine_precision@10
            value: 0.04746621621621622
            name: Cosine Precision@10
          - type: cosine_recall@1
            value: 0.10484234234234234
            name: Cosine Recall@1
          - type: cosine_recall@3
            value: 0.1760698198198198
            name: Cosine Recall@3
          - type: cosine_recall@5
            value: 0.21348536036036034
            name: Cosine Recall@5
          - type: cosine_recall@10
            value: 0.27516891891891887
            name: Cosine Recall@10
          - type: cosine_ndcg@10
            value: 0.20750097993183542
            name: Cosine Ndcg@10
          - type: cosine_mrr@10
            value: 0.22642307486057478
            name: Cosine Mrr@10
          - type: cosine_map@100
            value: 0.1760894166796981
            name: Cosine Map@100
          - type: dot_accuracy@1
            value: 0.13682432432432431
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.2195945945945946
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.2635135135135135
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.33952702702702703
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.13682432432432431
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.08614864864864864
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.06317567567567568
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.043243243243243246
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.09127252252252252
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.1596846846846847
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.1899493243243243
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.2541103603603604
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.18669639273900773
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.19339473401973398
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.15927201068719438
            name: Dot Map@100
      - task:
          type: semantic-similarity
          name: Semantic Similarity
        dataset:
          name: sts test
          type: sts-test
        metrics:
          - type: pearson_cosine
            value: 0.6269313573543648
            name: Pearson Cosine
          - type: spearman_cosine
            value: 0.6185961220418067
            name: Spearman Cosine
          - type: pearson_manhattan
            value: 0.578738833621439
            name: Pearson Manhattan
          - type: spearman_manhattan
            value: 0.5839976753348799
            name: Spearman Manhattan
          - type: pearson_euclidean
            value: 0.5793449665959343
            name: Pearson Euclidean
          - type: spearman_euclidean
            value: 0.5843842345712776
            name: Spearman Euclidean
          - type: pearson_dot
            value: 0.4781712564220267
            name: Pearson Dot
          - type: spearman_dot
            value: 0.5057919404595702
            name: Spearman Dot
          - type: pearson_max
            value: 0.6269313573543648
            name: Pearson Max
          - type: spearman_max
            value: 0.6185961220418067
            name: Spearman Max

SentenceTransformer based on lemon-mint/KoEn-Embed-Turbo-v0.6

This is a sentence-transformers model finetuned from lemon-mint/KoEn-Embed-Turbo-v0.6. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: lemon-mint/KoEn-Embed-Turbo-v0.6
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("lemon-mint/KoEn-Embed-Turbo-v0.7-final")
# Run inference
sentences = [
    'query: 해롤드 데이비스는 어떤 국가의 선수였나요?',
    'query: 릴리는 어떤 스포츠를 좋아했습니까?',
    'query: 안토니오 데 카스트로 마이어는 1988년에 어떤 행위로 인해 논란을 일으켰습니까?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.7167
spearman_cosine 0.7179
pearson_manhattan 0.6563
spearman_manhattan 0.6714
pearson_euclidean 0.6576
spearman_euclidean 0.672
pearson_dot 0.5813
spearman_dot 0.6227
pearson_max 0.7167
spearman_max 0.7179

Information Retrieval

Metric Value
cosine_accuracy@1 0.1672
cosine_accuracy@3 0.2584
cosine_accuracy@5 0.3024
cosine_accuracy@10 0.3801
cosine_precision@1 0.1672
cosine_precision@3 0.0985
cosine_precision@5 0.0713
cosine_precision@10 0.0475
cosine_recall@1 0.1048
cosine_recall@3 0.1761
cosine_recall@5 0.2135
cosine_recall@10 0.2752
cosine_ndcg@10 0.2075
cosine_mrr@10 0.2264
cosine_map@100 0.1761
dot_accuracy@1 0.1368
dot_accuracy@3 0.2196
dot_accuracy@5 0.2635
dot_accuracy@10 0.3395
dot_precision@1 0.1368
dot_precision@3 0.0861
dot_precision@5 0.0632
dot_precision@10 0.0432
dot_recall@1 0.0913
dot_recall@3 0.1597
dot_recall@5 0.1899
dot_recall@10 0.2541
dot_ndcg@10 0.1867
dot_mrr@10 0.1934
dot_map@100 0.1593

Semantic Similarity

Metric Value
pearson_cosine 0.6269
spearman_cosine 0.6186
pearson_manhattan 0.5787
spearman_manhattan 0.584
pearson_euclidean 0.5793
spearman_euclidean 0.5844
pearson_dot 0.4782
spearman_dot 0.5058
pearson_max 0.6269
spearman_max 0.6186

Training Details

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 48
  • per_device_eval_batch_size: 4
  • learning_rate: 0.0001
  • num_train_epochs: 1
  • warmup_ratio: 0.05
  • fp16: True
  • push_to_hub: True
  • hub_model_id: lemon-mint/KoEn-Embed-Turbo-v0.7
  • hub_strategy: checkpoint
  • hub_private_repo: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 48
  • per_device_eval_batch_size: 4
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 0.0001
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.05
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: True
  • resume_from_checkpoint: None
  • hub_model_id: lemon-mint/KoEn-Embed-Turbo-v0.7
  • hub_strategy: checkpoint
  • hub_private_repo: True
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss loss Ko-StrategyQA-dev_cosine_map@100 sts-dev_spearman_cosine sts-test_spearman_cosine
0 0 - - 0.1939 0.7345 -
0.0010 10 0.0005 - - - -
0.0019 20 0.0005 - - - -
0.0029 30 0.0005 - - - -
0.0038 40 0.0005 - - - -
0.0048 50 0.0005 - - - -
0.0058 60 0.0005 - - - -
0.0067 70 0.0005 - - - -
0.0077 80 0.0005 - - - -
0.0086 90 0.0005 - - - -
0.0096 100 0.0005 - - - -
0.0106 110 0.0005 - - - -
0.0115 120 0.0005 - - - -
0.0125 130 0.0005 - - - -
0.0135 140 0.0005 - - - -
0.0144 150 0.0005 - - - -
0.0154 160 0.0005 - - - -
0.0163 170 0.0005 - - - -
0.0173 180 0.0005 - - - -
0.0183 190 0.0005 - - - -
0.0192 200 0.0005 - - - -
0.0202 210 0.0005 - - - -
0.0211 220 0.0005 - - - -
0.0221 230 0.0005 - - - -
0.0231 240 0.0005 - - - -
0.0240 250 0.0005 - - - -
0.0250 260 0.0005 - - - -
0.0259 270 0.0005 - - - -
0.0269 280 0.0005 - - - -
0.0279 290 0.0005 - - - -
0.0288 300 0.0005 - - - -
0.0298 310 0.0005 - - - -
0.0307 320 0.0005 - - - -
0.0317 330 0.0005 - - - -
0.0327 340 0.0005 - - - -
0.0336 350 0.0005 - - - -
0.0346 360 0.0005 - - - -
0.0356 370 0.0005 - - - -
0.0365 380 0.0005 - - - -
0.0375 390 0.0005 - - - -
0.0384 400 0.0005 - - - -
0.0394 410 0.0005 - - - -
0.0404 420 0.0005 - - - -
0.0413 430 0.0005 - - - -
0.0423 440 0.0005 - - - -
0.0432 450 0.0005 - - - -
0.0442 460 0.0005 - - - -
0.0452 470 0.0005 - - - -
0.0461 480 0.0005 - - - -
0.0471 490 0.0005 - - - -
0.0480 500 0.0005 - - - -
0.0490 510 0.0005 - - - -
0.0500 520 0.0005 - - - -
0.0509 530 0.0005 - - - -
0.0519 540 0.0005 - - - -
0.0528 550 0.0005 - - - -
0.0538 560 0.0005 - - - -
0.0548 570 0.0005 - - - -
0.0557 580 0.0005 - - - -
0.0567 590 0.0005 - - - -
0.0577 600 0.0005 - - - -
0.0586 610 0.0006 - - - -
0.0596 620 0.0006 - - - -
0.0605 630 0.0006 - - - -
0.0615 640 0.0006 - - - -
0.0625 650 0.0006 - - - -
0.0634 660 0.0006 - - - -
0.0644 670 0.0006 - - - -
0.0653 680 0.0006 - - - -
0.0663 690 0.0006 - - - -
0.0673 700 0.0006 - - - -
0.0682 710 0.0005 - - - -
0.0692 720 0.0005 - - - -
0.0701 730 0.0005 - - - -
0.0711 740 0.0005 - - - -
0.0721 750 0.0005 - - - -
0.0730 760 0.0005 - - - -
0.0740 770 0.0005 - - - -
0.0749 780 0.0005 - - - -
0.0759 790 0.0005 - - - -
0.0769 800 0.0005 - - - -
0.0778 810 0.0005 - - - -
0.0788 820 0.0006 - - - -
0.0798 830 0.0006 - - - -
0.0807 840 0.0005 - - - -
0.0817 850 0.0005 - - - -
0.0826 860 0.0005 - - - -
0.0836 870 0.0005 - - - -
0.0846 880 0.0005 - - - -
0.0855 890 0.0005 - - - -
0.0865 900 0.0005 - - - -
0.0874 910 0.0005 - - - -
0.0884 920 0.0005 - - - -
0.0894 930 0.0005 - - - -
0.0903 940 0.0005 - - - -
0.0913 950 0.0005 - - - -
0.0922 960 0.0005 - - - -
0.0932 970 0.0005 - - - -
0.0942 980 0.0005 - - - -
0.0951 990 0.0005 - - - -
0.0961 1000 0.0005 0.0005 0.1772 0.7242 -
0.0971 1010 0.0005 - - - -
0.0980 1020 0.0005 - - - -
0.0990 1030 0.0005 - - - -
0.0999 1040 0.0005 - - - -
0.1009 1050 0.0005 - - - -
0.1019 1060 0.0005 - - - -
0.1028 1070 0.0005 - - - -
0.1038 1080 0.0005 - - - -
0.1047 1090 0.0005 - - - -
0.1057 1100 0.0005 - - - -
0.1067 1110 0.0005 - - - -
0.1076 1120 0.0005 - - - -
0.1086 1130 0.0005 - - - -
0.1095 1140 0.0005 - - - -
0.1105 1150 0.0005 - - - -
0.1115 1160 0.0005 - - - -
0.1124 1170 0.0005 - - - -
0.1134 1180 0.0005 - - - -
0.1143 1190 0.0005 - - - -
0.1153 1200 0.0005 - - - -
0.1163 1210 0.0005 - - - -
0.1172 1220 0.0005 - - - -
0.1182 1230 0.0005 - - - -
0.1192 1240 0.0005 - - - -
0.1201 1250 0.0005 - - - -
0.1211 1260 0.0005 - - - -
0.1220 1270 0.0005 - - - -
0.1230 1280 0.0005 - - - -
0.1240 1290 0.0005 - - - -
0.1249 1300 0.0005 - - - -
0.1259 1310 0.0005 - - - -
0.1268 1320 0.0005 - - - -
0.1278 1330 0.0005 - - - -
0.1288 1340 0.0005 - - - -
0.1297 1350 0.0005 - - - -
0.1307 1360 0.0005 - - - -
0.1316 1370 0.0005 - - - -
0.1326 1380 0.0005 - - - -
0.1336 1390 0.0005 - - - -
0.1345 1400 0.0005 - - - -
0.1355 1410 0.0005 - - - -
0.1364 1420 0.0005 - - - -
0.1374 1430 0.0005 - - - -
0.1384 1440 0.0005 - - - -
0.1393 1450 0.0005 - - - -
0.1403 1460 0.0005 - - - -
0.1413 1470 0.0005 - - - -
0.1422 1480 0.0005 - - - -
0.1432 1490 0.0005 - - - -
0.1441 1500 0.0005 - - - -
0.1451 1510 0.0005 - - - -
0.1461 1520 0.0005 - - - -
0.1470 1530 0.0005 - - - -
0.1480 1540 0.0005 - - - -
0.1489 1550 0.0005 - - - -
0.1499 1560 0.0005 - - - -
0.1509 1570 0.0005 - - - -
0.1518 1580 0.0005 - - - -
0.1528 1590 0.0005 - - - -
0.1537 1600 0.0005 - - - -
0.1547 1610 0.0005 - - - -
0.1557 1620 0.0005 - - - -
0.1566 1630 0.0005 - - - -
0.1576 1640 0.0005 - - - -
0.1585 1650 0.0005 - - - -
0.1595 1660 0.0005 - - - -
0.1605 1670 0.0005 - - - -
0.1614 1680 0.0005 - - - -
0.1624 1690 0.0005 - - - -
0.1634 1700 0.0005 - - - -
0.1643 1710 0.0005 - - - -
0.1653 1720 0.0005 - - - -
0.1662 1730 0.0005 - - - -
0.1672 1740 0.0005 - - - -
0.1682 1750 0.0005 - - - -
0.1691 1760 0.0005 - - - -
0.1701 1770 0.0005 - - - -
0.1710 1780 0.0005 - - - -
0.1720 1790 0.0005 - - - -
0.1730 1800 0.0005 - - - -
0.1739 1810 0.0005 - - - -
0.1749 1820 0.0005 - - - -
0.1758 1830 0.0005 - - - -
0.1768 1840 0.0005 - - - -
0.1778 1850 0.0005 - - - -
0.1787 1860 0.0005 - - - -
0.1797 1870 0.0005 - - - -
0.1806 1880 0.0005 - - - -
0.1816 1890 0.0005 - - - -
0.1826 1900 0.0005 - - - -
0.1835 1910 0.0005 - - - -
0.1845 1920 0.0005 - - - -
0.1855 1930 0.0005 - - - -
0.1864 1940 0.0005 - - - -
0.1874 1950 0.0005 - - - -
0.1883 1960 0.0005 - - - -
0.1893 1970 0.0005 - - - -
0.1903 1980 0.0005 - - - -
0.1912 1990 0.0005 - - - -
0.1922 2000 0.0005 0.0005 0.1923 0.7319 -
0.1931 2010 0.0005 - - - -
0.1941 2020 0.0005 - - - -
0.1951 2030 0.0005 - - - -
0.1960 2040 0.0005 - - - -
0.1970 2050 0.0005 - - - -
0.1979 2060 0.0005 - - - -
0.1989 2070 0.0005 - - - -
0.1999 2080 0.0005 - - - -
0.2008 2090 0.0005 - - - -
0.2018 2100 0.0005 - - - -
0.2027 2110 0.0005 - - - -
0.2037 2120 0.0005 - - - -
0.2047 2130 0.0005 - - - -
0.2056 2140 0.0005 - - - -
0.2066 2150 0.0005 - - - -
0.2076 2160 0.0005 - - - -
0.2085 2170 0.0005 - - - -
0.2095 2180 0.0005 - - - -
0.2104 2190 0.0005 - - - -
0.2114 2200 0.0005 - - - -
0.2124 2210 0.0006 - - - -
0.2133 2220 0.0005 - - - -
0.2143 2230 0.0005 - - - -
0.2152 2240 0.0005 - - - -
0.2162 2250 0.0005 - - - -
0.2172 2260 0.0005 - - - -
0.2181 2270 0.0005 - - - -
0.2191 2280 0.0005 - - - -
0.2200 2290 0.0005 - - - -
0.2210 2300 0.0005 - - - -
0.2220 2310 0.0005 - - - -
0.2229 2320 0.0005 - - - -
0.2239 2330 0.0006 - - - -
0.2248 2340 0.0005 - - - -
0.2258 2350 0.0005 - - - -
0.2268 2360 0.0005 - - - -
0.2277 2370 0.0005 - - - -
0.2287 2380 0.0006 - - - -
0.2297 2390 0.0006 - - - -
0.2306 2400 0.0005 - - - -
0.2316 2410 0.0005 - - - -
0.2325 2420 0.0005 - - - -
0.2335 2430 0.0005 - - - -
0.2345 2440 0.0005 - - - -
0.2354 2450 0.0005 - - - -
0.2364 2460 0.0005 - - - -
0.2373 2470 0.0005 - - - -
0.2383 2480 0.0006 - - - -
0.2393 2490 0.0006 - - - -
0.2402 2500 0.0006 - - - -
0.2412 2510 0.0006 - - - -
0.2421 2520 0.0005 - - - -
0.2431 2530 0.0005 - - - -
0.2441 2540 0.0005 - - - -
0.2450 2550 0.0005 - - - -
0.2460 2560 0.0005 - - - -
0.2469 2570 0.0005 - - - -
0.2479 2580 0.0005 - - - -
0.2489 2590 0.0005 - - - -
0.2498 2600 0.0005 - - - -
0.2508 2610 0.0005 - - - -
0.2518 2620 0.0005 - - - -
0.2527 2630 0.0005 - - - -
0.2537 2640 0.0005 - - - -
0.2546 2650 0.0005 - - - -
0.2556 2660 0.0005 - - - -
0.2566 2670 0.0005 - - - -
0.2575 2680 0.0005 - - - -
0.2585 2690 0.0005 - - - -
0.2594 2700 0.0005 - - - -
0.2604 2710 0.0005 - - - -
0.2614 2720 0.0005 - - - -
0.2623 2730 0.0005 - - - -
0.2633 2740 0.0005 - - - -
0.2642 2750 0.0005 - - - -
0.2652 2760 0.0005 - - - -
0.2662 2770 0.0005 - - - -
0.2671 2780 0.0005 - - - -
0.2681 2790 0.0005 - - - -
0.2690 2800 0.0005 - - - -
0.2700 2810 0.0005 - - - -
0.2710 2820 0.0005 - - - -
0.2719 2830 0.0005 - - - -
0.2729 2840 0.0005 - - - -
0.2739 2850 0.0005 - - - -
0.2748 2860 0.0005 - - - -
0.2758 2870 0.0005 - - - -
0.2767 2880 0.0005 - - - -
0.2777 2890 0.0005 - - - -
0.2787 2900 0.0005 - - - -
0.2796 2910 0.0005 - - - -
0.2806 2920 0.0005 - - - -
0.2815 2930 0.0005 - - - -
0.2825 2940 0.0005 - - - -
0.2835 2950 0.0005 - - - -
0.2844 2960 0.0005 - - - -
0.2854 2970 0.0005 - - - -
0.2863 2980 0.0005 - - - -
0.2873 2990 0.0005 - - - -
0.2883 3000 0.0005 0.0005 0.1970 0.7232 -
0.2892 3010 0.0005 - - - -
0.2902 3020 0.0005 - - - -
0.2912 3030 0.0005 - - - -
0.2921 3040 0.0005 - - - -
0.2931 3050 0.0005 - - - -
0.2940 3060 0.0005 - - - -
0.2950 3070 0.0005 - - - -
0.2960 3080 0.0005 - - - -
0.2969 3090 0.0006 - - - -
0.2979 3100 0.0006 - - - -
0.2988 3110 0.0007 - - - -
0.2998 3120 0.0008 - - - -
0.3008 3130 0.0006 - - - -
0.3017 3140 0.0006 - - - -
0.3027 3150 0.0006 - - - -
0.3036 3160 0.0006 - - - -
0.3046 3170 0.0006 - - - -
0.3056 3180 0.0006 - - - -
0.3065 3190 0.0005 - - - -
0.3075 3200 0.0005 - - - -
0.3084 3210 0.0005 - - - -
0.3094 3220 0.0005 - - - -
0.3104 3230 0.0005 - - - -
0.3113 3240 0.0005 - - - -
0.3123 3250 0.0005 - - - -
0.3133 3260 0.0005 - - - -
0.3142 3270 0.0005 - - - -
0.3152 3280 0.0005 - - - -
0.3161 3290 0.0005 - - - -
0.3171 3300 0.0005 - - - -
0.3181 3310 0.0006 - - - -
0.3190 3320 0.0006 - - - -
0.3200 3330 0.0006 - - - -
0.3209 3340 0.0006 - - - -
0.3219 3350 0.0005 - - - -
0.3229 3360 0.0005 - - - -
0.3238 3370 0.0005 - - - -
0.3248 3380 0.0005 - - - -
0.3257 3390 0.0005 - - - -
0.3267 3400 0.0005 - - - -
0.3277 3410 0.0005 - - - -
0.3286 3420 0.0005 - - - -
0.3296 3430 0.0005 - - - -
0.3305 3440 0.0005 - - - -
0.3315 3450 0.0005 - - - -
0.3325 3460 0.0005 - - - -
0.3334 3470 0.0005 - - - -
0.3344 3480 0.0005 - - - -
0.3354 3490 0.0005 - - - -
0.3363 3500 0.0005 - - - -
0.3373 3510 0.0005 - - - -
0.3382 3520 0.0005 - - - -
0.3392 3530 0.0005 - - - -
0.3402 3540 0.0005 - - - -
0.3411 3550 0.0005 - - - -
0.3421 3560 0.0005 - - - -
0.3430 3570 0.0005 - - - -
0.3440 3580 0.0005 - - - -
0.3450 3590 0.0005 - - - -
0.3459 3600 0.0005 - - - -
0.3469 3610 0.0005 - - - -
0.3478 3620 0.0005 - - - -
0.3488 3630 0.0005 - - - -
0.3498 3640 0.0005 - - - -
0.3507 3650 0.0005 - - - -
0.3517 3660 0.0005 - - - -
0.3526 3670 0.0005 - - - -
0.3536 3680 0.0005 - - - -
0.3546 3690 0.0005 - - - -
0.3555 3700 0.0005 - - - -
0.3565 3710 0.0005 - - - -
0.3575 3720 0.0005 - - - -
0.3584 3730 0.0005 - - - -
0.3594 3740 0.0005 - - - -
0.3603 3750 0.0005 - - - -
0.3613 3760 0.0005 - - - -
0.3623 3770 0.0005 - - - -
0.3632 3780 0.0005 - - - -
0.3642 3790 0.0005 - - - -
0.3651 3800 0.0005 - - - -
0.3661 3810 0.0005 - - - -
0.3671 3820 0.0005 - - - -
0.3680 3830 0.0005 - - - -
0.3690 3840 0.0005 - - - -
0.3699 3850 0.0005 - - - -
0.3709 3860 0.0005 - - - -
0.3719 3870 0.0005 - - - -
0.3728 3880 0.0005 - - - -
0.3738 3890 0.0005 - - - -
0.3747 3900 0.0005 - - - -
0.3757 3910 0.0005 - - - -
0.3767 3920 0.0005 - - - -
0.3776 3930 0.0005 - - - -
0.3786 3940 0.0005 - - - -
0.3796 3950 0.0005 - - - -
0.3805 3960 0.0005 - - - -
0.3815 3970 0.0005 - - - -
0.3824 3980 0.0005 - - - -
0.3834 3990 0.0005 - - - -
0.3844 4000 0.0005 0.0005 0.1905 0.7171 -
0.3853 4010 0.0005 - - - -
0.3863 4020 0.0005 - - - -
0.3872 4030 0.0005 - - - -
0.3882 4040 0.0005 - - - -
0.3892 4050 0.0006 - - - -
0.3901 4060 0.0006 - - - -
0.3911 4070 0.0006 - - - -
0.3920 4080 0.0006 - - - -
0.3930 4090 0.0006 - - - -
0.3940 4100 0.0005 - - - -
0.3949 4110 0.0005 - - - -
0.3959 4120 0.0005 - - - -
0.3968 4130 0.0005 - - - -
0.3978 4140 0.0005 - - - -
0.3988 4150 0.0005 - - - -
0.3997 4160 0.0005 - - - -
0.4007 4170 0.0006 - - - -
0.4017 4180 0.0006 - - - -
0.4026 4190 0.0006 - - - -
0.4036 4200 0.0006 - - - -
0.4045 4210 0.0005 - - - -
0.4055 4220 0.0005 - - - -
0.4065 4230 0.0005 - - - -
0.4074 4240 0.0005 - - - -
0.4084 4250 0.0005 - - - -
0.4093 4260 0.0006 - - - -
0.4103 4270 0.0006 - - - -
0.4113 4280 0.0006 - - - -
0.4122 4290 0.0006 - - - -
0.4132 4300 0.0005 - - - -
0.4141 4310 0.0005 - - - -
0.4151 4320 0.0005 - - - -
0.4161 4330 0.0005 - - - -
0.4170 4340 0.0005 - - - -
0.4180 4350 0.0005 - - - -
0.4189 4360 0.0005 - - - -
0.4199 4370 0.0005 - - - -
0.4209 4380 0.0005 - - - -
0.4218 4390 0.0005 - - - -
0.4228 4400 0.0005 - - - -
0.4238 4410 0.0005 - - - -
0.4247 4420 0.0005 - - - -
0.4257 4430 0.0005 - - - -
0.4266 4440 0.0005 - - - -
0.4276 4450 0.0005 - - - -
0.4286 4460 0.0005 - - - -
0.4295 4470 0.0005 - - - -
0.4305 4480 0.0005 - - - -
0.4314 4490 0.0005 - - - -
0.4324 4500 0.0005 - - - -
0.4334 4510 0.0005 - - - -
0.4343 4520 0.0005 - - - -
0.4353 4530 0.0005 - - - -
0.4362 4540 0.0005 - - - -
0.4372 4550 0.0005 - - - -
0.4382 4560 0.0005 - - - -
0.4391 4570 0.0005 - - - -
0.4401 4580 0.0005 - - - -
0.4410 4590 0.0005 - - - -
0.4420 4600 0.0005 - - - -
0.4430 4610 0.0005 - - - -
0.4439 4620 0.0005 - - - -
0.4449 4630 0.0005 - - - -
0.4459 4640 0.0005 - - - -
0.4468 4650 0.0005 - - - -
0.4478 4660 0.0005 - - - -
0.4487 4670 0.0005 - - - -
0.4497 4680 0.0005 - - - -
0.4507 4690 0.0005 - - - -
0.4516 4700 0.0005 - - - -
0.4526 4710 0.0005 - - - -
0.4535 4720 0.0005 - - - -
0.4545 4730 0.0005 - - - -
0.4555 4740 0.0005 - - - -
0.4564 4750 0.0005 - - - -
0.4574 4760 0.0005 - - - -
0.4583 4770 0.0005 - - - -
0.4593 4780 0.0005 - - - -
0.4603 4790 0.0005 - - - -
0.4612 4800 0.0005 - - - -
0.4622 4810 0.0005 - - - -
0.4631 4820 0.0005 - - - -
0.4641 4830 0.0005 - - - -
0.4651 4840 0.0005 - - - -
0.4660 4850 0.0005 - - - -
0.4670 4860 0.0005 - - - -
0.4680 4870 0.0005 - - - -
0.4689 4880 0.0005 - - - -
0.4699 4890 0.0005 - - - -
0.4708 4900 0.0005 - - - -
0.4718 4910 0.0005 - - - -
0.4728 4920 0.0005 - - - -
0.4737 4930 0.0005 - - - -
0.4747 4940 0.0005 - - - -
0.4756 4950 0.0005 - - - -
0.4766 4960 0.0005 - - - -
0.4776 4970 0.0005 - - - -
0.4785 4980 0.0005 - - - -
0.4795 4990 0.0005 - - - -
0.4804 5000 0.0005 0.0005 0.1699 0.7125 -
0.4814 5010 0.0005 - - - -
0.4824 5020 0.0005 - - - -
0.4833 5030 0.0005 - - - -
0.4843 5040 0.0005 - - - -
0.4853 5050 0.0005 - - - -
0.4862 5060 0.0005 - - - -
0.4872 5070 0.0005 - - - -
0.4881 5080 0.0005 - - - -
0.4891 5090 0.0005 - - - -
0.4901 5100 0.0005 - - - -
0.4910 5110 0.0005 - - - -
0.4920 5120 0.0005 - - - -
0.4929 5130 0.0005 - - - -
0.4939 5140 0.0005 - - - -
0.4949 5150 0.0005 - - - -
0.4958 5160 0.0005 - - - -
0.4968 5170 0.0005 - - - -
0.4977 5180 0.0005 - - - -
0.4987 5190 0.0005 - - - -
0.4997 5200 0.0005 - - - -
0.5006 5210 0.0005 - - - -
0.5016 5220 0.0005 - - - -
0.5025 5230 0.0005 - - - -
0.5035 5240 0.0005 - - - -
0.5045 5250 0.0005 - - - -
0.5054 5260 0.0005 - - - -
0.5064 5270 0.0005 - - - -
0.5074 5280 0.0005 - - - -
0.5083 5290 0.0005 - - - -
0.5093 5300 0.0005 - - - -
0.5102 5310 0.0005 - - - -
0.5112 5320 0.0005 - - - -
0.5122 5330 0.0005 - - - -
0.5131 5340 0.0005 - - - -
0.5141 5350 0.0005 - - - -
0.5150 5360 0.0005 - - - -
0.5160 5370 0.0005 - - - -
0.5170 5380 0.0005 - - - -
0.5179 5390 0.0005 - - - -
0.5189 5400 0.0005 - - - -
0.5198 5410 0.0005 - - - -
0.5208 5420 0.0005 - - - -
0.5218 5430 0.0005 - - - -
0.5227 5440 0.0005 - - - -
0.5237 5450 0.0005 - - - -
0.5246 5460 0.0005 - - - -
0.5256 5470 0.0005 - - - -
0.5266 5480 0.0005 - - - -
0.5275 5490 0.0005 - - - -
0.5285 5500 0.0005 - - - -
0.5295 5510 0.0005 - - - -
0.5304 5520 0.0005 - - - -
0.5314 5530 0.0005 - - - -
0.5323 5540 0.0005 - - - -
0.5333 5550 0.0005 - - - -
0.5343 5560 0.0005 - - - -
0.5352 5570 0.0005 - - - -
0.5362 5580 0.0005 - - - -
0.5371 5590 0.0005 - - - -
0.5381 5600 0.0005 - - - -
0.5391 5610 0.0005 - - - -
0.5400 5620 0.0005 - - - -
0.5410 5630 0.0005 - - - -
0.5419 5640 0.0005 - - - -
0.5429 5650 0.0005 - - - -
0.5439 5660 0.0005 - - - -
0.5448 5670 0.0005 - - - -
0.5458 5680 0.0005 - - - -
0.5467 5690 0.0005 - - - -
0.5477 5700 0.0005 - - - -
0.5487 5710 0.0005 - - - -
0.5496 5720 0.0005 - - - -
0.5506 5730 0.0005 - - - -
0.5516 5740 0.0005 - - - -
0.5525 5750 0.0005 - - - -
0.5535 5760 0.0005 - - - -
0.5544 5770 0.0005 - - - -
0.5554 5780 0.0005 - - - -
0.5564 5790 0.0005 - - - -
0.5573 5800 0.0005 - - - -
0.5583 5810 0.0005 - - - -
0.5592 5820 0.0005 - - - -
0.5602 5830 0.0005 - - - -
0.5612 5840 0.0005 - - - -
0.5621 5850 0.0005 - - - -
0.5631 5860 0.0005 - - - -
0.5640 5870 0.0005 - - - -
0.5650 5880 0.0005 - - - -
0.5660 5890 0.0005 - - - -
0.5669 5900 0.0005 - - - -
0.5679 5910 0.0005 - - - -
0.5688 5920 0.0005 - - - -
0.5698 5930 0.0005 - - - -
0.5708 5940 0.0005 - - - -
0.5717 5950 0.0005 - - - -
0.5727 5960 0.0005 - - - -
0.5737 5970 0.0005 - - - -
0.5746 5980 0.0005 - - - -
0.5756 5990 0.0005 - - - -
0.5765 6000 0.0005 0.0005 0.1619 0.7043 -
0.5775 6010 0.0005 - - - -
0.5785 6020 0.0005 - - - -
0.5794 6030 0.0005 - - - -
0.5804 6040 0.0005 - - - -
0.5813 6050 0.0005 - - - -
0.5823 6060 0.0005 - - - -
0.5833 6070 0.0005 - - - -
0.5842 6080 0.0005 - - - -
0.5852 6090 0.0005 - - - -
0.5861 6100 0.0005 - - - -
0.5871 6110 0.0005 - - - -
0.5881 6120 0.0005 - - - -
0.5890 6130 0.0005 - - - -
0.5900 6140 0.0005 - - - -
0.5909 6150 0.0005 - - - -
0.5919 6160 0.0005 - - - -
0.5929 6170 0.0005 - - - -
0.5938 6180 0.0005 - - - -
0.5948 6190 0.0005 - - - -
0.5958 6200 0.0005 - - - -
0.5967 6210 0.0005 - - - -
0.5977 6220 0.0005 - - - -
0.5986 6230 0.0005 - - - -
0.5996 6240 0.0005 - - - -
0.6006 6250 0.0005 - - - -
0.6015 6260 0.0005 - - - -
0.6025 6270 0.0005 - - - -
0.6034 6280 0.0005 - - - -
0.6044 6290 0.0005 - - - -
0.6054 6300 0.0005 - - - -
0.6063 6310 0.0005 - - - -
0.6073 6320 0.0005 - - - -
0.6082 6330 0.0005 - - - -
0.6092 6340 0.0005 - - - -
0.6102 6350 0.0005 - - - -
0.6111 6360 0.0005 - - - -
0.6121 6370 0.0005 - - - -
0.6130 6380 0.0005 - - - -
0.6140 6390 0.0005 - - - -
0.6150 6400 0.0005 - - - -
0.6159 6410 0.0005 - - - -
0.6169 6420 0.0005 - - - -
0.6179 6430 0.0005 - - - -
0.6188 6440 0.0005 - - - -
0.6198 6450 0.0005 - - - -
0.6207 6460 0.0005 - - - -
0.6217 6470 0.0005 - - - -
0.6227 6480 0.0005 - - - -
0.6236 6490 0.0005 - - - -
0.6246 6500 0.0005 - - - -
0.6255 6510 0.0005 - - - -
0.6265 6520 0.0005 - - - -
0.6275 6530 0.0005 - - - -
0.6284 6540 0.0005 - - - -
0.6294 6550 0.0005 - - - -
0.6303 6560 0.0005 - - - -
0.6313 6570 0.0005 - - - -
0.6323 6580 0.0005 - - - -
0.6332 6590 0.0005 - - - -
0.6342 6600 0.0005 - - - -
0.6351 6610 0.0005 - - - -
0.6361 6620 0.0005 - - - -
0.6371 6630 0.0005 - - - -
0.6380 6640 0.0005 - - - -
0.6390 6650 0.0005 - - - -
0.6400 6660 0.0005 - - - -
0.6409 6670 0.0005 - - - -
0.6419 6680 0.0005 - - - -
0.6428 6690 0.0005 - - - -
0.6438 6700 0.0005 - - - -
0.6448 6710 0.0005 - - - -
0.6457 6720 0.0005 - - - -
0.6467 6730 0.0005 - - - -
0.6476 6740 0.0005 - - - -
0.6486 6750 0.0005 - - - -
0.6496 6760 0.0005 - - - -
0.6505 6770 0.0005 - - - -
0.6515 6780 0.0005 - - - -
0.6524 6790 0.0005 - - - -
0.6534 6800 0.0005 - - - -
0.6544 6810 0.0005 - - - -
0.6553 6820 0.0005 - - - -
0.6563 6830 0.0005 - - - -
0.6572 6840 0.0005 - - - -
0.6582 6850 0.0005 - - - -
0.6592 6860 0.0005 - - - -
0.6601 6870 0.0005 - - - -
0.6611 6880 0.0005 - - - -
0.6621 6890 0.0005 - - - -
0.6630 6900 0.0005 - - - -
0.6640 6910 0.0005 - - - -
0.6649 6920 0.0005 - - - -
0.6659 6930 0.0005 - - - -
0.6669 6940 0.0005 - - - -
0.6678 6950 0.0005 - - - -
0.6688 6960 0.0005 - - - -
0.6697 6970 0.0005 - - - -
0.6707 6980 0.0005 - - - -
0.6717 6990 0.0005 - - - -
0.6726 7000 0.0005 0.0005 0.1697 0.7102 -
0.6736 7010 0.0005 - - - -
0.6745 7020 0.0005 - - - -
0.6755 7030 0.0005 - - - -
0.6765 7040 0.0005 - - - -
0.6774 7050 0.0005 - - - -
0.6784 7060 0.0005 - - - -
0.6794 7070 0.0005 - - - -
0.6803 7080 0.0005 - - - -
0.6813 7090 0.0005 - - - -
0.6822 7100 0.0005 - - - -
0.6832 7110 0.0005 - - - -
0.6842 7120 0.0005 - - - -
0.6851 7130 0.0005 - - - -
0.6861 7140 0.0005 - - - -
0.6870 7150 0.0005 - - - -
0.6880 7160 0.0005 - - - -
0.6890 7170 0.0005 - - - -
0.6899 7180 0.0005 - - - -
0.6909 7190 0.0005 - - - -
0.6918 7200 0.0005 - - - -
0.6928 7210 0.0005 - - - -
0.6938 7220 0.0005 - - - -
0.6947 7230 0.0005 - - - -
0.6957 7240 0.0005 - - - -
0.6966 7250 0.0005 - - - -
0.6976 7260 0.0005 - - - -
0.6986 7270 0.0005 - - - -
0.6995 7280 0.0005 - - - -
0.7005 7290 0.0005 - - - -
0.7015 7300 0.0005 - - - -
0.7024 7310 0.0005 - - - -
0.7034 7320 0.0005 - - - -
0.7043 7330 0.0005 - - - -
0.7053 7340 0.0005 - - - -
0.7063 7350 0.0005 - - - -
0.7072 7360 0.0005 - - - -
0.7082 7370 0.0005 - - - -
0.7091 7380 0.0005 - - - -
0.7101 7390 0.0005 - - - -
0.7111 7400 0.0005 - - - -
0.7120 7410 0.0005 - - - -
0.7130 7420 0.0005 - - - -
0.7139 7430 0.0005 - - - -
0.7149 7440 0.0005 - - - -
0.7159 7450 0.0005 - - - -
0.7168 7460 0.0005 - - - -
0.7178 7470 0.0005 - - - -
0.7187 7480 0.0005 - - - -
0.7197 7490 0.0005 - - - -
0.7207 7500 0.0005 - - - -
0.7216 7510 0.0005 - - - -
0.7226 7520 0.0005 - - - -
0.7236 7530 0.0005 - - - -
0.7245 7540 0.0005 - - - -
0.7255 7550 0.0005 - - - -
0.7264 7560 0.0005 - - - -
0.7274 7570 0.0005 - - - -
0.7284 7580 0.0005 - - - -
0.7293 7590 0.0005 - - - -
0.7303 7600 0.0005 - - - -
0.7312 7610 0.0005 - - - -
0.7322 7620 0.0005 - - - -
0.7332 7630 0.0005 - - - -
0.7341 7640 0.0005 - - - -
0.7351 7650 0.0005 - - - -
0.7360 7660 0.0005 - - - -
0.7370 7670 0.0005 - - - -
0.7380 7680 0.0005 - - - -
0.7389 7690 0.0005 - - - -
0.7399 7700 0.0005 - - - -
0.7408 7710 0.0005 - - - -
0.7418 7720 0.0005 - - - -
0.7428 7730 0.0005 - - - -
0.7437 7740 0.0005 - - - -
0.7447 7750 0.0005 - - - -
0.7457 7760 0.0005 - - - -
0.7466 7770 0.0005 - - - -
0.7476 7780 0.0005 - - - -
0.7485 7790 0.0005 - - - -
0.7495 7800 0.0005 - - - -
0.7505 7810 0.0005 - - - -
0.7514 7820 0.0005 - - - -
0.7524 7830 0.0005 - - - -
0.7533 7840 0.0005 - - - -
0.7543 7850 0.0005 - - - -
0.7553 7860 0.0005 - - - -
0.7562 7870 0.0005 - - - -
0.7572 7880 0.0005 - - - -
0.7581 7890 0.0005 - - - -
0.7591 7900 0.0005 - - - -
0.7601 7910 0.0005 - - - -
0.7610 7920 0.0005 - - - -
0.7620 7930 0.0005 - - - -
0.7629 7940 0.0005 - - - -
0.7639 7950 0.0005 - - - -
0.7649 7960 0.0005 - - - -
0.7658 7970 0.0005 - - - -
0.7668 7980 0.0005 - - - -
0.7678 7990 0.0005 - - - -
0.7687 8000 0.0005 0.0004 0.1568 0.7088 -
0.7697 8010 0.0005 - - - -
0.7706 8020 0.0005 - - - -
0.7716 8030 0.0005 - - - -
0.7726 8040 0.0005 - - - -
0.7735 8050 0.0005 - - - -
0.7745 8060 0.0005 - - - -
0.7754 8070 0.0005 - - - -
0.7764 8080 0.0005 - - - -
0.7774 8090 0.0005 - - - -
0.7783 8100 0.0005 - - - -
0.7793 8110 0.0005 - - - -
0.7802 8120 0.0005 - - - -
0.7812 8130 0.0005 - - - -
0.7822 8140 0.0005 - - - -
0.7831 8150 0.0005 - - - -
0.7841 8160 0.0005 - - - -
0.7850 8170 0.0005 - - - -
0.7860 8180 0.0005 - - - -
0.7870 8190 0.0005 - - - -
0.7879 8200 0.0005 - - - -
0.7889 8210 0.0005 - - - -
0.7899 8220 0.0005 - - - -
0.7908 8230 0.0005 - - - -
0.7918 8240 0.0005 - - - -
0.7927 8250 0.0005 - - - -
0.7937 8260 0.0005 - - - -
0.7947 8270 0.0005 - - - -
0.7956 8280 0.0005 - - - -
0.7966 8290 0.0005 - - - -
0.7975 8300 0.0005 - - - -
0.7985 8310 0.0005 - - - -
0.7995 8320 0.0005 - - - -
0.8004 8330 0.0005 - - - -
0.8014 8340 0.0005 - - - -
0.8023 8350 0.0005 - - - -
0.8033 8360 0.0005 - - - -
0.8043 8370 0.0005 - - - -
0.8052 8380 0.0005 - - - -
0.8062 8390 0.0005 - - - -
0.8071 8400 0.0005 - - - -
0.8081 8410 0.0005 - - - -
0.8091 8420 0.0005 - - - -
0.8100 8430 0.0005 - - - -
0.8110 8440 0.0005 - - - -
0.8120 8450 0.0005 - - - -
0.8129 8460 0.0005 - - - -
0.8139 8470 0.0005 - - - -
0.8148 8480 0.0005 - - - -
0.8158 8490 0.0005 - - - -
0.8168 8500 0.0005 - - - -
0.8177 8510 0.0005 - - - -
0.8187 8520 0.0005 - - - -
0.8196 8530 0.0005 - - - -
0.8206 8540 0.0005 - - - -
0.8216 8550 0.0005 - - - -
0.8225 8560 0.0005 - - - -
0.8235 8570 0.0005 - - - -
0.8244 8580 0.0005 - - - -
0.8254 8590 0.0005 - - - -
0.8264 8600 0.0005 - - - -
0.8273 8610 0.0005 - - - -
0.8283 8620 0.0005 - - - -
0.8292 8630 0.0005 - - - -
0.8302 8640 0.0005 - - - -
0.8312 8650 0.0005 - - - -
0.8321 8660 0.0005 - - - -
0.8331 8670 0.0005 - - - -
0.8341 8680 0.0005 - - - -
0.8350 8690 0.0005 - - - -
0.8360 8700 0.0005 - - - -
0.8369 8710 0.0005 - - - -
0.8379 8720 0.0005 - - - -
0.8389 8730 0.0005 - - - -
0.8398 8740 0.0005 - - - -
0.8408 8750 0.0005 - - - -
0.8417 8760 0.0005 - - - -
0.8427 8770 0.0005 - - - -
0.8437 8780 0.0005 - - - -
0.8446 8790 0.0005 - - - -
0.8456 8800 0.0005 - - - -
0.8465 8810 0.0005 - - - -
0.8475 8820 0.0005 - - - -
0.8485 8830 0.0005 - - - -
0.8494 8840 0.0005 - - - -
0.8504 8850 0.0005 - - - -
0.8514 8860 0.0005 - - - -
0.8523 8870 0.0005 - - - -
0.8533 8880 0.0005 - - - -
0.8542 8890 0.0005 - - - -
0.8552 8900 0.0005 - - - -
0.8562 8910 0.0005 - - - -
0.8571 8920 0.0005 - - - -
0.8581 8930 0.0005 - - - -
0.8590 8940 0.0005 - - - -
0.8600 8950 0.0005 - - - -
0.8610 8960 0.0005 - - - -
0.8619 8970 0.0005 - - - -
0.8629 8980 0.0005 - - - -
0.8638 8990 0.0005 - - - -
0.8648 9000 0.0005 0.0004 0.1817 0.7175 -
0.8658 9010 0.0005 - - - -
0.8667 9020 0.0005 - - - -
0.8677 9030 0.0005 - - - -
0.8686 9040 0.0005 - - - -
0.8696 9050 0.0005 - - - -
0.8706 9060 0.0005 - - - -
0.8715 9070 0.0005 - - - -
0.8725 9080 0.0005 - - - -
0.8735 9090 0.0005 - - - -
0.8744 9100 0.0005 - - - -
0.8754 9110 0.0005 - - - -
0.8763 9120 0.0005 - - - -
0.8773 9130 0.0005 - - - -
0.8783 9140 0.0005 - - - -
0.8792 9150 0.0005 - - - -
0.8802 9160 0.0005 - - - -
0.8811 9170 0.0005 - - - -
0.8821 9180 0.0005 - - - -
0.8831 9190 0.0005 - - - -
0.8840 9200 0.0005 - - - -
0.8850 9210 0.0005 - - - -
0.8859 9220 0.0005 - - - -
0.8869 9230 0.0005 - - - -
0.8879 9240 0.0005 - - - -
0.8888 9250 0.0005 - - - -
0.8898 9260 0.0005 - - - -
0.8907 9270 0.0005 - - - -
0.8917 9280 0.0004 - - - -
0.8927 9290 0.0005 - - - -
0.8936 9300 0.0005 - - - -
0.8946 9310 0.0005 - - - -
0.8956 9320 0.0005 - - - -
0.8965 9330 0.0005 - - - -
0.8975 9340 0.0005 - - - -
0.8984 9350 0.0005 - - - -
0.8994 9360 0.0005 - - - -
0.9004 9370 0.0005 - - - -
0.9013 9380 0.0005 - - - -
0.9023 9390 0.0005 - - - -
0.9032 9400 0.0005 - - - -
0.9042 9410 0.0005 - - - -
0.9052 9420 0.0005 - - - -
0.9061 9430 0.0005 - - - -
0.9071 9440 0.0005 - - - -
0.9080 9450 0.0005 - - - -
0.9090 9460 0.0005 - - - -
0.9100 9470 0.0005 - - - -
0.9109 9480 0.0005 - - - -
0.9119 9490 0.0005 - - - -
0.9128 9500 0.0005 - - - -
0.9138 9510 0.0005 - - - -
0.9148 9520 0.0005 - - - -
0.9157 9530 0.0005 - - - -
0.9167 9540 0.0005 - - - -
0.9177 9550 0.0005 - - - -
0.9186 9560 0.0005 - - - -
0.9196 9570 0.0005 - - - -
0.9205 9580 0.0005 - - - -
0.9215 9590 0.0005 - - - -
0.9225 9600 0.0005 - - - -
0.9234 9610 0.0005 - - - -
0.9244 9620 0.0005 - - - -
0.9253 9630 0.0005 - - - -
0.9263 9640 0.0005 - - - -
0.9273 9650 0.0005 - - - -
0.9282 9660 0.0005 - - - -
0.9292 9670 0.0005 - - - -
0.9301 9680 0.0005 - - - -
0.9311 9690 0.0005 - - - -
0.9321 9700 0.0005 - - - -
0.9330 9710 0.0005 - - - -
0.9340 9720 0.0005 - - - -
0.9349 9730 0.0005 - - - -
0.9359 9740 0.0005 - - - -
0.9369 9750 0.0005 - - - -
0.9378 9760 0.0005 - - - -
0.9388 9770 0.0005 - - - -
0.9398 9780 0.0005 - - - -
0.9407 9790 0.0005 - - - -
0.9417 9800 0.0005 - - - -
0.9426 9810 0.0005 - - - -
0.9436 9820 0.0005 - - - -
0.9446 9830 0.0005 - - - -
0.9455 9840 0.0005 - - - -
0.9465 9850 0.0005 - - - -
0.9474 9860 0.0005 - - - -
0.9484 9870 0.0005 - - - -
0.9494 9880 0.0005 - - - -
0.9503 9890 0.0005 - - - -
0.9513 9900 0.0005 - - - -
0.9522 9910 0.0005 - - - -
0.9532 9920 0.0005 - - - -
0.9542 9930 0.0005 - - - -
0.9551 9940 0.0005 - - - -
0.9561 9950 0.0005 - - - -
0.9570 9960 0.0005 - - - -
0.9580 9970 0.0005 - - - -
0.9590 9980 0.0005 - - - -
0.9599 9990 0.0005 - - - -
0.9609 10000 0.0005 0.0004 0.1764 0.7179 -
0.9619 10010 0.0005 - - - -
0.9628 10020 0.0005 - - - -
0.9638 10030 0.0005 - - - -
0.9647 10040 0.0005 - - - -
0.9657 10050 0.0005 - - - -
0.9667 10060 0.0005 - - - -
0.9676 10070 0.0005 - - - -
0.9686 10080 0.0005 - - - -
0.9695 10090 0.0005 - - - -
0.9705 10100 0.0005 - - - -
0.9715 10110 0.0005 - - - -
0.9724 10120 0.0005 - - - -
0.9734 10130 0.0004 - - - -
0.9743 10140 0.0005 - - - -
0.9753 10150 0.0005 - - - -
0.9763 10160 0.0005 - - - -
0.9772 10170 0.0005 - - - -
0.9782 10180 0.0005 - - - -
0.9791 10190 0.0005 - - - -
0.9801 10200 0.0005 - - - -
0.9811 10210 0.0005 - - - -
0.9820 10220 0.0005 - - - -
0.9830 10230 0.0005 - - - -
0.9840 10240 0.0005 - - - -
0.9849 10250 0.0005 - - - -
0.9859 10260 0.0005 - - - -
0.9868 10270 0.0005 - - - -
0.9878 10280 0.0005 - - - -
0.9888 10290 0.0005 - - - -
0.9897 10300 0.0005 - - - -
0.9907 10310 0.0005 - - - -
0.9916 10320 0.0005 - - - -
0.9926 10330 0.0005 - - - -
0.9936 10340 0.0005 - - - -
0.9945 10350 0.0005 - - - -
0.9955 10360 0.0005 - - - -
0.9964 10370 0.0005 - - - -
0.9974 10380 0.0005 - - - -
0.9984 10390 0.0005 - - - -
0.9993 10400 0.0005 - - - -
1.0 10407 - - 0.1761 - 0.6186

Framework Versions

  • Python: 3.10.13
  • Sentence Transformers: 3.0.1
  • Transformers: 4.42.3
  • PyTorch: 2.1.2
  • Accelerate: 0.31.0
  • Datasets: 2.19.2
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MSELoss

@inproceedings{reimers-2020-multilingual-sentence-bert,
    title = "Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2020",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/2004.09813",
}