--- dataset_info: - config_name: collection features: - name: text dtype: string - name: text_en dtype: string splits: - name: train num_bytes: 6691198003 num_examples: 8841823 download_size: 3589163684 dataset_size: 6691198003 - config_name: dataset features: - name: anc dtype: string - name: anc_en dtype: string - name: pos_ids sequence: int64 - name: neg_ids.japanese-splade-base-v1-mmarco-only.top100 sequence: int64 - name: neg_sims.japanese-splade-base-v1-mmarco-only.top100 sequence: float64 - name: neg_ids.japanese-splade-base-v1-mmarco-only.other100 sequence: int64 - name: neg_sims.japanese-splade-base-v1-mmarco-only.other100 sequence: float64 - name: score.bge-reranker-v2-m3.pos_ids sequence: float64 - name: >- score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.top100 sequence: float64 - name: >- score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.other100 sequence: float64 splits: - name: train num_bytes: 2481771934 num_examples: 502931 download_size: 2024787258 dataset_size: 2481771934 configs: - config_name: collection data_files: - split: train path: collection/train-* - config_name: dataset data_files: - split: train path: dataset/train-* language: - ja - en --- # msmarco-ja-hard-negatives [hpprc/msmarco-ja](https://huggingface.co/datasets/hpprc/msmarco-ja) で公開されている[MS MARCO](https://huggingface.co/datasets/microsoft/ms_marco)の日本語翻訳データに、以下の処理を加えたハードネガティブマイニングをしたものです。また、後段タスクとして、情報検索モデルのSPLADEを学習させたモデルで [mMARCO](https://huggingface.co/datasets/unicamp-dl/mmarco) との比較を行いました。 # データの処理 ## 翻訳データの正規化、フィルタと選択 - 正規化 - ユニコード正規化 (NFKC) - dataset(query) のフィルタ・選択 - dataset-sim のコサイン類似度が0.98以上のものはほぼ同一のケースが多く、距離が近すぎるので取り除く - 元の英文を丸々含むデータを取り除く - 残ったデータで、一番類似度が近いものを選択 - collection の選択 - dataset(query) の pod_ids (正例)が対象の場合、query, doc ペアで [BAAI/bge-reranker-v2-m3](https://huggingface.co/BAAI/bge-reranker-v2-m3) のスコアを用い、最もスコアが高いもの選択 - 正例に含まれないデータの場合、同一の id からランダムサンプリング ## ハードネガティブの抽出 作成した query, collection を元に、[japanese-splade-base-v1-mmarco-only](https://huggingface.co/hotchpotch/japanese-splade-base-v1-mmarco-only) を利用して、類似する collection の上位100件と、101位から1000位までの中から無作為に選んだ100件 ## スコア付け query とハードネガティブの collection を元に、bge-reranker-v2-m3 リランカーを用いたスコア # 評価 ## 評価実験として、2つのデータセットを比較 1. mmacro(ja)(mMARCOデータセットの日本語翻訳データ) 2. msmarco-ja(本データセット) ## カイ二乗検定による評価 | 指標 | msmarco-ja | mmarco(ja) | 閾値 | p値 | 統計的有意差 | |------|------------|------------|--------|------|--------------| | 総数 | 502,931 | 391,060 | 0.7 | 0.0006205731 | あり | | Positive数 | 407,162 | 311,394 | 0.7 | 0.0006205731 | あり | | Positive率 | 80.96% | 79.63% | 0.7 | 0.0006205731 | あり | | 総数 | 502,931 | 391,060 | 0.8 | 0.0428684718 | あり | | Positive数 | 390,653 | 297,126 | 0.8 | 0.0428684718 | あり | | Positive率 | 77.68% | 75.98% | 0.8 | 0.0428684718 | あり | dataset(query)と、正例(pos_ids)のcollectionペアが、リランカースコアで見た時に、うまく正例として扱えそうかを閾値0.7または0.8以上で確認します。pos_idsは複数ある場合、スコアのmaxを選択しています。 カイ二乗検定を用いて評価した結果、閾値0.7および0.8のいずれにおいても、msmarco-jaとmmarco(ja)の間に統計的有意差が確認されました(p < 0.05)。具体的には、msmarco-jaの方が一貫して高いPositive率を示し、閾値0.7では約1.33%ポイント(80.96% vs 79.63%)、閾値0.8では約1.70%ポイント(77.68% vs 75.98%)の差が観察されました。 特に閾値0.7での差異は非常に小さいp値(p ≈ 0.0006)を示しており、この違いが偶然によるものである可能性は極めて低いと考えられます。また、より厳格な閾値である0.8においても統計的有意差は維持されています(p ≈ 0.043)。 両データセットとも75-80%という高いPositive率を示しており、わずか1-2%ポイントの差ではありますが、msmarco-jaデータセットが、より高品質な翻訳とフィルタリングによって、mmarco翻訳よりもquery-documentペアの一貫性をより良く保持できている可能性が高いと言えるでしょう。 ## JMTEBでのデータセットの評価 ### 評価方法 - 両データセットに対して同じ手法でハードネガティブサンプリングとスコア付けを実施 - mmarco/msmacro-ja のみを用いて、同一のパラメータ(正例フィルタリング閾値0.7以上)で日本語SPLADEモデルを学習 - [JMTEB](https://github.com/sbintuitions/JMTEB) retrieval タスクを用い評価 ### 評価結果 | --- | JMTEB ret Avg. | jagovfaqs_22k | jaqket | mrtydi | nlp_journal_abs_intro | nlp_journal_title_abs | nlp_journal_title_intro | |-------------|----------------|---------------|--------|--------|------------------------|-----------------------|-------------------------| | mmarco(ja) | 0.7390 | 0.6726 | 0.6692 | 0.4449 | 0.8855 | 0.9580 | **0.8040** | | msmacro-ja | **0.7472** | **0.6872** | **0.6734** | **0.4656** | **0.8974** | **0.9726** | 0.7871 | ほぼ全て項目で、msmarco-ja の方が良好な結果となりました。ただし、カイ二乗検定による評価の項目にある通り、全体のデータセット件数はmmarco-jaの方が多いため、ご注意ください。 # データに関する注意事項 ハードネガティブでの抽出した負例は、正例よりもリランカースコアが高い場合が多々あります。反対に正例(pos_ids)なのに、著しくスコアが低い場合も多々あります(そもそも元データが正例として相応しくない、翻訳時に情報が失われた、など)。そのため、それらを「正例」「負例」として学習すると、学習に悪影響を及ぼす可能性が大きいため、リランカースコアを閾値としてフィルターする処理をお勧めします。 また、ハードネガティブサンプリングは SPLADE モデル japanese-splade-base-v1-mmarco-only を利用し行なっています。SPLADEは、単語トークンの距離の近さで類似度を測るため、密ベクトルとは異なった方向のハードネガティブマイニングになります。密ベクトルモデルの学習のために利用する場合、密ベクトルでハードネガティブサンプリングをした方が、より良いハードネガティブを取得できる可能性があります。 # ライセンス MSMARCO と同等のライセンスとします。