--- language: - nl license: - mit library_name: transformers tags: - generated_from_trainer datasets: - romjansen/mbert-base-cased-NER-NL-legislation-refs-data metrics: - seqeval model-index: - name: mbert-base-cased-NER-NL-legislation-refs results: - task: name: named-entity-recognition type: token-classification dataset: type: romjansen/mbert-base-cased-NER-NL-legislation-refs-data name: romjansen/mbert-base-cased-NER-NL-legislation-refs-data metrics: - type: precision value: 0.891 - type: recall value: 0.919 - type: F1-score value: 0.905 widget: - text: "5.2. De rechtbank overweegt dat het voor buiten het Koninkrijk geboren Nederlanders, die door de geboorte tevens de nationaliteit van een ander land hebben verworven, tot 1 januari 1985 mogelijk was de Nederlandse nationaliteit onbeperkt te behouden op grond van artikel 7 van de WNI. 5.3. Volgens de Nederlandse wet, zoals deze tot 1 januari 1988 gold, werden minderjarigen door het bereiken van de 21-jarige leeftijd of door het eerder sluiten van een huwelijk meerderjarig. Op [geboortedag] 1971 is eiseres 21 jaar oud geworden en dus is zij in ieder geval toen meerderjarig geworden, zodat voor haar op dat moment de tienjarige termijn begon te lopen. 5.4. Niet in geschil is dat eiseres geen kennisgeving als bedoeld in artikel 7, aanhef en onder 5, van de WNI heeft afgelegd vóór [geboortedag] 1981, toen zij 31 jaar oud was. 5.5. Ook is niet in geschil dat eiseres haar Nederlanderschap op [geboortedag] 1981 van rechtswege heeft verloren. 5.6. Gezien het voorgaande bestaat geen grond voor het oordeel dat het standpunt van verweerder, dat eiseres op [geboortedag] 1981 op grond van artikel 7, aanhef en onder 5, van de WNI het Nederlanderschap van rechtswege heeft verloren, onjuist is. 5.7. De rechtbank ziet in wat eiseres in beroep heeft aangevoerd geen reden voor een ander oordeel. In het geval en de omstandigheden van eiseres zijn er geen rechtsregels van toepassing op grond waarvan zij het Nederlanderschap kan herkrijgen." - text: "Bij het bepaalde in de art. 2:1 lid 6, onder a, Wvggz en 8:9 lid 4, aanhef en onder a, Wvggz gaat het om het vermogen van een persoon om ter zake van specifieke afwegingen op het terrein van de zorg te komen tot een redelijke waardering van zijn belangen" - text: "Op grond van artikel 6:11 van de Awb blijft niet-ontvankelijkverklaring wegens termijnoverschrijding achterwege" - text: "onevenredig zou worden bevoordeeld ten opzichte van de overige bij de aangelegenheid betrokken natuurlijke personen dan wel van derden, als bedoeld in artikel 10, tweede lid, aanhef en onder g, van de Wob. Nu reeds artikel 11 van de Wob aan openbaarmaking van de door appellante verzochte informatie in de weg staat" --- # Table of Contents - [Model description](#model-description) - [Training procedure](#training-procedure) - [Dataset](#dataset) - [Results](#results) - [Limitations and biases](#limitations-and-biases) - [BibTeX entry and citation info](#bibtex-entry-and-citation-info) # Model description **mbert-base-cased-NER-NL-legislation-refs** is a fine-tuned BERT model that was trained to recognize the entity type 'legislation references' (REF) in Dutch case law. Specifically, this model is a [bert-base-multilingual-cased](https://huggingface.co/bert-base-multilingual-cased) model that was fine-tuned on the [mbert-base-cased-NER-NL-legislation-refs-data](https://huggingface.co/datasets/romjansen/mbert-base-cased-NER-NL-legislation-refs-data) dataset. # Training procedure ## Dataset This model was fine-tuned on the [mbert-base-cased-NER-NL-legislation-refs-data](https://huggingface.co/datasets/romjansen/mbert-base-cased-NER-NL-legislation-refs-data) dataset. This dataset consists of 512 token long examples which each contain one or more legislation references. These examples were created from a weakly labelled corpus of Dutch case law which was scraped from [Linked Data Overheid](https://linkeddata.overheid.nl/), pre-tokenized and labelled ([biluo_tags_from_offsets](https://spacy.io/api/top-level#biluo_tags_from_offsets)) through [spaCy](https://spacy.io/) and further tokenized through applying Hugging Face's [AutoTokenizer.from_pretrained()](https://huggingface.co/docs/transformers/model_doc/auto#transformers.AutoTokenizer.from_pretrained) for [bert-base-multilingual-cased](https://huggingface.co/bert-base-multilingual-cased)'s tokenizer. ## Results | Model | Precision | Recall | F1-score | |-------|-----------|--------|----------| | mBERT | 0.891 | 0.919 | 0.905 | Using Hugging Face's hosted inference API widget this model can be quickly tested on the provided examples. Note that the hosted inference API widget incorrectly presents the last token of a legislation reference as a seperate entity due to the workings of its 'simple' [aggregation_strategy](https://huggingface.co/docs/api-inference/detailed_parameters#token-classification-task). While this model was fine-tuned on training data labelled in accordence with the BILOU scheme, the hosted inference API groups entities by merging B- and I- tags when the tag is similar (thereby omitting the L- tags). ## Limitations and biases More information needed # BibTeX entry and citation info More information needed