{ "paper_id": "W79-0104", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T06:44:18.684271Z" }, "title": "Automatisk orddeling", "authors": [ { "first": "Hasse", "middle": [], "last": "Hansson", "suffix": "", "affiliation": {}, "email": "" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "In d le d n in g N\u00e5r man skriver p\u00e5 et stykke papir, er man tvunget til at tage en beslutning, n\u00e5r man naermer sig papirets h\u00f8jre kant: Skal hele det f\u00f8lgende ord flyttes ned p\u00e5 naeste linie, eller skal det deles? Vilk\u00e5rligheden af dette valg understreger, at en orddeling er et n\u00f8dvendigt onde og ikke i sig selv rummer nogen information i modsaetning til fx en indrykket linie, der markerer starten af et nyt afsnit. Det er derfor et rimeligt krav, at informationsindholdet i det delte ord bevares, s\u00e5ledes at orddelinger, der medf\u00f8rer midlertidig forvirring eller permanente misforst\u00e5elser, undg\u00e5s. P\u00e5 trods af dette har den stadigt stigende anvendelse af automatisk tekstbehandlingsudstyr medf\u00f8rt, at megen trykt tekst indeholder et stort antal forkerte orddelinger. Udviklingen er isaer tydelig inden for avisproduktion, hvor korrekturlaesning ofte foreg\u00e5r f\u00f8r ombrydning, og dermed f\u00f8r de automatiske orddelinger er udf\u00f8rt. Nedenst\u00e5ende typiske eksempler p\u00e5 forkerte orddelinger er s\u00e5ledes fundet i de danske aviser Politiken og Ekstra Bladet.", "pdf_parse": { "paper_id": "W79-0104", "_pdf_hash": "", "abstract": [ { "text": "In d le d n in g N\u00e5r man skriver p\u00e5 et stykke papir, er man tvunget til at tage en beslutning, n\u00e5r man naermer sig papirets h\u00f8jre kant: Skal hele det f\u00f8lgende ord flyttes ned p\u00e5 naeste linie, eller skal det deles? Vilk\u00e5rligheden af dette valg understreger, at en orddeling er et n\u00f8dvendigt onde og ikke i sig selv rummer nogen information i modsaetning til fx en indrykket linie, der markerer starten af et nyt afsnit. Det er derfor et rimeligt krav, at informationsindholdet i det delte ord bevares, s\u00e5ledes at orddelinger, der medf\u00f8rer midlertidig forvirring eller permanente misforst\u00e5elser, undg\u00e5s. P\u00e5 trods af dette har den stadigt stigende anvendelse af automatisk tekstbehandlingsudstyr medf\u00f8rt, at megen trykt tekst indeholder et stort antal forkerte orddelinger. Udviklingen er isaer tydelig inden for avisproduktion, hvor korrekturlaesning ofte foreg\u00e5r f\u00f8r ombrydning, og dermed f\u00f8r de automatiske orddelinger er udf\u00f8rt. Nedenst\u00e5ende typiske eksempler p\u00e5 forkerte orddelinger er s\u00e5ledes fundet i de danske aviser Politiken og Ekstra Bladet.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "Det ses, at linie 4 og 7 i \u00f8verste spalte indeholder uacceptabelt store mellemrum, og at den nederste spalte er 1 linie kortere end den \u00f8verste. Konklusionen m\u00e5 derfor vaere, at orddeling er n\u00f8dvendig, dels for at f\u00e5 rimeligt udfyldte linier, dels for at opn\u00e5 en papirbesparelse. I perioden februar -september 1979 har jeg derfor i samarbejde med lektor Bente Maegaard fra Institut for anvendt og matematisk lingvistik, K\u00f8benhavns Universitet, udviklet en algoritme til automatisk deling af danske ord. Denne artikel beskriver dels de metoder, som vi har udviklet til brug for algoritmefremstillingen, dels den faerdige algoritme. Det forudsaettes, at laeseren har et godt kendskab til det danske sprog; endvidere vil kendskab til programmeringssproget Pascal eller et andet ALGOL-lignende sprog vaere \u00f8nskeligt.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null }, { "text": "R e g le r for d a n sk ordd eling M\u00e5let for algoritmeudviklingen er at fremstille en algoritme, der i s\u00e5 mange tilfaelde som muligt deler ordene i overensstemmelse med de regler for dansk orddeling, der er angivet i Retskrivningsordbogen [ 1 ]. Form\u00e5let med dette afsnit er at analysere reglerne for at klarg\u00f8re i hvor stort omfang, de lader sig implementere p\u00e5 en datamat. i) \"Sammensatte ord deles efter deres bestanddele, n\u00e5r disse er let kendelige.\" P\u00e5 dansk kan sammensatte ord frit dannes ved at skrive de to ord, der danner sammensaetningen, uden et adskillende mellemrum, hvorimod man fx p\u00e5 engelsk i stor udstraekning beholder mellemrummet eller anvender en bindestreg. P\u00e5 trods af reglens klarhed er der derfor store vanskeligheder forbundet med maskinelt at afg\u00f8re, om et ord er sammensat.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "3i", "sec_num": null }, { "text": "ii) \"Afledninger deles ligesom sammensaetninger efter deres bestanddele, n\u00e5r disse er let kendelige.\" Reglen er en parallel til i); men den er mindre konsekvent, idet det er usikkert, hvorn\u00e5r en afledning er \"let kendelig\". Antallet af afledningselementer, affikser,'* er dog ret begraenset, hvorfor denne regel kan implementeres, hvis det er muligt at opstille fuldstaendige lister over de affikser, der accepteres som let kendelige.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "3i", "sec_num": null }, { "text": "iii) \"For usammensatte ord gaelder f\u00f8lgende regler:\" 1) \"En medlyd mellem to selvlyd skrives sammen med den sidste selvlyd.\" Denne regel kan umiddelbart implementeres; men der er dog, som bemaerket af Spang Hanssen [ 2 ], en tradition for at skrive konsonanten x sammen med den f\u00f8rste vokal. 2) \"Af to medlyd mellem selvlyd g\u00e5r en til hver linie; ...\" Implementation af denne simple regel vanskeligg\u00f8res af f\u00f8lgende undtagelser (isaer b) og c)): a) \"sk, sp, st kan g\u00e5 sammen til ny linie.\" Der er tradition for at udnytte denne mulighed, der uden vanskelighed kan implementeres. b) \"I ord, der ikke har tryk p\u00e5 f\u00f8rste stavelse, g\u00e5r begge medlyd til den trykstaerke Regel ii) kraever, at afledninger deles efter deres bestanddele, n\u00e5r disse er let kendelige. Det er ikke muligt at give en praecis definition af, hvorn\u00e5r en afledning er \"let kendelig\"; men det er dog muligt at opstille en liste med et ret begraenset antal elementer, der accepteres som \"let kendelige\" afledninger af vide kredse. Det er derfor muligt ved hjaelp af affikslister at implementere denne regel s\u00e5ledes, at der opst\u00e5r meget f\u00e5 fejl. ............................................................... 5.000 ord Ialt ................................................................................ 358.000 Resultatet af analysen er en 20 x 20 matriks, der for hver konsonantkombination angiver, om der skal deles til venstre, mellem eller til h\u00f8jre for de to konsonanter. Endelig indeholder matricen oplysninger om de kombinationer, der er usikre; anvendelsen af denne oplysning vil blive forklaret senere.", "cite_spans": [], "ref_spans": [ { "start": 1110, "end": 1279, "text": "............................................................... 5.000 ord Ialt ................................................................................ 358.000", "ref_id": null } ], "eq_spans": [], "section": "3i", "sec_num": null }, { "text": "Ved kombinationer af tre og flere konsonanter er mulighederne s\u00e5 talrige, at det ikke er hensigtsmaessigt p\u00e5 tilsvarende m\u00e5de at opstille en matriks i tre eller flere dimensioner. Dette skyldes dels s\u00e5danne matricers mange elementer, dels at de fleste konsonantkombinationer er utaenkelige i praksis og derfor uinteressante. I stedet har vi ud fra analysen af materialet opstillet en endelig tilstandsautomat, hvor man -populaert sagt -kun registrerer de kombinationer, som man er interesseret i. For at begraense automatens st\u00f8rrelse indeholder den ikke de konsonantkombinationer, som man kan dele korrekt ved at anvende den tidligere omtalte tokonsonantmatriks p\u00e5 de to konsonanter umiddelbart foran den anden vokal. Et eksempel er ordet overblik, hvor matricen giver delingen -b l og dermed over-blik.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Tilstandsautomat", "sec_num": null }, { "text": "Der er dog stadig mange kombinationer, som m\u00e5 klares ved en tre-eller endda firkonsonantanalyse. Mange kombinationer forekommer kun i sammensaetninger, hvorfor mange sammensatte ord bliver delt korrekt netop p\u00e5 grund af automaten. Nedenfor vises den lille del af automaten, der finder en orddeling i alle konsonantkombinationer, der indledes med konsonanterne Is.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Tilstandsautomat", "sec_num": null }, { "text": "2. R E C K U -N y t er en brugerorientering, der u d se n d e s ca. 1 0 g a n g e \u00e5rligt af R E C K U . D et R eg ion ale Edb>center ved K \u00f8 b e n h a v n s Universitet.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Tilstandsautomat", "sec_num": null }, { "text": "3. Forskellige b\u00f8jningsform er af sa m m e ord stam m e regn es i d enne forbindelse for forskellige ord.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Tilstandsautomat", "sec_num": null }, { "text": "Proceedings of NODALIDA 1979", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "37", "sec_num": null }, { "text": "Dansk orddeling f\u00f8lger ligesom fx fransk et fonetisk princip, hvorfor den konsonantkombination, der forekommer efter delestregen, skal kunne forekomme i begyndelsen af et ord. N\u00e5r man derfor ved en af de ovenfor naevnte metoder har fundet en orddeling, unders\u00f8ges om kombinationen er lovlig. Er dette ikke tilfaeldet, flyttes bindestregen mod h\u00f8jre, indtil kravet er opfyldt. Denne fonetiske kontrol forhindrer isaer de fejl, der opst\u00e5r ved fors\u00f8g p\u00e5 genkendelse af et affiks, hvor den genkendte tegnf\u00f8lge i det givne ord viser sig at indg\u00e5 i en ganske anden sammenhaeng. Et eksempel er ordet angsten, hvor praefikset an genkendes og ordet derfor deles a n^g ste n . Den fonetiske kontrol sikrer, at g s ikke forekommer efter delestregen, og delingen rettes derfor til a n g s t e n .", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "F o n e tisk kontrol", "sec_num": null }, { "text": "Vi vil i det f\u00f8lgende sammenfatte de hidtil omtalte metoder under betegnelsen de algoritm iske m etoder. Selvom disse metoder forfines, vil der stadig findes ord, der ikke deles korrekt. For alligevel at kunne dele s\u00e5danne ord rigtigt opbygges en und ta gelsesordb og, der indeholder alle de ord, som erfaringsmaessigt giver anledning til fejl. P\u00e5 grund af det store antal opslag i en s\u00e5dan ordbog er det vigtigt, at den organiseres s\u00e5ledes, at s\u00f8gning er effektiv; specielt skal s\u00f8gning efter ord, der ikke findes i ordbogen, vaere effektiv. Dette opn\u00e5s ved at benytte en s\u00e5kaldt hashteknik. Algoritmen har i linie 3 -5 arbejdet p\u00e5 hele ordet; men i linie 6-22 findes en l\u00f8kke, som anvendes til at finde delepunkter mellem de enkelte stavelser. Betingelsen for at der findes et delepunkt mellem to stavelser i denne l\u00f8kke er, at der ikke allerede i linie 3 -5 er registreret et delepunkt mellem de p\u00e5gaeldende stavelser. I linie 8 genneml\u00f8bes to affikslister, hvor den ene indeholder de affikser, som der skal deles efter, medens den anden best\u00e5r af de affikser, som der skal deles f\u00f8r. Hvis et s\u00e5dant affiks ikke 39 Proceedings of NODALIDA 1979 genkendes, antages stavelsen at vaere en del af et usammensat ord, og der foreg\u00e5r derfor en opsplitning efter antallet af konsonanter ved hjaelp af CASE-saetningen i linie 11.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "U n d ta g e lse so rd b o g", "sec_num": null }, { "text": "Det tilfaelde, hvor der ikke findes nogen konsonanter mellem de to vokaler, der afgraenser stavelsen, behandles i linie 12. Et s\u00e5dant v o k a lsa m m e n st\u00f8 d kan altid deles i oprindeligt danske ord; men i mange fremmedord betegner de to vokaler en diftong, som ikke kan deles. For eksempel kan hverken ea eller au deles i ordet niveau. Der er derfor opbygget en lille tabel, der angiver mellem hvilke vokaler, en deling er tilladelig. Tilfaeldet 1 konsonant klares umiddelbart i linie 13, medens tilfaeldet 2 konsonanter l\u00f8ses ved opslag i tokonsonantmatricen. Ved tre eller flere konsonanter anvendes tilstandsautomaten; indeholder den ingen l\u00f8sning, anvendes tokonsonantmatricen p\u00e5 de to konsonanter umiddelbart f\u00f8r den anden vokal. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "U n d ta g e lse so rd b o g", "sec_num": null }, { "text": "Da automatisk orddeling er en kilde til fejl, b\u00f8r orddelingsalgoritmen ikke aktiveres, hvis man uden orddeling kan opn\u00e5 en linie af typografisk acceptabelt udseende. Man kan ved hjaelp af f\u00f8lgende fire parametre styre dels antallet af delinger, dels udseendet af disse: 1) Aktiv eller passiv 2) Relativ spildfaktor 5. RECKU er en forkortelse for Det Regionale Edb-center ved K\u00f8benhavns Universitet.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Param etre ti! orddelingsalgoritm en", "sec_num": null }, { "text": "3) Sikkerhedsniveau 4) Minimum antal tegn f\u00f8r og efter delestreg F\u00f8rste parameter giver mulighed for at hindre, at orddelingsalgoritmen aktiveres. Dette har isaer betydning, hvis kildesproget ikke er dansk, da algoritmen er uanvendelig til andre sprog end dansk.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Proceedings of NODALIDA 1979", "sec_num": null }, { "text": "Anden parameter, den relative spildfaktor, angiver den procentdel af linien, der skal vaere ubrugt f\u00f8r orddelingsalgoritmen aktiveres. Angives en stor spildfaktor, f\u00e5s f\u00e5 orddelinger men til gengaeld ogs\u00e5 en \"l\u00f8s\" og dermed u\u00f8konomisk sats; omvendt vil man ved en lille spildfaktor f\u00e5 en \"taet\" sats med mange delinger. Den bedste spildfaktor afhaenger af personlig smag; men en vaerdi mellem 5 og 10 procent giver saedvanligvis gode resultater. Det er vaesentligt, at spildfaktoren er relativ: En lang linie giver bedre mulighed for at fordele en vis uudnyttet plads end en kort linie.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Proceedings of NODALIDA 1979", "sec_num": null }, { "text": "Ved omtalen af tokonsonantmatricen blev det naevnt, at visse kombinationer bliver registreret som usikre; men ogs\u00e5 nogle f\u00e5 konsonanter i enkonsonantforbindelser samt enkelte kombinationer i tilstandsautomaten er registreret som usikre. Ved at angive et sikkerh ed sniv ea u for orddelinger kan man undg\u00e5, at ord deles i usikre delepunkter, og man kan ligeledes vaelge kun at dele ord i sikre delepunkter, hvortil regnes forekomster af bindestreg, komma eller skr\u00e5streg i ordet. Sidste mulighed har isaer betydning for engelsk, hvor man p\u00e5 denne m\u00e5de har mulighed for at dele alle de sammensaetninger, der er dannet ved hjaelp af en bindestreg.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Proceedings of NODALIDA 1979", "sec_num": null }, { "text": "Sidste parameter angiver det minimale antal bogstaver, der skal findes s\u00e5vel f\u00f8r som efter delepunktet. Der er almindelig enighed om, at to bogstaver m\u00e5 vaere minimum; men et minimum p\u00e5 tre tegn foretraekkes undertiden. PHOTODOC praesenterer alle orddelinger for brugeren, idet der indsaettes et blanktegn p\u00e5 det sted i ordet, hvor datamaten mener, at ordet skal deles. Stjernen indsaettes for at markere den del af ordet, der maksimalt kan st\u00e5 f\u00f8r delestregen. Det f\u00f8rste delte ord i eksemplet, tekstbehandling, vil datamaten s\u00e5ledes dele tekstbe-handling, og delestregen kan ikke indsaettes senere end efter h. Accepteres orddelingen, trykker brugeren blot p\u00e5 vognreturknappen, i modsat fald skrives ordet med et blanktegn indsat p\u00e5 det sted, hvor ordet \u00f8nskes delt. Et eksempel er vist ved ordet trykfaerdig, som brugeren \u00f8nsker delt tryk-faerdig. Af effektivitetsgrunde kan den del af ordet, der skrives efter blanktegnet, dog udelades.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Proceedings of NODALIDA 1979", "sec_num": null }, { "text": "Endelig vises eksempler p\u00e5 de to fejl, som brugeren kan beg\u00e5. I det f\u00f8rste tilfaelde fors\u00f8ger man at indsaette en delestreg til h\u00f8jre for maksimumspunktet, og i det andet tilfaelde staves ordet forkert ved rettelsen. I begge tilfaelde udskrives en fejlmeddelse, hvorefter brugeren har mulighed for at rette fejlen. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Proceedings of NODALIDA 1979", "sec_num": null } ], "back_matter": [ { "text": "Da orddelingsalgoritmen som naevnt har en fejlprocent p\u00e5 ca. 1.2, m\u00e5 man ved store tekster regne med at skulle rette nogle forkerte orddelinger i den ombrudte tekst. Imidlertid har man ved hjaelp af en interaktiv kontrol mulighed for at rette forkerte orddelinger i det \u00f8jeblik, de opst\u00e5r. S\u00e5ledes kan man ved kun \u00e9n programudf\u00f8relse opn\u00e5 en ombrudt tekst, der i hvert fald med hensyn til orddelinger er helt korrekt. Nedenfor vises et eksempel p\u00e5 en s\u00e5dan interaktiv kontrol. Den kursiverede tekst er brugerens inddata, medens alt andet udskrives af datamaten. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Interaktiv kontrol", "sec_num": null } ], "bib_entries": {}, "ref_entries": { "FIGREF0": { "type_str": "figure", "text": "er en vaesentlig kilde til fejl, b\u00f8r det unders\u00f8ges, om orddeling overhovedet er n\u00f8dvendig. Nedenfor vises to spalter med tilfaeldig tekst; den f\u00f8rste indeholder ingen orddelinger, hvorimod der i den anden er foretaget orddelinger, hvor der er mulighed", "uris": null, "num": null }, "FIGREF1": { "type_str": "figure", "text": "1. Affiknar ar an fw llash atagiiolso lot priafiksm , iithkstti op HiiKiksar; m an kun pitnlikHar (forstavulser) op suffiksar (altadninpsandalsai) lun iniaiaNHH i ilainn\u00ab M unim m luiM ip 34 Proceedings of NODALIDA 1979 stavelse, hvis de danner en lydforbindelse, der kan forekomme i begyndelsen af et ord.\" Reglen lader sig ikke implementere, idet en datamat ikke ud fra ordets stavem\u00e5de kan afg\u00f8re, hvor trykket ligger. c) \"Efter lang selvlyd kan man skrive begge medlyd sammen med den f\u00f8lgende selvlyd, hvis de danner en lydforbindelse, der kan forekomme i begyndelsen af et ord.\" Heller ikke denne regel kan implementeres, idet det ikke er muligt p\u00e5 baggrund af ordets stavem\u00e5de at afg\u00f8re, om en vokal er lang.3) \"Tre eller flere medlyd behandles s\u00e5dan, at der til den ny linie kun g\u00e5r s\u00e5 mange, som der kan forekomme i begyndelsen af et ord.\" Denne regel kan -m\u00e5ske lidt overraskende -implementeres, idet det er muligt at opstille fuldstaendige lister over de konsonantforbindelser, der kan forekomme reglerne for deling af danske ord er det interessant at unders\u00f8ge, i hvor stort omfang reglerne er i overensstemmelse for andre europaeiske sprog. Nedenfor er derfor anf\u00f8rt en simplificeret version af de danske regler: a) Sammensatte ord deles i deres bestanddele. b) Afledninger deles efter bestanddele. For usammensatte ord: c) Ved 1 konsonant mellem to vokaler skrives konsonanten sammen med den sidste vokal. d) Ved 2 konsonanter mellem to vokaler g\u00e5r en konsonant til hver stavelse. e) Ved 3 eller flere konsonanter skrives h\u00f8jst s\u00e5 mange konsonanter sammen med sidste vokal, som der kan forekomme i begyndelsen af et ord. Det er muligt ved hjaelp af reference [ 1 ] samt [ 3 ] til [ 7 ] at unders\u00f8ge, i hvor h\u00f8j grad ovenst\u00e5ende fem regler er gaeldende for dansk, engelsk, fransk, tysk og svensk. Resultatet er angivet i nedenst\u00e5ende skema, hvor + betyder, at reglen gaelder, ( + ) at reglen gaelder men ikke f\u00f8lges konsekvent eller at der er undtagelser, og -at reglen ikke gaelder. gennemg\u00e5s fem forskellige metoder, som vi har udviklet til automatisk orddeling. Grunden til at der er udviklet ikke mindre end fem forskellige metoder er, at problemet p\u00e5 naturlig m\u00e5de kan opdeles i underproblemer, der hver kraever sin egen metode for at blive l\u00f8st tilfredsstillende. Ligegyldigt hvilken metode, der anvendes i et givet tilfaelde, vil vi kraeve, at den skal give en orddeling, der i s\u00e5 h\u00f8j grad som muligt er i overensstemmelse med de tidligere omtalte regler for dansk orddeling. Metoderne vil i stor udstraekning blive illustreret med 35 Proceedings of NODALIDA 1979 eksempler, i hvilke tegnet -betegner en korrekt orddeling og tegnet ^ en fejlagtig orddeling. A ffiksgenkendelse Regel i) kraever, at sammensatte ord deles i deres bestanddele. Som et eksempel kan naevnes ordet afledningsendelse, der deles a fled ning s-e nd else og ikke afledningi^sendelse, som ville vaere en korrekt orddeling, hvis ordet ikke var sammensat. Det er imidlertid vanskeligt at afg\u00f8re, om et ord er sammensat og i givet fald, hvor det er sammensat. En metode hertil er at genkende et affiks midt i ordet. I f\u00f8rnaevnte eksempel kan man s\u00e5ledes genkende suffikset n in g s og opn\u00e5 en korrekt deling. Nedenfor vises eksempler p\u00e5 suffikser, som det empirisk har vist sig b\u00f8r genkendes. Venstre spalte indeholder affikser, som der kan deles efter, medens h\u00f8jre spalte indeholder de affikser, som der kan deles f\u00f8r. ikke ukritisk fors\u00f8ge at genkende samtlige affikser, som er naevnt i fx Hansen [ 8 ] og Skautrup [ 9 ]. Et eksempel er af, som korrekt genkendes i ordet flertals-afg\u00f8relse, medens genkendelsen f\u00f8rer til fejl i ordet bortski^affe. Ved at afpr\u00f8ve de opstillede affikslister med et omfattende inddatamateriale vil det hurtigt blive klart, hvilke affikser, som med godt resultat kan genkendes.", "uris": null, "num": null }, "FIGREF2": { "type_str": "figure", "text": "Hvis det ikke er muligt at genkende et affiks i ordet, m\u00e5 det deles p\u00e5 baggrund af statistiske resultater. Reglerne for deling af usammensatte ord deler op i tre tilfaelde: 1 konsonant, 2 konsonanter og 3 eller flere konsonanter mellem to vokaler. Det er derfor naturligt, at lade programmet foretage den samme opdeling. I tilfaeldet 1 konsonant skal der if\u00f8lge regel iii) pkt. 1 deles f\u00f8r denne konsonant, og dette p\u00e5bud kan umiddelbart f\u00f8lges. Den eneste undtagelse er konsonanten x, som traditionelt skrives sammen med f\u00f8rste vokal.M a triks for tok onson a ntko m b ina tio ne rHvis der optraeder to konsonanter mellem to vokaler, skal der if\u00f8lge regel iii) pkt.2 deles mellem dem; men p\u00e5 grund af undtagelse b) og c) kan reglen ikke umiddelbart implementeres. Vi har derfor valgt at analysere et omfattende ordmateriale for empirisk at finde det bedste delepunkt for hver af de 400 mulige konsonantkombinationer. Da analysens kvalitet naturligvis afhaenger af det valgte analysemateriale, er det vigtigt, at dette vaelges med omhu. Et umiddelbart valg er en ordbog som fx Nudansk Ordbog [ 10 ], der findes p\u00e5 maskinlaesbar form. Imidlertid er et ordbogsmateriale uegnet af to grunde: Antallet af sammensatte ord i fx Nudansk Ordbog er forsvindende i forhold til antallet af mulige sammensaetninger, og som tidligere naevnt er det netop sammensaetninger, der virkelig volder problemer. Den anden grund er, at frekvensen i naturlig tekst af et givet ord fuldstaendig ignoreres i ordbogsmaterialet. Dette betyder, at man kan risikere at vaelge en orddeling ud fra et antal ord, som forekommer sjaeldent i naturlig tekst. Ved i stedet at vaelge orddelingen ud fra faerre, men ofte forekommende ord vil man opn\u00e5 faerre 36 Proceedings of NODALIDA 1979 fejl ved deling af ord i en naturlig tekst. Vi har derfor valgt at samle et analysemateriale, som indeholder ord fra et stort antal forskellige tekster som vist i nedenst\u00e5ende skema: Dansk prosa .................................................................... 250.000 ord Avisartikler ..........................................................................20.000 ord RECKU-Nyt2' ...................................................................... 50.000 ord \u00d8konomiske R\u00e5ds rapport ....................................................... 22.000 ord Matematisk fagtekst ...............................................................11.000 ord Geologisk fagtekst .", "uris": null, "num": null }, "FIGREF3": { "type_str": "figure", "text": "ord \"Dansk prosa^daekker over tekstpr\u00f8ver fra mange forskellige danske forfattere, hvis b\u00f8ger er blevet udgivet i de senere \u00e5r. Materialet indeholder i alt 358.000 ord, hvoraf de 35.000 er forskellige.Til sammenligning kan naevnes, at Nudansk Ordbog indeholder ca. 51 .OOO ord. Ved analysen af tokonsonantkombinationer viser det sig, at man kan finde sikre delepunkter for langt de fleste kombinationer, fx: en raekke kombinationer, som er umulige b\u00e5de som initial-og som finalkombinationer. Forekommer en s\u00e5dan kombination midt i et ord, kan man med sikkerhed dele mellem de to konsonanter, fordi ordet da m\u00e5 vaere sammensat. Som et eksempel kan naevnes", "uris": null, "num": null }, "FIGREF4": { "type_str": "figure", "text": "For en naermere beskrivelse af teknikken henvises til Filsystemer og databaser [11].Som et kuriosum kan naevnes, at selv med anvendelse af en undtagelsesordbog vil homografer'^' kunne f\u00f8re til forkerte orddelinger. Et eksempel er vandrende, som deles van-drende, hvis det er praesens participium af verbet vandre, medens det deles vand-rende,4. H om ografe r er forskellige ord, der har fae lles stavem \u00e5de.38Proceedings of NODALIDA 1979 hvis det er et substantiv. Vi har hidtil kun beskaeftiget os med analyse af enkelte ord; men dette problem kan kun l\u00f8ses ved en syntaktisk analyse af hele den saetning, hvori ordet indg\u00e5r.D e n k o m p le tte algo ritm eForm\u00e5let med dette afsnit er at vise, hvorledes de fem metoder, som er omtalt i forrige afsnit, kan kombineres til en komplet algoritme. Desuden omtales nogle detaljer, som ikke er af principiel art og derfor ikke har vaeret omtalt tidligere. Algoritmen, der i denne udformning laeser ord fra en datakilde og finder samtlige mulige delepunkter i disse, er skitseret nedenfor i co n so n a n ts of 12 0: if divisible! sy lla b le ) then sa v e^h y p h e n ; de sikre delesteder, hvorved vi forst\u00e5r forekomster af tegnene eller '/'. Det forekommer os indlysende, at et ord som d ansk-tysk skal deles efter bindestregen; men p\u00e5 trods heraf genkender mange orddelingsalgoritmer ikke bindestreger, hvilket naturligvis f\u00f8rer til besynderligt udseende delinger. Grunden til at der deles efter et komma er, at der i visse tekster ikke er indsat et blanktegn efter kommaet. Ligeledes anvendes skr\u00e5stregen undertiden til at danne sammensatte ord som fx input/output. I linie 4 sl\u00e5s ordet op i undtagelsesordbogen, og hvis det findes, registreres de delepunkter, som ordbogen angiver. I linie 5 s\u00f8ges efter et praefiks i en saerlig praefiksliste. Dette skyldes, at det ved analysen af affikser viste sig, at der findes mange praefikser, som med fordel kan genkendes f\u00f8rst i et ord men ikke midt i et ord. For ikke at miste disse ret sikre orddelinger samledes s\u00e5danne praefikser i praefikslisten.", "uris": null, "num": null }, "FIGREF5": { "type_str": "figure", "text": "er mere kompleks end tilsvarende algoritmer, som vi har f\u00e5et kendskab til. Det er derfor interessant at unders\u00f8ge, om resultatet er s\u00e5 meget bedre, at den for\u00f8gede programkompleksitet kan betale sig. Nedenfor vises de fejlprocenter, som opn\u00e5s med den faerdige algoritme.Uden ordbog ............................................................. 1.8 % fejl Med ordbog ............................................................. 1.2 % fejl Fejlprocenten uden ordbog er m\u00e5lt p\u00e5 hele analysematerialet (358.000 l\u00f8bende ord), medens fejlprocenten med ordbog er m\u00e5lt p\u00e5 tilfaeldige avisartikler, da det oprindelige analysemateriale er blevet brugt ved opbygning af undtagelsesordbogen. Tallene virker m\u00e5ske ikke umiddelbart imponerende, men der er to faktorer, som skal med i vurderingen. For det f\u00f8rste er resultatet klart bedre end tilsvarende, kommercielt udviklede programmer. Politiken haevder s\u00e5ledes, at deres program giver en fejlprocent p\u00e5 3, og leverand\u00f8rer af tekstbehandlingsprogrammel er stolte af at markedsf\u00f8re algoritmer, der har en fejlprocent p\u00e5 2; men vores algoritme er med 1.2 % naesten dobbelt s\u00e5 god. For det andet indeholder undtagelsesordbogen p\u00e5 nuvaerende tidspunkt kun ca. 1000 ord, og en fuldt udbygget ordbog vil bevirke, at fejlprocenten falder til et niveau, hvor fejlene hovedsagelig skyldes nye sammensatte ord. A n v e n d e lse i te k stb e h a n d lin g sp ro g ra m m e l Jeg har i nogle \u00e5r beskaeftiget mig med udvikling af et tekstbehandlingssystem kaldet PHOTODOC, der anvendes ved fremstilling af sats p\u00e5 RECKU's^' fotosaetter. Ved dette arbejde viste der sig et stort behov for en algoritme til at dele danske ord, og det er grunden til, at jeg begyndte at udvikle orddelingsalgoritmen. Imidlertid er en fleksibel graenseflade mellem orddelingsprogrammet og det \u00f8vrige tekstbehandlingssystem en forudsaetning for, at man f\u00e5r det fulde udbytte af orddelingsalgoritmen. I det f\u00f8lgende beskrives derfor, hvorledes algoritmen kan indbygges i et tekstbehandlingssystem, s\u00e5ledes at en h\u00f8j grad af fleksibilitet opn\u00e5s.", "uris": null, "num": null }, "FIGREF6": { "type_str": "figure", "text": "at udvikle en orddelingsalgoritme, som er klart bedre end de hidtil kendte algoritmer til deling af danske ord. Algoritmen har vist sin anvendelighed i praksis og giver if\u00f8lge brugerudsagn en signifikant besparelse i forhold til manuel orddeling. Efter min mening er en vaesentlig \u00e5rsag til de gode resultater samarbejdet med en lingvist, der bevirkede, at vi under algoritmeudviklingen betragtede b\u00e5de lingvistiske og datalogiske aspekter. Anvendelsen af lingvistik sikrede dels, at vi fx gennem affiksgenkendelse ikke ignorerede ordenes sproglige struktur, dels at vi opbyggede et daekkende analysemateriale. Anvendelsen af datalogi f\u00f8rte til en programstruktur, der n\u00f8je afspejler de regler for dansk orddeling, som har vaeret vort arbejdsgrundlag. Under udviklingen har det derfor vaeret muligt at omskrive eller forfine et enkelt modul uden at ber\u00f8re programmets \u00f8vrige moduler, hvorfor det har vaeret tidsmaessigt overkommeligt at eksperimentere med forskellige l\u00f8sningsmuligheder. Dette arbejde er s\u00e5ledes et eksempel p\u00e5 de gode resultater, der kan opn\u00e5s gennem et konstruktivt", "uris": null, "num": null } } } }