--- license: apache-2.0 datasets: - trollek/Danoia-v01 - trollek/ProbingPanoia-v01 - trollek/Panoia-v02 - smangrul/ultrachat-10k-chatml - Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k language: - da - en library_name: transformers base_model: - LumiOpen/Viking-7B --- # Du har fundet Holger! > Fordi Husskade var et kedeligt navn. For at kunne lave datasæt på dansk er Magpie self-align en nem måde at lave en masse prompts på, og de kan jo gives til hvad end model man nu føler for. Det er *forrykt* at danske open source sprogmodeller halter lidt; **æøå** be damned! Og nok også andre ting, men \[A-ZÆØÅa-zæøå\] giver kronisk mentaleksem. **Anyway!** HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for. ## Sprogmodellens beskrivelse > Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa... Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Jeg er ikke polyglot selvom norsk eller svensk ville være en cheesing måde at opnå det specifikke skill set. Faktisk var jeg næsten fornærmet over at et Magnum finetune var klar på at skrive på dansk 85% af tiden - "Hvad i alverden egentlig?" tænkte jeg. Så jeg lavede Danoia-v01 fordi jeg er så pisse sjov. Harhdidarh *slow clap*. Meta var jo brugt allerede før Zhucky af Grækere, så Pan-\ var det næste punkt på listen. Hvad rimer på Pan? Dan! EZ mode, mester! 4k kontekst kan måske gøres bedre, men LongRoPE osv er lovende, så det er stadig bare min 4. klasse tysklærer der holder mig vågen om natten. Noget der får mig til at sove trygt er at jeg har trænet Holger på input. Husskaden Holger ohøj.