license: apache-2.0
datasets:
- trollek/Danoia-v01
- trollek/ProbingPanoia-v01
- trollek/Panoia-v02
- smangrul/ultrachat-10k-chatml
- Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k
language:
- da
- en
base_model:
- LumiOpen/Viking-7B
- mpasila/Viking-Magnum-v0.1-7B
- mpasila/Viking-SlimSonnet-v1-7B
library_name: transformers
tags:
- mergekit
- merge
Du har fundet Holger!
Det er forrykt at danske open source sprogmodeller halter lidt; æøå be damned! Og nok også andre ting, men [A-ZÆØÅa-zæøå] giver kronisk mentaleksem. Anyway!
HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for.
Sprogmodellens beskrivelse
Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa...
Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Maybe.
Kvanter
Merge Detaljer
Merge Metode
Denne model er merged med della_linear metoden og med LumiOpen/Viking-7B som base.
Modeller Merged
Følgende modeller er brugt i dette merge:
- viking/merges/holger5
- viking/merges/holger3
- mpasila/Viking-Magnum-v0.1-7B
- mpasila/Viking-SlimSonnet-v1-7B
Konfiguration
Følgende YAML konfigurationsfil blev brugt til at skabe dette merge:
models:
- model: viking/merges/holger3
parameters:
weight: 0.53
density: 0.55
epsilon: 0.11
- model: viking/merges/holger5
parameters:
weight: 0.78
density: 0.81
epsilon: 0.17
- model: mpasila/Viking-Magnum-v0.1-7B
parameters:
weight: 0.88
density: 0.91
epsilon: 0.07
- model: mpasila/Viking-SlimSonnet-v1-7B
parameters:
weight: 0.83
density: 0.75
epsilon: 0.11
merge_method: della_linear
base_model: LumiOpen/Viking-7B
parameters:
normalize: true
int8_mask: true
lambda: 1.08
dtype: bfloat16