Holger-7B-v0.1 / README.md
trollek's picture
Update README.md
4af3420 verified
metadata
license: apache-2.0
datasets:
  - trollek/Danoia-v01
  - trollek/ProbingPanoia-v01
  - trollek/Panoia-v02
  - smangrul/ultrachat-10k-chatml
  - Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k
language:
  - da
  - en
base_model:
  - LumiOpen/Viking-7B
  - mpasila/Viking-Magnum-v0.1-7B
  - mpasila/Viking-SlimSonnet-v1-7B
library_name: transformers
tags:
  - mergekit
  - merge
Android Vikingen Holger

Du har fundet Holger!

Det er forrykt at danske open source sprogmodeller halter lidt; æøå be damned! Og nok også andre ting, men [A-ZÆØÅa-zæøå] giver kronisk mentaleksem. Anyway!

HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for.

Sprogmodellens beskrivelse

Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa...

Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Maybe.

Kvanter

Merge Detaljer

Merge Metode

Denne model er merged med della_linear metoden og med LumiOpen/Viking-7B som base.

Modeller Merged

Følgende modeller er brugt i dette merge:

Konfiguration

Følgende YAML konfigurationsfil blev brugt til at skabe dette merge:

models:
  - model: viking/merges/holger3
    parameters:
      weight: 0.53
      density: 0.55
      epsilon: 0.11
  - model: viking/merges/holger5
    parameters:
      weight: 0.78
      density: 0.81
      epsilon: 0.17
  - model: mpasila/Viking-Magnum-v0.1-7B
    parameters:
      weight: 0.88
      density: 0.91
      epsilon: 0.07
  - model: mpasila/Viking-SlimSonnet-v1-7B
    parameters:
      weight: 0.83
      density: 0.75
      epsilon: 0.11
merge_method: della_linear
base_model: LumiOpen/Viking-7B
parameters:
  normalize: true
  int8_mask: true
  lambda: 1.08
dtype: bfloat16