Edit model card

You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

Übersicht

NetworkPlus ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert.

Funktionen

  • Sprachunterstützung: Optimiert für deutsche Texte.
  • Anwendungsbereiche:
    • Netzwerktechnologie
    • IT-Infrastruktur
    • Industrie 4.0

Modell-Details

  • Format: safetensors
  • Parameter: 406M
  • Architektur: Seq2Seq (BART)

Nutzung

Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden.

Beispielcode

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM 

tokenizer = AutoTokenizer.from_pretrained("Babakiiiii/NetworkPlus") 
model = AutoModelForSeq2SeqLM.from_pretrained("Babakiiiii/NetworkPlus")

text = "Das ist ein Beispieltext, der zusammengefasst werden soll." 
inputs = tokenizer(text, return_tensors="pt", truncation=True) 
outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4) 
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(summary)

Installation
Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus:

Installieren Sie die Hugging Face Transformers-Bibliothek:
pip install transformers

Laden Sie das Modell und den Tokenizer herunter:
from transformers import AutoModel, AutoTokenizer

model = AutoModel.from_pretrained("Babakiiiii/NetworkPlus")
tokenizer = AutoTokenizer.from_pretrained("Babakiiiii/NetworkPlus")

Lizenz
Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.
Downloads last month
353
Safetensors
Model size
406M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for BabakBagheriGisour/NetworkPlus

Finetuned
(300)
this model

Space using BabakBagheriGisour/NetworkPlus 1