mdeberta-v3-base-germansquad

adresolo
Pregunta y respuesta

Bienvenido al repositorio del modelo alemán mdeberta-base-v3 afinado en el conjunto de datos GermanSQuAD para la tarea de respuesta a preguntas extractivas (QA). Este modelo tiene como objetivo proporcionar una solución efectiva para extraer respuestas de texto en alemán, aprovechando las capacidades robustas del modelo de lenguaje mdeberta-base-v3.

Como usar

Para usar este modelo para respuesta a preguntas extractivas en alemán, puede cargarlo usando la biblioteca Hugging Face Transformers. A continuación se muestra un ejemplo rápido de cómo hacerlo:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = "adresolo/mdeberta-v3-base-germansquad"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

# Ejemplo de pregunta y contexto
question = "Was ist das Hauptziel der QA-Aufgabe?"
context = "Die Hauptaufgabe der Fragebeantwortung (QA) ist es, aus einem gegebenen Kontext die genaue Antwort auf eine gestellte Frage zu extrahieren."

inputs = tokenizer(question, context, return_tensors='pt')
answer_start_scores, answer_end_scores = model(**inputs)

# Decodificación de la respuesta predicha
answer_start = torch.argmax(answer_start_scores) # La posición de inicio de su respuesta
answer_end = torch.argmax(answer_end_scores) + 1 # La posición final de su respuesta

answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs['input_ids'][0][answer_start:answer_end]))

print("Predicted answer:", answer)

Descargas el mes pasado: 11 Modelo Safetensors Tamaño del modelo: 278M parámetros Tipo de tensor: F32

Funcionalidades

Modelo de lenguaje: mdeberta-base-v3
Idioma: Alemán
Tarea: Respuesta a preguntas extractivas
Datos de entrenamiento: GermanSQuAD
Datos de evaluación: SQuAD (traducido al alemán)

Casos de uso

Responder preguntas extractivas en textos alemanes