roberta-base-bne-squad2-es

somosnlp-hackathon-2022
Pregunta y respuesta

Este modelo es una versión afinada de PlanTL-GOB-ES/roberta-base-bne en el conjunto de entrenamiento squad_es(v2). Este modelo está diseñado para tareas de pregunta-respuesta y se basa en la arquitectura de transformers.

Como usar

Para usar este modelo, se puede seguir el siguiente ejemplo en código markdown:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = "somosnlp-hackathon-2022/roberta-base-bne-squad2-es"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

context = "Isaac Peral fue un murciano que inventó el submarino"
question = "¿Quién inventó el submarino?"
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

# Los resultados se pueden procesar según sea necesario
eval_exact = 62.13526733007252
eval_f1 = 69.38515019522332

Funcionalidades

Preguntas y respuestas
Basado en Transformers
Compatibilidad con PyTorch
Compatibilidad con Safetensors
Entrenado en el dataset squad_es
Tamaño de modelo 124M parámetros
Optimizado para el idioma español

Casos de uso

Responder preguntas basadas en un contexto proporcionado
Automatizar sistemas de servicio al cliente
Mejorar experiencias de usuario en chatbots
Búsqueda de información en grandes conjuntos de datos