roberta-base-bne-squad2-es
somosnlp-hackathon-2022
Pregunta y respuesta
Este modelo es una versión afinada de PlanTL-GOB-ES/roberta-base-bne en el conjunto de entrenamiento squad_es(v2). Este modelo está diseñado para tareas de pregunta-respuesta y se basa en la arquitectura de transformers.
Como usar
Para usar este modelo, se puede seguir el siguiente ejemplo en código markdown:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = "somosnlp-hackathon-2022/roberta-base-bne-squad2-es"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
context = "Isaac Peral fue un murciano que inventó el submarino"
question = "¿Quién inventó el submarino?"
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
# Los resultados se pueden procesar según sea necesario
eval_exact = 62.13526733007252
eval_f1 = 69.38515019522332
Funcionalidades
- Preguntas y respuestas
- Basado en Transformers
- Compatibilidad con PyTorch
- Compatibilidad con Safetensors
- Entrenado en el dataset squad_es
- Tamaño de modelo 124M parámetros
- Optimizado para el idioma español
Casos de uso
- Responder preguntas basadas en un contexto proporcionado
- Automatizar sistemas de servicio al cliente
- Mejorar experiencias de usuario en chatbots
- Búsqueda de información en grandes conjuntos de datos