bert-base-spanish-wwm-cased-finetuned-squad2-es

MMG
Pregunta y respuesta

Este modelo es una versión ajustada de dccuchile/bert-base-spanish-wwm-cased en el conjunto de datos squad_es. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2841, Exactitud: 62.53162421993591, F1: 69.33421368741254.

Como usar

Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumente su visibilidad social y verifique más tarde, o despliegue en Puntos de Inferencia (dedicados).

# Código de ejemplo de uso
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='MMG/bert-base-spanish-wwm-cased-finetuned-squad2-es')
contexto = "El contexto del párrafo para las preguntas."
pregunta = "La pregunta a responder sobre el contexto."
respuesta = qa_pipeline({'question': pregunta, 'context': contexto})
print(respuesta)

Funcionalidades

Ajustado en el conjunto de datos squad_es
Basado en el modelo bert-base-spanish-wwm-cased
Utiliza las versiones de framework Transformers 4.14.1, Pytorch 1.10.0+cu111, Datasets 1.17.0, Tokenizers 0.10.3

Casos de uso

Respuestas a preguntas en español
Análisis de texto en español
Aplicaciones de procesamiento de lenguaje natural para el español