mrm8488/distil-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es
mrm8488
Pregunta y respuesta
Este modelo es una versión afinada en SQuAD-es-v2.0 y destilada de BETO para preguntas y respuestas (Q&A). La distilación hace que el modelo sea más pequeño, rápido, barato y ligero que bert-base-spanish-wwm-cased-finetuned-spa-squad2-es. Este modelo fue afinado en el mismo conjunto de datos pero utilizando distilación durante el proceso, como se mencionó anteriormente (y una más epoch de entrenamiento). El modelo maestro para la distilación fue bert-base-multilingual-cased. Es el mismo maestro utilizado para distilbert-base-multilingual-cased, también conocido como DistilmBERT (en promedio es el doble de rápido que mBERT-base).
Como usar
Uso rápido con pipelines:
from transformers import *
# ¡Importante!: Por ahora, el pipeline de preguntas y respuestas no es compatible con el tokenizador rápido, pero están trabajando en ello. Así que pasa el objeto al tokenizador {'use_fast': False} como en el siguiente ejemplo:
nlp = pipeline('question-answering',
model='mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es',
tokenizer=('mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es', {'use_fast': False})
)
nlp(
{
'question': '¿Para qué lenguaje está trabajando?',
'context': 'Manuel Romero está colaborando activamente con huggingface/transformers para traer el poder de las últimas técnicas de procesamiento de lenguaje natural al idioma español'
}
)
# Output: {'answer': 'español', 'end': 169, 'score': 0.67530957344621, 'start': 163}
Funcionalidades
- Versión afinada en SQuAD-es-v2.0
- Modelo destilado de BETO
- Más pequeño, rápido, barato y ligero
- Maestro de distilación: bert-base-multilingual-cased
Casos de uso
- Solución de preguntas y respuestas (Q&A)
- Procesamiento de lenguaje natural en idioma español