mrm8488/bert-multi-cased-finetuned-xquadv1
mrm8488
Pregunta y respuesta
Este modelo fue creado por Google y afinado en datos similares a XQuAD para la tarea de Preguntas y Respuestas multilingüe (11 idiomas diferentes). Está basado en el modelo 'bert-base-multilingual-cased' y adaptado para responder preguntas en múltiples idiomas usando el conjunto de datos XQuAD.
Como usar
Uso rápido con pipelines:
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-multi-cased-finetuned-xquadv1",
tokenizer="mrm8488/bert-multi-cased-finetuned-xquadv1"
)
# contexto: El coronavirus está sembrando pánico en Occidente porque se expande muy rápido.
# pregunta: ¿Dónde está sembrando pánico el coronavirus?
qa_pipeline({
'context': "कोरोनावायरस पश्चिम में आतंक बो रहा है क्योंकि यह इतनी तेजी से फैलता है।",
'question': "कोरोनावायरस घबराहट कहां है?"
})
# resultado: {'answer': 'पश्चिम', 'end': 18, 'score': 0.7037217439689059, 'start': 12}
qa_pipeline({
'context': "Manuel Romero ha estado trabajando mucho en el repositorio hugginface/transformers últimamente",
'question': "¿Quién ha estado trabajando mucho para hugginface/transformers últimamente?"
})
# resultado: {'answer': 'Manuel Romero', 'end': 13, 'score': 0.7254485993702389, 'start': 0}
qa_pipeline({
'context': "Manuel Romero a travaillé à peine dans le référentiel hugginface / transformers ces derniers temps",
'question': "Pour quel référentiel a travaillé Manuel Romero récemment?"
})
# resultado: {'answer': 'hugginface / transformers', 'end': 79, 'score': 0.6482061613915384, 'start': 54}
Pruébalo en un Colab:
Funcionalidades
- Modelo multilingüe para Preguntas y Respuestas
- Afinado en datos similares a XQuAD
- Soporta 11 diferentes idiomas
- Basado en BERT (base-multilingual-cased)
Casos de uso
- Respuestas a preguntas multilingües
- Transferencia cruzada de representaciones monolingües
- Inferencia rápida de preguntas y respuestas