bert-multi-uncased-finetuned-xquadv1
mrm8488
Pregunta y respuesta
BERT (base-multilingual-uncased) ajustado para preguntas y respuestas multilingües. Este modelo fue creado por Google y ajustado con datos similares a XQuAD para la tarea de preguntas y respuestas en 11 idiomas diferentes.
Como usar
Uso rápido con pipelines:
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-multi-uncased-finetuned-xquadv1",
tokenizer="mrm8488/bert-multi-uncased-finetuned-xquadv1")
# contexto: El coronavirus está sembrando pánico en el Oeste porque se expande tan rápido.
# pregunta: ¿Dónde está sembrando pánico el coronavirus?
qa_pipeline({
'context': "कोरोनावायरस पश्चिम में आतंक बो रहा है क्योंकि यह इतनी तेजी से फैलता है।",
'question': "कोरोनावायरस घबराहट कहां है?"
})
# salida: {'answer': 'पश्चिम', 'end': 18, 'score': 0.7037217439689059, 'start': 12}
qa_pipeline({
'context': "Manuel Romero has been working hardly in the repository hugginface/transformers lately",
'question': "Who has been working hard for hugginface/transformers lately?"
})
# salida: {'answer': 'Manuel Romero', 'end': 13, 'score': 0.7254485993702389, 'start': 0}
qa_pipeline({
'context': "Manuel Romero a travaillé à peine dans le référentiel hugginface / transformers ces derniers temps",
'question': "Pour quel référentiel a travaillé Manuel Romero récemment?"
})
# salida: {'answer': 'hugginface / transformers', 'end': 79, 'score': 0.6482061613915384, 'start': 54}
Funcionalidades
- Uso de la arquitectura BERT (base-multilingual-uncased)
- Ajuste fino para preguntas y respuestas multilingües
- Cobertura de 11 idiomas
- Basado en datos XQuAD
Casos de uso
- Respuesta a preguntas en múltiples idiomas
- Transferencia cross-lingual para modelos monolingües
- Investigación en procesamiento del lenguaje natural multilingüe