bert-multi-uncased-finetuned-xquadv1

mrm8488
Pregunta y respuesta

BERT (base-multilingual-uncased) ajustado para preguntas y respuestas multilingües. Este modelo fue creado por Google y ajustado con datos similares a XQuAD para la tarea de preguntas y respuestas en 11 idiomas diferentes.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-multi-uncased-finetuned-xquadv1",
tokenizer="mrm8488/bert-multi-uncased-finetuned-xquadv1")

# contexto: El coronavirus está sembrando pánico en el Oeste porque se expande tan rápido.

# pregunta: ¿Dónde está sembrando pánico el coronavirus?
qa_pipeline({
'context': "कोरोनावायरस पश्चिम में आतंक बो रहा है क्योंकि यह इतनी तेजी से फैलता है।",
'question': "कोरोनावायरस घबराहट कहां है?"
})
# salida: {'answer': 'पश्चिम', 'end': 18, 'score': 0.7037217439689059, 'start': 12}

qa_pipeline({
'context': "Manuel Romero has been working hardly in the repository hugginface/transformers lately",
'question': "Who has been working hard for hugginface/transformers lately?"
})
# salida: {'answer': 'Manuel Romero', 'end': 13, 'score': 0.7254485993702389, 'start': 0}

qa_pipeline({
'context': "Manuel Romero a travaillé à peine dans le référentiel hugginface / transformers ces derniers temps",
'question': "Pour quel référentiel a travaillé Manuel Romero récemment?"
})
# salida: {'answer': 'hugginface / transformers', 'end': 79, 'score': 0.6482061613915384, 'start': 54}

Funcionalidades

Uso de la arquitectura BERT (base-multilingual-uncased)
Ajuste fino para preguntas y respuestas multilingües
Cobertura de 11 idiomas
Basado en datos XQuAD

Casos de uso

Respuesta a preguntas en múltiples idiomas
Transferencia cross-lingual para modelos monolingües
Investigación en procesamiento del lenguaje natural multilingüe