mrm8488/bert-multi-cased-finetuned-xquadv1

mrm8488
Pregunta y respuesta

Este modelo fue creado por Google y afinado en datos similares a XQuAD para la tarea de Preguntas y Respuestas multilingüe (11 idiomas diferentes). Está basado en el modelo 'bert-base-multilingual-cased' y adaptado para responder preguntas en múltiples idiomas usando el conjunto de datos XQuAD.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

qa_pipeline = pipeline(
    "question-answering",
    model="mrm8488/bert-multi-cased-finetuned-xquadv1",
    tokenizer="mrm8488/bert-multi-cased-finetuned-xquadv1"
)

# contexto: El coronavirus está sembrando pánico en Occidente porque se expande muy rápido.
# pregunta: ¿Dónde está sembrando pánico el coronavirus?
qa_pipeline({
    'context': "कोरोनावायरस पश्चिम में आतंक बो रहा है क्योंकि यह इतनी तेजी से फैलता है।",
    'question': "कोरोनावायरस घबराहट कहां है?"
})
# resultado: {'answer': 'पश्चिम', 'end': 18, 'score': 0.7037217439689059, 'start': 12}

qa_pipeline({
    'context': "Manuel Romero ha estado trabajando mucho en el repositorio hugginface/transformers últimamente",
    'question': "¿Quién ha estado trabajando mucho para hugginface/transformers últimamente?"
})
# resultado: {'answer': 'Manuel Romero', 'end': 13, 'score': 0.7254485993702389, 'start': 0}

qa_pipeline({
    'context': "Manuel Romero a travaillé à peine dans le référentiel hugginface / transformers ces derniers temps",
    'question': "Pour quel référentiel a travaillé Manuel Romero récemment?"
})
# resultado: {'answer': 'hugginface / transformers', 'end': 79, 'score': 0.6482061613915384, 'start': 54}

Pruébalo en un Colab:

Funcionalidades

Modelo multilingüe para Preguntas y Respuestas
Afinado en datos similares a XQuAD
Soporta 11 diferentes idiomas
Basado en BERT (base-multilingual-cased)

Casos de uso

Respuestas a preguntas multilingües
Transferencia cruzada de representaciones monolingües
Inferencia rápida de preguntas y respuestas