bhavikardeshna/xlm-roberta-base-vietnamese

bhavikardeshna
Pregunta y respuesta

Este modelo es utilizado para la tarea de 'question-answering'. Se basa en la arquitectura XLM-RoBERTa y está entrenado para responder preguntas en diferentes contextos. El modelo está construido usando la biblioteca de Transformers y es compatible con PyTorch. Es un modelo de recursos bajos que aprovecha los datos en inglés para mejorar su rendimiento en otros idiomas de bajos recursos.

Como usar

Para usar este modelo, puedes pasarle un contexto y una pregunta. A continuación algunos ejemplos en código:

text = "Where do I live?"
context = "My name is Wolfgang and I live in Berlin"

text = "Where do I live?"
context = "My name is Sarah and I live in London"

text = "What’s my name?"
context = "My name is Clara and I live in Berkeley."

text = "Which name is also used to describe the Amazon rainforest in English?"
context = "The Amazon rainforest..."

Funcionalidades

Transformers
PyTorch
XLM-RoBERTa
Endpoints compatibles
Artículos en arxiv

Casos de uso

Responder preguntas basado en el contexto proporcionado.
Mejorar el rendimiento de cuestionarios en idiomas de bajos recursos utilizando datos en inglés.
Implementación en puntos finales de inferencia para múltiples aplicaciones.