bhavikardeshna/xlm-roberta-base-arabic

bhavikardeshna
Pregunta y respuesta

Cascading Adaptors para aprovechar los datos en inglés para mejorar el rendimiento de las preguntas y respuestas en idiomas con pocos recursos. Este modelo se basa en la arquitectura xlm-roberta y ha sido utilizado para tareas de preguntas y respuestas.

Como usar

Para usar este modelo, puedes utilizar la biblioteca Transformers de Hugging Face. Aquí hay un ejemplo de cómo cargar y usar el modelo:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = "bhavikardeshna/xlm-roberta-base-arabic"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

# Ejemplo de uso
inputs = tokenizer("Dónde vivo?", "Me llamo Wolfgang y vivo en Berlín", return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Transformers
PyTorch
XLM-Roberta
Puntos finales de inferencia
Compatible con arXiv:2112.09866
Región: Estados Unidos

Casos de uso

Responder preguntas basadas en texto dado
Mejorar el rendimiento de las preguntas y respuestas en idiomas con pocos recursos
Aplicaciones en entornos con poco soporte para otros idiomas