bhavikardeshna/xlm-roberta-base-spanish
bhavikardeshna
Pregunta y respuesta
bhavikardeshna/xlm-roberta-base-spanish es un modelo de transformers basado en PyTorch diseñado para tareas de pregunta-respuesta. Está inspirado en el trabajo titulado 'Cascading Adaptors to Leverage English Data to Improve Performance of Question Answering for Low-Resource Languages' de Hariom A. Pandya, Bhavik Ardeshna, y Dr. Brijesh S. Bhatt (arxiv:2112.09866). El modelo se creó el 2 de marzo de 2022 y ha sido descargado 438 veces en total. No es lo suficientemente popular para ser desplegado en la API de inferencia, pero es compatible con puntos finales de inferencia dedicados.
Como usar
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
# Inicializar el tokenizador y el modelo
model_name = 'bhavikardeshna/xlm-roberta-base-spanish'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
# Ejemplo de uso
input_text = "¿Dónde vivo?"
context = "Me llamo Clara y vivo en Berkeley."
inputs = tokenizer(input_text, context, return_tensors='pt')
outputs = model(**inputs)
Ejemplo en uso:
- Pregunta: "¿Dónde vivo?"
Contexto: "Me llamo Wolfgang y vivo en Berlín"
Respuesta generada por el modelo: Berlín
Funcionalidades
- Tareas de pregunta-respuesta
- Basado en transformers
- Implementado en PyTorch
- Compatible con puntos finales de inferencia
Casos de uso
- Responder preguntas específicas a partir de un contexto dado
- Tareas de comprensión lectora
- Mejora del rendimiento en lenguajes con pocos recursos