bhavikardeshna/xlm-roberta-base-spanish

bhavikardeshna
Pregunta y respuesta

bhavikardeshna/xlm-roberta-base-spanish es un modelo de transformers basado en PyTorch diseñado para tareas de pregunta-respuesta. Está inspirado en el trabajo titulado 'Cascading Adaptors to Leverage English Data to Improve Performance of Question Answering for Low-Resource Languages' de Hariom A. Pandya, Bhavik Ardeshna, y Dr. Brijesh S. Bhatt (arxiv:2112.09866). El modelo se creó el 2 de marzo de 2022 y ha sido descargado 438 veces en total. No es lo suficientemente popular para ser desplegado en la API de inferencia, pero es compatible con puntos finales de inferencia dedicados.

Como usar

from transformers import AutoTokenizer, AutoModelForQuestionAnswering

# Inicializar el tokenizador y el modelo
model_name = 'bhavikardeshna/xlm-roberta-base-spanish'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

# Ejemplo de uso
input_text = "¿Dónde vivo?"
context = "Me llamo Clara y vivo en Berkeley."
inputs = tokenizer(input_text, context, return_tensors='pt')
outputs = model(**inputs)

Ejemplo en uso:

  • Pregunta: "¿Dónde vivo?" Contexto: "Me llamo Wolfgang y vivo en Berlín" Respuesta generada por el modelo: Berlín

Funcionalidades

Tareas de pregunta-respuesta
Basado en transformers
Implementado en PyTorch
Compatible con puntos finales de inferencia

Casos de uso

Responder preguntas específicas a partir de un contexto dado
Tareas de comprensión lectora
Mejora del rendimiento en lenguajes con pocos recursos