mrm8488/RuPERTa-base-finetuned-squadv1
mrm8488
Pregunta y respuesta
RuPERTa-base es un modelo de lenguaje basado en la arquitectura de transformers de RoBERTa, ajustado específicamente para la tarea de respuesta a preguntas utilizando el conjunto de datos SQuAD v1. Este modelo fue desarrollado por mrm8488 y está optimizado para comprender y responder preguntas en español.
Como usar
Para usar este modelo, puedes hacer uso de la biblioteca transformers de Hugging Face. Aquí tienes un ejemplo de cómo usar el modelo para la tarea de respuesta a preguntas:
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
# Cargar tokenizer y modelo
tokenizer = AutoTokenizer.from_pretrained('mrm8488/RuPERTa-base-finetuned-squadv1')
model = AutoModelForQuestionAnswering.from_pretrained('mrm8488/RuPERTa-base-finetuned-squadv1')
# Definir contexto y pregunta
contexto = 'Isaac Peral fue un murciano que inventó el submarino'
pregunta = '¿Quién inventó el submarino?'
# Tokenizar entrada
inputs = tokenizer(pregunta, contexto, add_special_tokens=True, return_tensors='pt')
# Realizar inferencia
with torch.no_grad():
outputs = model(**inputs)
# Obtener respuesta
start_scores = outputs.start_logits
end_scores = outputs.end_logits
all_tokens = tokenizer.convert_ids_to_tokens(inputs['input_ids'].numpy()[0])
answer = ' '.join(all_tokens[torch.argmax(start_scores) : torch.argmax(end_scores)+1])
print(f'Respuesta: {answer}')
Funcionalidades
- Basado en Transformers
- Soporte para PyTorch y JAX
- Optimizado para la tarea de respuesta a preguntas
- Entrenado con el conjunto de datos SQuAD
- Compatibilidad con endpoints de inferencia
Casos de uso
- Responder preguntas basadas en un texto proporcionado
- Desarrollo de asistentes virtuales en español
- Aplicaciones educativas que necesiten respuestas automáticas
- Mejorar sistemas de búsqueda contextual