dccuchile/albert-base-spanish-distilled-qa-tar
dccuchile
Pregunta y respuesta
Un modelo de ALBERT distilado para responder preguntas en español. Este modelo fue creado utilizando el marco de transformers y la biblioteca PyTorch, y está optimizado para tareas de respuesta a preguntas (Question Answering).
Como usar
Cómo usar el modelo:
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch
tokenizer = AutoTokenizer.from_pretrained('dccuchile/albert-base-spanish-distilled-qa-tar')
model = AutoModelForQuestionAnswering.from_pretrained('dccuchile/albert-base-spanish-distilled-qa-tar')
text = "Mi nombre es Wolfgang y vivo en Berlín"
questions = ["¿Dónde vivo?"]
inputs = tokenizer(questions, text, return_tensors='pt', truncation=True)
outputs = model(**inputs)
answer_start_idx = torch.argmax(outputs.start_logits)
answer_end_idx = torch.argmax(outputs.end_logits)
tokens = inputs.input_ids[0][answer_start_idx:answer_end_idx+1]
answer = tokenizer.decode(tokens)
print(f'Respuesta: {answer}')
Funcionalidades
- Basado en ALBERT
- Compatible con transformers
- Utiliza la biblioteca PyTorch
- Optimizado para la tarea de respuesta a preguntas
- Compatible con endpoints de inferencia
Casos de uso
- Responder preguntas directas en español
- Asistencia automatizada al cliente
- Generación de respuestas en sistemas de chatbots
- Análisis de documentos y extracción de información