dccuchile/albert-base-spanish-distilled-qa-tar

dccuchile
Pregunta y respuesta

Un modelo de ALBERT distilado para responder preguntas en español. Este modelo fue creado utilizando el marco de transformers y la biblioteca PyTorch, y está optimizado para tareas de respuesta a preguntas (Question Answering).

Como usar

Cómo usar el modelo:

from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch

tokenizer = AutoTokenizer.from_pretrained('dccuchile/albert-base-spanish-distilled-qa-tar')
model = AutoModelForQuestionAnswering.from_pretrained('dccuchile/albert-base-spanish-distilled-qa-tar')

text = "Mi nombre es Wolfgang y vivo en Berlín"
questions = ["¿Dónde vivo?"]

inputs = tokenizer(questions, text, return_tensors='pt', truncation=True)
outputs = model(**inputs)
answer_start_idx = torch.argmax(outputs.start_logits)
answer_end_idx = torch.argmax(outputs.end_logits)

tokens = inputs.input_ids[0][answer_start_idx:answer_end_idx+1]
answer = tokenizer.decode(tokens)

print(f'Respuesta: {answer}')

Funcionalidades

Basado en ALBERT
Compatible con transformers
Utiliza la biblioteca PyTorch
Optimizado para la tarea de respuesta a preguntas
Compatible con endpoints de inferencia

Casos de uso

Responder preguntas directas en español
Asistencia automatizada al cliente
Generación de respuestas en sistemas de chatbots
Análisis de documentos y extracción de información