albert-xxl-v2-finetuned-squad

anas-awadalla
Pregunta y respuesta

Este modelo es una versión ajustada de albert-xxlarge-v2 en el conjunto de datos squad. Es un modelo de respuesta a preguntas que utiliza la arquitectura Albert y está implementado en la biblioteca Transformers. Finetuned con un conjunto de datos específico para mejorar su precisión en tareas de respuesta a preguntas.

Como usar

from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch

tokenizer = AutoTokenizer.from_pretrained('anas-awadalla/albert-xxl-v2-finetuned-squad')
model = AutoModelForQuestionAnswering.from_pretrained('anas-awadalla/albert-xxl-v2-finetuned-squad')

question = "¿Dónde vivo?"
context = "Mi nombre es Wolfgang y vivo en Berlín."

inputs = tokenizer(question, context, return_tensors='pt')
with torch.no_grad():
    outputs = model(**inputs)

answer_start_index = outputs.start_logits.argmax()
answer_end_index = outputs.end_logits.argmax()

answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start_index:answer_end_index+1]))
print(f'Respuesta: {answer}')

Funcionalidades

Transformers
PyTorch
Albert
Generated from Trainer
Inference Endpoints
squad dataset
Licencia: Apache-2.0
Región: US

Casos de uso

Responder preguntas específicas basadas en un contexto dado
Mejorar interacciones en chatbots y asistentes virtuales
Extraer información relevante de textos largos
Soporte para tareas de búsqueda de información en diversas aplicaciones