albert-xxl-v2-finetuned-squad
anas-awadalla
Pregunta y respuesta
Este modelo es una versión ajustada de albert-xxlarge-v2 en el conjunto de datos squad. Es un modelo de respuesta a preguntas que utiliza la arquitectura Albert y está implementado en la biblioteca Transformers. Finetuned con un conjunto de datos específico para mejorar su precisión en tareas de respuesta a preguntas.
Como usar
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch
tokenizer = AutoTokenizer.from_pretrained('anas-awadalla/albert-xxl-v2-finetuned-squad')
model = AutoModelForQuestionAnswering.from_pretrained('anas-awadalla/albert-xxl-v2-finetuned-squad')
question = "¿Dónde vivo?"
context = "Mi nombre es Wolfgang y vivo en Berlín."
inputs = tokenizer(question, context, return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs)
answer_start_index = outputs.start_logits.argmax()
answer_end_index = outputs.end_logits.argmax()
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start_index:answer_end_index+1]))
print(f'Respuesta: {answer}')
Funcionalidades
- Transformers
- PyTorch
- Albert
- Generated from Trainer
- Inference Endpoints
- squad dataset
- Licencia: Apache-2.0
- Región: US
Casos de uso
- Responder preguntas específicas basadas en un contexto dado
- Mejorar interacciones en chatbots y asistentes virtuales
- Extraer información relevante de textos largos
- Soporte para tareas de búsqueda de información en diversas aplicaciones