aware-ai/longformer-squadv2

aware-ai
Pregunta y respuesta

El modelo aware-ai/longformer-squadv2 es un modelo de respuesta a preguntas (question-answering) basado en la arquitectura Longformer y optimizado para el dataset SQuADv2. Este modelo es compatible con PyTorch y TensorFlow, está empaquetado en el formato Safetensors, y se puede utilizar para casos de uso de respuesta a preguntas en textos largos.

Como usar

Puedes utilizar este modelo para responder preguntas de la siguiente manera:

from transformers import AutoTokenizer, AutoModelForQuestionAnswering

# Cargar el tokenizador y el modelo
model_name = 'aware-ai/longformer-squadv2'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

# Preparar el texto y la pregunta
context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"
input = tokenizer(question, context, return_tensors='pt')

# Realizar la inferencia
outputs = model(**input)

# Obtener la respuesta
start_index = outputs.start_logits.argmax()
end_index = outputs.end_logits.argmax()
answer = tokenizer.decode(input['input_ids'][0][start_index:end_index+1])
print(f'La respuesta es: {answer}')

Funcionalidades

Responde preguntas (question-answering)
Basado en Longformer
Compatible con PyTorch
Compatible con TensorFlow
Empaquetado en Safetensors
Compatible con endpoints de inferencia
Optimizado para SQuADv2

Casos de uso

Búsqueda de información en documentos largos
Asistentes virtuales
Sistemas de atención al cliente
Aplicaciones educativas
Análisis de textos extensos