aware-ai/longformer-squadv2
aware-ai
Pregunta y respuesta
El modelo aware-ai/longformer-squadv2 es un modelo de respuesta a preguntas (question-answering) basado en la arquitectura Longformer y optimizado para el dataset SQuADv2. Este modelo es compatible con PyTorch y TensorFlow, está empaquetado en el formato Safetensors, y se puede utilizar para casos de uso de respuesta a preguntas en textos largos.
Como usar
Puedes utilizar este modelo para responder preguntas de la siguiente manera:
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
# Cargar el tokenizador y el modelo
model_name = 'aware-ai/longformer-squadv2'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
# Preparar el texto y la pregunta
context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"
input = tokenizer(question, context, return_tensors='pt')
# Realizar la inferencia
outputs = model(**input)
# Obtener la respuesta
start_index = outputs.start_logits.argmax()
end_index = outputs.end_logits.argmax()
answer = tokenizer.decode(input['input_ids'][0][start_index:end_index+1])
print(f'La respuesta es: {answer}')
Funcionalidades
- Responde preguntas (question-answering)
- Basado en Longformer
- Compatible con PyTorch
- Compatible con TensorFlow
- Empaquetado en Safetensors
- Compatible con endpoints de inferencia
- Optimizado para SQuADv2
Casos de uso
- Búsqueda de información en documentos largos
- Asistentes virtuales
- Sistemas de atención al cliente
- Aplicaciones educativas
- Análisis de textos extensos