aware-ai/longformer-QA

aware-ai
Pregunta y respuesta

aware-ai/longformer-QA es un modelo de respuesta a preguntas basado en el modelo Longformer, que ha sido preentrenado y es compatible con las bibliotecas Transformers, PyTorch, TensorFlow, y Safetensors. Este modelo está diseñado para responder preguntas basadas en el contexto proporcionado.

Como usar

Puedes utilizar el modelo de la siguiente manera:

from transformers import AutoTokenizer, AutoModelForQuestionAnswering

# Cargar el tokenizador y el modelo
model_name = "aware-ai/longformer-QA"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

# Ejemplo de uso
question = "¿Dónde vivo?"
context = "Me llamo Wolfgang y vivo en Berlín."
inputs = tokenizer(question, context, return_tensors='pt')

with torch.no_grad():
    outputs = model(**inputs)

# Obtener la respuesta
start_logits = outputs.start_logits
end_logits = outputs.end_logits
start_index = torch.argmax(start_logits)
end_index = torch.argmax(end_logits)
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs['input_ids'][0][start_index:end_index+1]))
print(f"Respuesta: {answer}")

Funcionalidades

Basado en el modelo Longformer
Compatible con Transformers
Funciona con PyTorch y TensorFlow
Soporta Safetensors
Diseñado para responder preguntas
Compatible con Endpoints de Inferencia

Casos de uso

Responder a preguntas basadas en un contexto dado
Aplicaciones en asistentes virtuales
Mejorar la funcionalidad de búsqueda en bases de datos textuales
Soporte en tareas educativas y de entrenamiento