manishiitg/longformer-recruit-qa

manishiitg
Pregunta y respuesta

Este modelo se usa para la tarea de responder preguntas. Está basado en Longformer y usa la biblioteca Transformers con PyTorch. Este modelo está optimizado para manejar contextos largos y puede ser utilizado para desplegue mediante Endpoints de Inferencia.

Como usar

# Uso del modelo para responder preguntas
from transformers import AutoTokenizer, AutoModelForQuestionAnswering

model_name = 'manishiitg/longformer-recruit-qa'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

# Ejemplo de uso
context = 'Mi nombre es Wolfgang y vivo en Berlín'
question = '¿Dónde vivo?'
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Responder preguntas
Basado en Longformer
Utiliza Transformers
Compatible con PyTorch
Optimizado para contextos largos
Compatible con Endpoints de Inferencia

Casos de uso

Responder preguntas sobre contextos largos
Aplicaciones de atención al cliente
Sistemas de preguntas y respuestas automatizados
Asistentes virtuales