manishiitg/longformer-recruit-qa
manishiitg
Pregunta y respuesta
Este modelo se usa para la tarea de responder preguntas. Está basado en Longformer y usa la biblioteca Transformers con PyTorch. Este modelo está optimizado para manejar contextos largos y puede ser utilizado para desplegue mediante Endpoints de Inferencia.
Como usar
# Uso del modelo para responder preguntas
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
model_name = 'manishiitg/longformer-recruit-qa'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
# Ejemplo de uso
context = 'Mi nombre es Wolfgang y vivo en Berlín'
question = '¿Dónde vivo?'
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Responder preguntas
- Basado en Longformer
- Utiliza Transformers
- Compatible con PyTorch
- Optimizado para contextos largos
- Compatible con Endpoints de Inferencia
Casos de uso
- Responder preguntas sobre contextos largos
- Aplicaciones de atención al cliente
- Sistemas de preguntas y respuestas automatizados
- Asistentes virtuales