Andranik/TestQaV1
Andranik
Pregunta y respuesta
Este modelo de respuesta a preguntas está diseñado para proporcionar respuestas a consultas basadas en el contexto proporcionado. Funciona principalmente con los siguientes textos: '¿Dónde vivo?', '¿Cuál es mi nombre?' y '¿Qué nombre también se usa para describir la selva amazónica en inglés?'. Está basado en la biblioteca de transformadores y es compatible con PyTorch, Rust y Roberta. Aunque no tiene suficiente actividad para ser desplegado en la API de Inferencia, puede ser desplegado en los Endpoints de Inferencia dedicados.
Como usar
# Ejemplo de uso del modelo para responder preguntas
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = 'Andranik/TestQaV1'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
# Procesar salidas para obtener la respuesta
de respuestas = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(respuestas)
Funcionalidades
- Transformadores
- Compatible con PyTorch
- Compatible con Rust
- Modelo Roberta
- Respuesta a preguntas
- Compatible con Endpoints de Inferencia
Casos de uso
- Responder preguntas basadas en el contexto proporcionado
- Desarrollar chatbots que puedan comprender y responder consultas de los usuarios
- Sistemas de asistencia virtual que pueden proporcionar información específica a partir de pasajes de texto
- Aplicaciones educativas donde los estudiantes pueden hacer preguntas sobre un texto dado