Andranik/TestQaV1

Andranik
Pregunta y respuesta

Este modelo de respuesta a preguntas está diseñado para proporcionar respuestas a consultas basadas en el contexto proporcionado. Funciona principalmente con los siguientes textos: '¿Dónde vivo?', '¿Cuál es mi nombre?' y '¿Qué nombre también se usa para describir la selva amazónica en inglés?'. Está basado en la biblioteca de transformadores y es compatible con PyTorch, Rust y Roberta. Aunque no tiene suficiente actividad para ser desplegado en la API de Inferencia, puede ser desplegado en los Endpoints de Inferencia dedicados.

Como usar

# Ejemplo de uso del modelo para responder preguntas
from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = 'Andranik/TestQaV1'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"

inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

# Procesar salidas para obtener la respuesta
de respuestas = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(respuestas)

Funcionalidades

Transformadores
Compatible con PyTorch
Compatible con Rust
Modelo Roberta
Respuesta a preguntas
Compatible con Endpoints de Inferencia

Casos de uso

Responder preguntas basadas en el contexto proporcionado
Desarrollar chatbots que puedan comprender y responder consultas de los usuarios
Sistemas de asistencia virtual que pueden proporcionar información específica a partir de pasajes de texto
Aplicaciones educativas donde los estudiantes pueden hacer preguntas sobre un texto dado