consciousAI/question-answering-roberta-base-s-v2

consciousAI
Pregunta y respuesta

El modelo está destinado a ser utilizado para la tarea de Preguntas y Respuestas (Q&A). Dado una pregunta y un contexto, el modelo intentará inferir el texto de la respuesta, el rango de la respuesta y el puntaje de confianza. El modelo es solo de codificación (deepset/roberta-base-squad2) con una cabeza LM de Preguntas y Respuestas, afinado en el conjunto de datos SQUADx con puntajes de rendimiento de exact_match: 84.83 y f1: 91.80.

Como usar

from transformers import pipeline

model_checkpoint = "consciousAI/question-answering-roberta-base-s-v2"

context = """
🤗 Transformers es respaldado por las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración sin fisuras
entre ellas. Es sencillo entrenar tus modelos con una y luego cargarlos para inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"

question_answerer = pipeline("question-answering", model=model_checkpoint)
question_answerer(question=question, context=context)

Funcionalidades

Modelo solo de codificación basado en roberta-base
Afinado en el conjunto de datos SQUADx
Desempeño de exact_match: 84.83
Desempeño de f1: 91.80
Cabeza LM de Preguntas y Respuestas
Compatible con PyTorch
Utiliza safetensors para la gestión de tensores

Casos de uso

Responder preguntas basadas en un texto o contexto proporcionado.
Obtener el rango y el puntaje de confianza de las respuestas.
Aplicaciones en sistemas de soporte al cliente basados en IA.
Herramientas automatizadas de asistencia y tutoría.
Sistemas de búsqueda de información y motores de búsqueda.