consciousAI/question-answering-roberta-base-s-v2
consciousAI
Pregunta y respuesta
El modelo está destinado a ser utilizado para la tarea de Preguntas y Respuestas (Q&A). Dado una pregunta y un contexto, el modelo intentará inferir el texto de la respuesta, el rango de la respuesta y el puntaje de confianza. El modelo es solo de codificación (deepset/roberta-base-squad2) con una cabeza LM de Preguntas y Respuestas, afinado en el conjunto de datos SQUADx con puntajes de rendimiento de exact_match: 84.83 y f1: 91.80.
Como usar
from transformers import pipeline
model_checkpoint = "consciousAI/question-answering-roberta-base-s-v2"
context = """
🤗 Transformers es respaldado por las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración sin fisuras
entre ellas. Es sencillo entrenar tus modelos con una y luego cargarlos para inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"
question_answerer = pipeline("question-answering", model=model_checkpoint)
question_answerer(question=question, context=context)
Funcionalidades
- Modelo solo de codificación basado en roberta-base
- Afinado en el conjunto de datos SQUADx
- Desempeño de exact_match: 84.83
- Desempeño de f1: 91.80
- Cabeza LM de Preguntas y Respuestas
- Compatible con PyTorch
- Utiliza safetensors para la gestión de tensores
Casos de uso
- Responder preguntas basadas en un texto o contexto proporcionado.
- Obtener el rango y el puntaje de confianza de las respuestas.
- Aplicaciones en sistemas de soporte al cliente basados en IA.
- Herramientas automatizadas de asistencia y tutoría.
- Sistemas de búsqueda de información y motores de búsqueda.