question-answering-roberta-base-s
consciousAI
Pregunta y respuesta
El modelo está diseñado para ser utilizado en tareas de preguntas y respuestas, dado una pregunta y un contexto, el modelo intentará inferir el texto de la respuesta, el rango de la respuesta y la puntuación de confianza. El modelo es solo codificador (roberta-base) con una cabeza de LM de Preguntas y Respuestas, afinado en el conjunto de datos SQUADx con puntuaciones de rendimiento exact_match: 86.14 y f1: 92.330.
Como usar
from transformers import pipeline
model_checkpoint = "consciousAI/question-answering-roberta-base-s"
context = """
🤗 Transformers está respaldado por las tres bibliotecas más populares de aprendizaje profundo: Jax, PyTorch y TensorFlow, con una integración sin problemas entre ellas. Es fácil entrenar tus modelos en una antes de cargarlos para inferencia con otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"
question_answerer = pipeline("question-answering", model=model_checkpoint)
question_answerer(question=question, context=context)
Funcionalidades
- Transformers
- PyTorch
- roberta
- Preguntas y Respuestas
- Endpoints de Inferencia
- Licencia: apache-2.0
Casos de uso
- Detección de respuestas a partir de un contexto dado y una pregunta.
- Extracción de respuestas de textos largos para obtener información específica.
- Puede ser utilizado en asistentes virtuales para una interacción más precisa con los usuarios.