processed_bart

ArisuNguyen
Pregunta y respuesta

El modelo 'processed_bart' es una versión ajustada de 'facebook/bart-large' en un conjunto de datos desconocido. Específicamente diseñado para responder a preguntas (question-answering) utilizando la librería 'transformers'. Mantiene compatibilidad con 'PyTorch', 'TensorBoard' y es compatible con puntos de inferencia.

Como usar

Procedimiento de Entrenamiento

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

  • tasa de aprendizaje: 2e-05
  • tamaño del lote de entrenamiento: 4
  • tamaño del lote de evaluación: 4
  • semilla: 42
  • optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • tipo de planificador de la tasa de aprendizaje: lineal
  • número de épocas: 5.0

Resultados del Entrenamiento

  • 'Transformers' 4.29.2
  • 'Pytorch' 2.0.1+cu118
  • 'Datasets' 2.12.0
  • 'Tokenizers' 0.13.3

Ejemplos de Uso

context = "Mi nombre es Wolfgang y vivo en Berlín"
text = "¿Dónde vivo?"
# Uso del modelo para respuesta a preguntas
predict(text, context)

Funcionalidades

Transformers
PyTorch
TensorBoard
BART
Generado desde Trainer
Compatible con Endpoints de Inferencia
Licencia: Apache-2.0
Región: US

Casos de uso

Responder preguntas basadas en contexto proporcionado.
Integración en aplicaciones de servicio al cliente.
Automatización de la consulta de datos dentro de documentos grandes.