processed_bart
ArisuNguyen
Pregunta y respuesta
El modelo 'processed_bart' es una versión ajustada de 'facebook/bart-large' en un conjunto de datos desconocido. Específicamente diseñado para responder a preguntas (question-answering) utilizando la librería 'transformers'. Mantiene compatibilidad con 'PyTorch', 'TensorBoard' y es compatible con puntos de inferencia.
Como usar
Procedimiento de Entrenamiento
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
- tasa de aprendizaje: 2e-05
- tamaño del lote de entrenamiento: 4
- tamaño del lote de evaluación: 4
- semilla: 42
- optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- tipo de planificador de la tasa de aprendizaje: lineal
- número de épocas: 5.0
Resultados del Entrenamiento
- 'Transformers' 4.29.2
- 'Pytorch' 2.0.1+cu118
- 'Datasets' 2.12.0
- 'Tokenizers' 0.13.3
Ejemplos de Uso
context = "Mi nombre es Wolfgang y vivo en Berlín"
text = "¿Dónde vivo?"
# Uso del modelo para respuesta a preguntas
predict(text, context)
Funcionalidades
- Transformers
- PyTorch
- TensorBoard
- BART
- Generado desde Trainer
- Compatible con Endpoints de Inferencia
- Licencia: Apache-2.0
- Región: US
Casos de uso
- Responder preguntas basadas en contexto proporcionado.
- Integración en aplicaciones de servicio al cliente.
- Automatización de la consulta de datos dentro de documentos grandes.