SGPT-1.3B-weightedmean-nli-bitfit
Muennighoff
Similitud de oraciones
SGPT-1.3B-weightedmean-nli-bitfit es un modelo de aprendizaje automático desarrollado por Muennighoff. Este modelo se utiliza principalmente para la similitud de oraciones, aprovechando la librería sentence-transformers y PyTorch. El modelo fue entrenado usando un DataLoader especial sin duplicados y una técnica de pérdida de clasificación de negativos múltiples. El artículo relacionado 'SGPT: GPT Sentence Embeddings for Semantic Search' proporciona más detalles sobre su funcionamiento y resultados.
Como usar
Para instrucciones de uso, consulte nuestra base de código: GitHub
# Evaluación de resultados
Para resultados de evaluación, consulte la carpeta de eval o nuestro artículo: [arXiv](https://arxiv.org/abs/2202.08904)
Parámetros de entrenamiento
El modelo fue entrenado con los siguientes parámetros:
DataLoader:
DataLoader: sentence_transformers.datasets.NoDuplicatesDataLoader.NoDuplicatesDataLoader de longitud 93941 con parámetros: {'batch_size': 6}
Loss:
sentence_transformers.losses.MultipleNegativesRankingLoss.MultipleNegativesRankingLoss con parámetros: {'scale': 20.0, 'similarity_fct': 'cos_sim'}
Parámetros del método fit():
{
"epochs": 1,
"evaluation_steps": 9394,
"evaluator": "sentence_transformers.evaluation.EmbeddingSimilarityEvaluator.EmbeddingSimilarityEvaluator",
"max_grad_norm": 1,
"optimizer_class": "",
"optimizer_params": {"lr": 0.0001},
"scheduler": "WarmupLinear",
"steps_per_epoch": null,
"warmup_steps": 9395,
"weight_decay": 0.01
}
Arquitectura completa del modelo:
SentenceTransformer(
(0): Transformer({'max_seq_length': 75, 'do_lower_case': False}) con modelo Transformer: GPTNeoModel
(1): Pooling({'word_embedding_dimension': 2048, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': True, 'pooling_mode_lasttoken': False})
)
Funcionalidades
- Similitud de oraciones
- Compatibilidad con sentence-transformers
- Implementado en PyTorch
- Uso de GPT-Neo
- Extractores de características
- Etiquetas de endpoints de inferencia
- Compatible con AutoTrain
- Región: US
Casos de uso
- Búsqueda semántica
- Comparación de oraciones para similitud
- Sistemas de recomendación basados en texto
- Procesamiento del lenguaje natural