deutsche-telekom/gbert-large-paraphrase-euclidean
deutsche-telekom
Similitud de oraciones
Este es un modelo de sentence-transformers. Mapea oraciones y párrafos (texto) en un espacio vectorial denso de 1024 dimensiones. El modelo está destinado a ser utilizado junto con SetFit para mejorar la clasificación de texto few-shot en alemán. Tiene un modelo hermano llamado deutsche-telekom/gbert-large-paraphrase-cosine. Este modelo está basado en deepset/gbert-large.
Como usar
# Función de pérdida utilizada:
train_loss = losses.BatchHardSoftMarginTripletLoss(
model=model,
distance_metric=BatchHardTripletLossDistanceFunction.eucledian_distance,
)
El modelo se entrena en un conjunto de datos cuidadosamente filtrado de deutsche-telekom/ger-backtrans-paraphrase. Se eliminaron los siguientes pares de oraciones:
- min_char_len menos de 15
- jaccard_similarity mayor que 0.3
- de_token_count mayor que 30
- en_de_token_count mayor que 30
- cos_sim menos de 0.85
Hiperparámetros
- learning_rate: 5.5512022294147105e-06
- num_epochs: 7
- train_batch_size: 68
- num_gpu: ???
Funcionalidades
- Modelo de sentence-transformers
- Mapea oraciones y párrafos en un espacio vectorial denso de 1024 dimensiones
- Mejora la clasificación de texto few-shot en alemán
- Basado en deepset/gbert-large
Casos de uso
- Clasificación de texto few-shot en alemán