deutsche-telekom/gbert-large-paraphrase-euclidean

deutsche-telekom
Similitud de oraciones

Este es un modelo de sentence-transformers. Mapea oraciones y párrafos (texto) en un espacio vectorial denso de 1024 dimensiones. El modelo está destinado a ser utilizado junto con SetFit para mejorar la clasificación de texto few-shot en alemán. Tiene un modelo hermano llamado deutsche-telekom/gbert-large-paraphrase-cosine. Este modelo está basado en deepset/gbert-large.

Como usar

# Función de pérdida utilizada:
train_loss = losses.BatchHardSoftMarginTripletLoss(
    model=model,
    distance_metric=BatchHardTripletLossDistanceFunction.eucledian_distance,
)

El modelo se entrena en un conjunto de datos cuidadosamente filtrado de deutsche-telekom/ger-backtrans-paraphrase. Se eliminaron los siguientes pares de oraciones:

  • min_char_len menos de 15
  • jaccard_similarity mayor que 0.3
  • de_token_count mayor que 30
  • en_de_token_count mayor que 30
  • cos_sim menos de 0.85

Hiperparámetros

  • learning_rate: 5.5512022294147105e-06
  • num_epochs: 7
  • train_batch_size: 68
  • num_gpu: ???

Funcionalidades

Modelo de sentence-transformers
Mapea oraciones y párrafos en un espacio vectorial denso de 1024 dimensiones
Mejora la clasificación de texto few-shot en alemán
Basado en deepset/gbert-large

Casos de uso

Clasificación de texto few-shot en alemán