ellamind/e5large_sgb_aktg_bmf_experimental

ellamind
Similitud de oraciones

Este es un modelo de sentence-transformers: Mapea oraciones y párrafos a un espacio vectorial denso de 1024 dimensiones y puede usarse para tareas como la agrupación o la búsqueda semántica.

Como usar

Usar este modelo es fácil cuando tienes sentence-transformers instalado:

pip install -U sentence-transformers

Luego puedes usar el modelo así:

from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]

model = SentenceTransformer('ellamind/e5large_sgb_aktg_bmf_experimental')
embeddings = model.encode(sentences)
print(embeddings)

El modelo fue entrenado con los parámetros:

DataLoader: torch.utils.data.dataloader.DataLoader de longitud 1032 con parámetros: {'batch_size': 8, 'sampler': 'torch.utils.data.sampler.SequentialSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}

Loss: sentence_transformers.losses.MultipleNegativesRankingLoss.MultipleNegativesRankingLoss con parámetros: {'scale': 20.0, 'similarity_fct': 'cos_sim'}

Parámetros del método fit(): { "epochs": 4, "evaluation_steps": 200, "evaluator": "sentence_transformers.evaluation.InformationRetrievalEvaluator.InformationRetrievalEvaluator", "max_grad_norm": 1, "optimizer_class": "", "optimizer_params": { "lr": 2e-05 }, "scheduler": "WarmupLinear", "steps_per_epoch": null, "warmup_steps": 412, "weight_decay": 0.01 }

Arquitectura completa del modelo:

SentenceTransformer( (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() )

Funcionalidades

Similarity de oraciones
sentence-transformers
Safetensors
xlm-roberta
Extracción de características
Compatibilidad con AutoTrain
Inferencia de incrustaciones de texto
Compatibilidad con Inference Endpoints
Región: EU

Casos de uso

Agrupación de oraciones
Búsqueda semántica