ellamind/e5small_sgb_aktg_bmf_experimental

ellamind
Similitud de oraciones

e5 Small entrenado en el conjunto de datos SGB5, AktG + de BMF-Rundschreiben (19k consultas en total). Este es un modelo de sentence-transformers: Mapea oraciones y párrafos a un espacio vectorial denso de 384 dimensiones y se puede usar para tareas como agrupamiento o búsqueda semántica.

Como usar

Uso (Llama-Index)

embed_model = HuggingFaceEmbedding(
  model_name="ellamind/e5small_sgb_aktg_bmf_experimental",
  query_instruction="consulta: ",
  text_instruction="pasaje: ",
  dispositivo="mps",
  embed_batch_size=4
)

Uso (Sentence-Transformers)

Usar este modelo es sencillo cuando tienes sentence-transformers instalados:

pip install -U sentence-transformers

Entonces puedes usar el modelo de esta manera:

from sentence_transformers import SentenceTransformer
oraciones = ["Esta es una oración de ejemplo", "Cada oración es convertida"]

modelo = SentenceTransformer('ellamind/e5small_sgb_aktg_bmf_experimental')
incrustaciones = modelo.encode(oraciones)
print(incrustaciones)

Resultados de Evaluación

Para una evaluación automatizada de este modelo, consulta el Benchmark de Incrustaciones de Oraciones: https://seb.sbert.net

Entrenamiento

El modelo se entrenó con los parámetros:

DataLoader: torch.utils.data.dataloader.DataLoader de longitud 258 con los parámetros:

{'batch_size': 32, 'sampler': 'torch.utils.data.sampler.SequentialSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}

Pérdida: sentence_transformers.losses.MultipleNegativesRankingLoss.MultipleNegativesRankingLoss con los parámetros:

{'scale': 20.0, 'similarity_fct': 'cos_sim'}

Parámetros del método fit():

{
  "epochs": 4,
  "evaluation_steps": 200,
  "evaluator": "sentence_transformers.evaluation.InformationRetrievalEvaluator.InformationRetrievalEvaluator",
  "max_grad_norm": 1,
  "optimizer_class": "",
  "optimizer_params": {"lr": 2e-05},
  "scheduler": "WarmupLinear",
  "steps_per_epoch": null,
  "warmup_steps": 103,
  "weight_decay": 0.01
}

Arquitectura Completa del Modelo

SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) con el modelo Transformer: BertModel 
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)

Funcionalidades

sentence-transformers
Safetensors
bert
extracción de características
similaridad de oraciones
compatible con AutoTrain
inferencia de incrustaciones de texto
compatible con Endpoints
Región: UE

Casos de uso

Agrupamiento de oraciones
Búsqueda semántica
Extracción de características
Inferencia de incrustaciones de texto