ellamind/e5small_sgb_aktg_bmf_experimental
e5 Small entrenado en el conjunto de datos SGB5, AktG + de BMF-Rundschreiben (19k consultas en total). Este es un modelo de sentence-transformers: Mapea oraciones y párrafos a un espacio vectorial denso de 384 dimensiones y se puede usar para tareas como agrupamiento o búsqueda semántica.
Como usar
Uso (Llama-Index)
embed_model = HuggingFaceEmbedding(
model_name="ellamind/e5small_sgb_aktg_bmf_experimental",
query_instruction="consulta: ",
text_instruction="pasaje: ",
dispositivo="mps",
embed_batch_size=4
)
Uso (Sentence-Transformers)
Usar este modelo es sencillo cuando tienes sentence-transformers instalados:
pip install -U sentence-transformers
Entonces puedes usar el modelo de esta manera:
from sentence_transformers import SentenceTransformer
oraciones = ["Esta es una oración de ejemplo", "Cada oración es convertida"]
modelo = SentenceTransformer('ellamind/e5small_sgb_aktg_bmf_experimental')
incrustaciones = modelo.encode(oraciones)
print(incrustaciones)
Resultados de Evaluación
Para una evaluación automatizada de este modelo, consulta el Benchmark de Incrustaciones de Oraciones: https://seb.sbert.net
Entrenamiento
El modelo se entrenó con los parámetros:
DataLoader:
torch.utils.data.dataloader.DataLoader de longitud 258 con los parámetros:
{'batch_size': 32, 'sampler': 'torch.utils.data.sampler.SequentialSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}
Pérdida:
sentence_transformers.losses.MultipleNegativesRankingLoss.MultipleNegativesRankingLoss con los parámetros:
{'scale': 20.0, 'similarity_fct': 'cos_sim'}
Parámetros del método fit():
{
"epochs": 4,
"evaluation_steps": 200,
"evaluator": "sentence_transformers.evaluation.InformationRetrievalEvaluator.InformationRetrievalEvaluator",
"max_grad_norm": 1,
"optimizer_class": "",
"optimizer_params": {"lr": 2e-05},
"scheduler": "WarmupLinear",
"steps_per_epoch": null,
"warmup_steps": 103,
"weight_decay": 0.01
}
Arquitectura Completa del Modelo
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) con el modelo Transformer: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Funcionalidades
- sentence-transformers
- Safetensors
- bert
- extracción de características
- similaridad de oraciones
- compatible con AutoTrain
- inferencia de incrustaciones de texto
- compatible con Endpoints
- Región: UE
Casos de uso
- Agrupamiento de oraciones
- Búsqueda semántica
- Extracción de características
- Inferencia de incrustaciones de texto