DeBERTaV3-small-GeneralSentenceTransformer
bobox
Similitud de oraciones
Este es un modelo de sentence-transformers afinado a partir de microsoft/deberta-v3-small en los conjuntos de datos nli-pairs, sts-label, vitaminc-pairs, qnli-contrastive, scitail-pairs-qa, scitail-pairs-pos, xsum-pairs, compression-pairs, sciq_pairs, qasc_pairs, openbookqa_pairs, msmarco_pairs, nq_pairs, trivia_pairs, quora_pairs y gooaq_pairs. Mapea oraciones y párrafos a un espacio vectorial denso de 768 dimensiones y se puede usar para la similitud textual semántica, búsqueda semántica, minería de paráfrasis, clasificación de texto, agrupamiento y más.
Como usar
Primero, instale la biblioteca Sentence Transformers:
pip install -U sentence-transformers
Luego, puede cargar este modelo y ejecutar la inferencia.
from sentence_transformers import SentenceTransformer
# Descargar desde el hub de 🤗
model = SentenceTransformer('bobox/DeBERTaV3-small-GeneralSentenceTransformer')
# Ejecución de inferencia
sentences = [
'Why did oil start getting priced in terms of gold?',
"Because oil was priced in dollars, oil producers' real income decreased.",
'This allows all set top boxes in a household to share recordings and other media.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Obtenga los puntajes de similitud para los embebimientos
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Funcionalidades
- Modelo basado en microsoft/deberta-v3-small
- Longitud máxima de secuencia: 512 tokens
- Dimensionalidad de salida: 768 tokens
- Función de similitud: Similitud del coseno
Casos de uso
- Similitud textual semántica
- Búsqueda semántica
- Minería de paráfrasis
- Clasificación de texto
- Agrupamiento