cross-encoder/stsb-roberta-large
cross-encoder
Clasificación de texto
Este modelo fue entrenado utilizando la clase Cross-Encoder de SentenceTransformers. Se entrenó con el conjunto de datos de referencia STS. El modelo predecirá una puntuación entre 0 y 1 para la similitud semántica de dos frases. Puede utilizarse sin SentenceTransformers con la clase AutoModel de Transformers.
Como usar
Los modelos preentrenados pueden usarse así:
from sentence_transformers import CrossEncoder
model = CrossEncoder('model_name')
scores = model.predict([('Sentence 1', 'Sentence 2'), ('Sentence 3', 'Sentence 4')])
El modelo predecirá puntuaciones para los pares ('Sentence 1', 'Sentence 2') y ('Sentence 3', 'Sentence 4'). También puede utilizar este modelo sin sentence_transformers y simplemente usando la clase AutoModel de Transformers.
Funcionalidades
- Clasificación de texto
- Compatible con Transformers
- Compatible con PyTorch
- Compatible con JAX
- Modelo RoBERTa
- Compatible con AutoTrain
- Compatible con Endpoints
- Licencia: Apache-2.0
- Región: US
Casos de uso
- Detección de preguntas duplicadas en Quora