roberta-large-mnli
FacebookAI
Clasificación de texto
roberta-large-mnli es el modelo grande de RoBERTa ajustado para el corpus de Inferencia de Lenguaje Natural Multi-Género (MNLI). El modelo es un modelo preentrenado en texto en inglés utilizando un objetivo de modelado de lenguaje enmascarado (MLM).
Como usar
Usa el siguiente código para comenzar con el modelo. El modelo puede ser cargado con la tubería de clasificación sin entrenamiento previo de la siguiente manera:
from transformers import pipeline
classifier = pipeline('zero-shot-classification', model='roberta-large-mnli')
Luego puedes usar esta tubería para clasificar secuencias en cualquier nombre de clase que especifiques. Por ejemplo:
sequence_to_classify = "one day I will see the world"
candidate_labels = ['viajes', 'cocinar', 'bailar']
classifier(sequence_to_classify, candidate_labels)
Funcionalidades
- Clasificación de texto en tareas de clasificación sin entrenamiento previo
- Tokenización mediante una versión de codificación Byte-Pair (BPE) y un tamaño de vocabulario de 50,000
- Capaz de clasificar secuencias en cualquier nombre de clase especificado
- Modelo basado en transformadores optimizado robustamente
- Compatible con AutoTrain y Endpoints
Casos de uso
- Tareas de clasificación sin entrenamiento previo
- Clasificación de pares de oraciones sin entrenamiento previo
- Clasificación de secuencias sin entrenamiento previo