roberta-large-mnli

FacebookAI
Clasificación de texto

roberta-large-mnli es el modelo grande de RoBERTa ajustado para el corpus de Inferencia de Lenguaje Natural Multi-Género (MNLI). El modelo es un modelo preentrenado en texto en inglés utilizando un objetivo de modelado de lenguaje enmascarado (MLM).

Como usar

Usa el siguiente código para comenzar con el modelo. El modelo puede ser cargado con la tubería de clasificación sin entrenamiento previo de la siguiente manera:

from transformers import pipeline
classifier = pipeline('zero-shot-classification', model='roberta-large-mnli')

Luego puedes usar esta tubería para clasificar secuencias en cualquier nombre de clase que especifiques. Por ejemplo:

sequence_to_classify = "one day I will see the world"
candidate_labels = ['viajes', 'cocinar', 'bailar']
classifier(sequence_to_classify, candidate_labels)

Funcionalidades

Clasificación de texto en tareas de clasificación sin entrenamiento previo
Tokenización mediante una versión de codificación Byte-Pair (BPE) y un tamaño de vocabulario de 50,000
Capaz de clasificar secuencias en cualquier nombre de clase especificado
Modelo basado en transformadores optimizado robustamente
Compatible con AutoTrain y Endpoints

Casos de uso

Tareas de clasificación sin entrenamiento previo
Clasificación de pares de oraciones sin entrenamiento previo
Clasificación de secuencias sin entrenamiento previo