alisawuffles/roberta-large-wanli

alisawuffles
Clasificación de texto

Este es un modelo roberta-large fuera de la caja, afinado en WANLI, el conjunto de datos de NLI colaborativo entre trabajadores y AI (Liu et al., 2022). Supera al modelo roberta-large-mnli en ocho conjuntos de pruebas fuera de dominio, incluyendo un 11% en HANS y un 9% en Adversarial NLI.

Como usar

from transformers import RobertaTokenizer, RobertaForSequenceClassification

model = RobertaForSequenceClassification.from_pretrained('alisawuffles/roberta-large-wanli')
tokenizer = RobertaTokenizer.from_pretrained('alisawuffles/roberta-large-wanli')

x = tokenizer('I almost forgot to eat lunch.', 'I didn\'t forget to eat lunch.', return_tensors='pt', max_length=128, truncation=True)
logits = model(**x).logits
probs = logits.softmax(dim=1).squeeze(0)
label_id = torch.argmax(probs).item()
prediction = model.config.id2label[label_id]

Funcionalidades

Clasificación de secuencias
Compatibilidad con Transformers
Compatibilidad con PyTorch
Compatibilidad con Safetensors
Etiquetado de texto

Casos de uso

Mejora del rendimiento en conjuntos de prueba fuera de dominio
Clasificación de secuencias en procesamiento del lenguaje natural
Colaboración entre trabajador y AI en la creación de conjuntos de datos