alisawuffles/roberta-large-wanli
alisawuffles
Clasificación de texto
Este es un modelo roberta-large fuera de la caja, afinado en WANLI, el conjunto de datos de NLI colaborativo entre trabajadores y AI (Liu et al., 2022). Supera al modelo roberta-large-mnli en ocho conjuntos de pruebas fuera de dominio, incluyendo un 11% en HANS y un 9% en Adversarial NLI.
Como usar
from transformers import RobertaTokenizer, RobertaForSequenceClassification
model = RobertaForSequenceClassification.from_pretrained('alisawuffles/roberta-large-wanli')
tokenizer = RobertaTokenizer.from_pretrained('alisawuffles/roberta-large-wanli')
x = tokenizer('I almost forgot to eat lunch.', 'I didn\'t forget to eat lunch.', return_tensors='pt', max_length=128, truncation=True)
logits = model(**x).logits
probs = logits.softmax(dim=1).squeeze(0)
label_id = torch.argmax(probs).item()
prediction = model.config.id2label[label_id]
Funcionalidades
- Clasificación de secuencias
- Compatibilidad con Transformers
- Compatibilidad con PyTorch
- Compatibilidad con Safetensors
- Etiquetado de texto
Casos de uso
- Mejora del rendimiento en conjuntos de prueba fuera de dominio
- Clasificación de secuencias en procesamiento del lenguaje natural
- Colaboración entre trabajador y AI en la creación de conjuntos de datos