DeBERTa-v3-large-mnli
khalidalt
Clasificación de texto
Este modelo fue entrenado en el conjunto de datos Multi-Genre Natural Language Inference (MultiNLI), que consta de 433k pares de oraciones con información de implicación textual. El modelo utilizado es DeBERTa-v3-large de Microsoft. La versión v3 de DeBERTa supera los resultados de Bert y RoBERTa en la mayoría de los benchmarks de NLU utilizando atención desentrelazada y un decodificador de máscara mejorado. Más información sobre el modelo original está en el repositorio oficial y el artículo.
Como usar
Cómo usar el modelo
premise = "The Movie have been criticized for the story. However, I think it is a great movie."
hypothesis = "I liked the movie."
input = tokenizer(premise, hypothesis, truncation=True, return_tensors="pt")
output = model(input["input_ids"].to(device)) # device = "cuda:0" or "cpu"
prediction = torch.softmax(output["logits"][0], -1)
label_names = ["entailment", "neutral", "contradiction"]
print(label_names[prediction.argmax(0).tolist()])
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- DeBERTa-v2
- Clasificación de cero disparos
Casos de uso
- Clasificación de texto
- Implicación textual
- Inferencia de lenguaje natural