DeBERTa-v3-large-mnli

khalidalt
Clasificación de texto

Este modelo fue entrenado en el conjunto de datos Multi-Genre Natural Language Inference (MultiNLI), que consta de 433k pares de oraciones con información de implicación textual. El modelo utilizado es DeBERTa-v3-large de Microsoft. La versión v3 de DeBERTa supera los resultados de Bert y RoBERTa en la mayoría de los benchmarks de NLU utilizando atención desentrelazada y un decodificador de máscara mejorado. Más información sobre el modelo original está en el repositorio oficial y el artículo.

Como usar

Cómo usar el modelo

premise = "The Movie have been criticized for the story. However, I think it is a great movie."

hypothesis = "I liked the movie."

input = tokenizer(premise, hypothesis, truncation=True, return_tensors="pt")

output = model(input["input_ids"].to(device)) # device = "cuda:0" or "cpu"

prediction = torch.softmax(output["logits"][0], -1)

label_names = ["entailment", "neutral", "contradiction"]

print(label_names[prediction.argmax(0).tolist()])

Funcionalidades

Clasificación de texto
Transformadores
PyTorch
DeBERTa-v2
Clasificación de cero disparos

Casos de uso

Clasificación de texto
Implicación textual
Inferencia de lenguaje natural