Erlangshen-MegatronBert-1.3B-NLI
IDEA-CCNL
Clasificación de texto
Esta es la versión afinada del modelo BERT chino en varios conjuntos de datos NLI, que encabezó los benchmarks FewCLUE y ZeroCLUE en 2021. Basado en Erlangshen-MegatronBert-1.3B, afinamos una versión NLI en 4 conjuntos de datos de Inferencia de Lenguaje Natural (NLI) en chino, con un total de 1.014.787 muestras.
Como usar
from transformers import AutoModelForSequenceClassification
from transformers import BertTokenizer
import torch
tokenizer=BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-NLI')
model=AutoModelForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-NLI')
texta='今天的饭不好吃'
textb='今天心情不好'
output=model(torch.tensor([tokenizer.encode(texta,textb)]))
print(torch.nn.functional.softmax(output.logits,dim=-1))
Funcionalidades
- Clasificación de Texto
- Transformadores
- PyTorch
- NLU (Entendimiento del Lenguaje Natural)
- NLI (Inferencia de Lenguaje Natural)
Casos de uso
- Clasificación de secuencias
- Entendimiento del idioma chino
- Inferencia de lenguaje natural en chino