Erlangshen-MegatronBert-1.3B-NLI

IDEA-CCNL
Clasificación de texto

Esta es la versión afinada del modelo BERT chino en varios conjuntos de datos NLI, que encabezó los benchmarks FewCLUE y ZeroCLUE en 2021. Basado en Erlangshen-MegatronBert-1.3B, afinamos una versión NLI en 4 conjuntos de datos de Inferencia de Lenguaje Natural (NLI) en chino, con un total de 1.014.787 muestras.

Como usar

from transformers import AutoModelForSequenceClassification
from transformers import BertTokenizer
import torch
tokenizer=BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-NLI')
model=AutoModelForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-NLI')
texta='今天的饭不好吃'
textb='今天心情不好'
output=model(torch.tensor([tokenizer.encode(texta,textb)]))
print(torch.nn.functional.softmax(output.logits,dim=-1))

Funcionalidades

Clasificación de Texto
Transformadores
PyTorch
NLU (Entendimiento del Lenguaje Natural)
NLI (Inferencia de Lenguaje Natural)

Casos de uso

Clasificación de secuencias
Entendimiento del idioma chino
Inferencia de lenguaje natural en chino