fnlp/cpt-large

fnlp
Clasificación de texto

Este es un modelo llamado CPT-Large en Hugging Face. Es una implementación de un Transformador Entrenado (Pre-Trained Transformer) desequilibrado para la comprensión y generación de lenguaje en chino. El modelo ha sido actualizado recientemente para incluir un vocabulario más grande y mejoras en las incrustaciones de posición, extendiendo así los límites máximos de secuencia. El modelo mantiene un rendimiento comparativo con los puntos de control anteriores.

Como usar

from modeling_cpt import CPTForConditionalGeneration
from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained("fnlp/cpt-large")
model = CPTForConditionalGeneration.from_pretrained("fnlp/cpt-large")
input_ids = tokenizer.encode("北京是[MASK]的首都", return_tensors='pt')
pred_ids = model.generate(input_ids, num_beams=4, max_length=20)
print(tokenizer.convert_ids_to_tokens(pred_ids[0]))
['[SEP]', '[CLS]', '北', '京', '是', '中', '国', '的', '首', '都', '[SEP]']

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Safetensors
Generación de texto a texto
Rellenar máscara
Resumir
Compatible con AutoTrain
Compatible con Inference Endpoints
Compatible con Sec2Sec
Basado en BART y BERT

Casos de uso

Comprensión del lenguaje chino
Generación de lenguaje chino
Resumir textos
Clasificación de texto