fnlp/cpt-large
fnlp
Clasificación de texto
Este es un modelo llamado CPT-Large en Hugging Face. Es una implementación de un Transformador Entrenado (Pre-Trained Transformer) desequilibrado para la comprensión y generación de lenguaje en chino. El modelo ha sido actualizado recientemente para incluir un vocabulario más grande y mejoras en las incrustaciones de posición, extendiendo así los límites máximos de secuencia. El modelo mantiene un rendimiento comparativo con los puntos de control anteriores.
Como usar
from modeling_cpt import CPTForConditionalGeneration
from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained("fnlp/cpt-large")
model = CPTForConditionalGeneration.from_pretrained("fnlp/cpt-large")
input_ids = tokenizer.encode("北京是[MASK]的首都", return_tensors='pt')
pred_ids = model.generate(input_ids, num_beams=4, max_length=20)
print(tokenizer.convert_ids_to_tokens(pred_ids[0]))
['[SEP]', '[CLS]', '北', '京', '是', '中', '国', '的', '首', '都', '[SEP]']
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Safetensors
- Generación de texto a texto
- Rellenar máscara
- Resumir
- Compatible con AutoTrain
- Compatible con Inference Endpoints
- Compatible con Sec2Sec
- Basado en BART y BERT
Casos de uso
- Comprensión del lenguaje chino
- Generación de lenguaje chino
- Resumir textos
- Clasificación de texto