xlm-roberta-large-english-cap-v3
poltextlab
Clasificación de texto
Un modelo xlm-roberta-large ajustado con datos de entrenamiento en inglés etiquetados con códigos de temas principales del Proyecto de Agendas Comparativas.
Como usar
Este fragmento imprime las tres etiquetas más probables y sus correspondientes puntuaciones de softmax:
import torch
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForSequenceClassification.from_pretrained("poltextlab/xlm-roberta-large-english-cap-v3")
tokenizer = AutoTokenizer.from_pretrained("xlm-roberta-large")
sentence = "This is an example."
inputs = tokenizer(sentence,
return_tensors="pt",
max_length=512,
padding="do_not_pad",
truncation=True
)
logits = model(**inputs).logits
probs = torch.softmax(logits, dim=1).tolist()[0]
probs = {model.config.id2label[index]: round(probability, 2) for index, probability in enumerate(probs)}
top3_probs = dict(sorted(probs.items(), key=lambda item: item[1], reverse=True)[:3])
print(top3_probs)
Funcionalidades
- Clasificación de texto
- Compatible con AutoTrain
- Compatible con puntos finales de inferencia
- Transformers
- PyTorch
Casos de uso
- Clasificación de temas en textos en inglés
- Investigación comparativa de políticas
- Procesamiento de lenguajes naturales en proyectos abiertos