sileod/roberta-base-discourse-marker-prediction
sileod
Clasificación de texto
Modelo roberta-base entrenado para la predicción de marcadores discursivos en el conjunto de datos Discovery con una precisión de validación del 30.93% (la clase mayoritaria es 0.57%). Este modelo también puede ser utilizado como pre-entrenado para tareas de NLU, pragmática y discurso.
Como usar
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("sileod/roberta-base-discourse-marker-prediction")
model = AutoModelForSequenceClassification.from_pretrained("sileod/roberta-base-discourse-marker-prediction")
inputs = tokenizer("El texto para clasificar", return_tensors="pt")
outputs = model(**inputs)
Funcionalidades
- Predicción de marcadores discursivos
- Clasificación de secuencias usando arquitectura RobertaForSequenceClassification
- Compatible con PyTorch
- Uso de safetensors para el almacenamiento eficiente de tensores
Casos de uso
- Clasificación de textos basados en conectivos discursivos
- Investigación en NLU (Natural Language Understanding)
- Aplicaciones en análisis pragmático y estructura del discurso