sileod/roberta-base-discourse-marker-prediction

sileod
Clasificación de texto

Modelo roberta-base entrenado para la predicción de marcadores discursivos en el conjunto de datos Discovery con una precisión de validación del 30.93% (la clase mayoritaria es 0.57%). Este modelo también puede ser utilizado como pre-entrenado para tareas de NLU, pragmática y discurso.

Como usar

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("sileod/roberta-base-discourse-marker-prediction")
model = AutoModelForSequenceClassification.from_pretrained("sileod/roberta-base-discourse-marker-prediction")

inputs = tokenizer("El texto para clasificar", return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Predicción de marcadores discursivos
Clasificación de secuencias usando arquitectura RobertaForSequenceClassification
Compatible con PyTorch
Uso de safetensors para el almacenamiento eficiente de tensores

Casos de uso

Clasificación de textos basados en conectivos discursivos
Investigación en NLU (Natural Language Understanding)
Aplicaciones en análisis pragmático y estructura del discurso