distilroberta-pr200k-phrase-5k

judy93536
Clasificación de texto

Este modelo es una versión afinada de judy93536/distilroberta-pr200k-ep20 en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1609 y Precisión: 0.9429.

Como usar

No se encontraron detalles específicos sobre cómo utilizar este modelo. Sin embargo, se puede inferir que utiliza la biblioteca de transformers de Hugging Face y PyTorch. Podrías emplear un código similar al siguiente:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('judy93536/distilroberta-pr200k-phrase-5k')
model = AutoModelForSequenceClassification.from_pretrained('judy93536/distilroberta-pr200k-phrase-5k')

inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)

Para el despliegue, el modelo puede ser usado en Endpoints de Inferencia dedicados.

Funcionalidades

Clasificación de texto
Transformers
PyTorch
RoBERTa
Generado a partir del entrenador
Compatible con AutoTrain
Compatible con Endpoints
Licencia: Apache 2.0
Región: US

Casos de uso

Clasificación de texto en aplicaciones NLP
Análisis de sentimientos
Clasificación de contenido