distilroberta-pr200k-phrase-5k
judy93536
Clasificación de texto
Este modelo es una versión afinada de judy93536/distilroberta-pr200k-ep20 en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1609 y Precisión: 0.9429.
Como usar
No se encontraron detalles específicos sobre cómo utilizar este modelo. Sin embargo, se puede inferir que utiliza la biblioteca de transformers de Hugging Face y PyTorch. Podrías emplear un código similar al siguiente:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('judy93536/distilroberta-pr200k-phrase-5k')
model = AutoModelForSequenceClassification.from_pretrained('judy93536/distilroberta-pr200k-phrase-5k')
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
Para el despliegue, el modelo puede ser usado en Endpoints de Inferencia dedicados.
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- RoBERTa
- Generado a partir del entrenador
- Compatible con AutoTrain
- Compatible con Endpoints
- Licencia: Apache 2.0
- Región: US
Casos de uso
- Clasificación de texto en aplicaciones NLP
- Análisis de sentimientos
- Clasificación de contenido