siebert/sentiment-roberta-large-english
Este modelo ('SiEBERT', prefijo para 'Sentimiento en Inglés') es un punto de control afinado de RoBERTa-large (Liu et al. 2019). Permite un análisis binario confiable de sentimientos para varios tipos de textos en inglés. Para cada instancia, predice sentimientos positivos (1) o negativos (0). El modelo fue afinado y evaluado en 15 conjuntos de datos de diversas fuentes textuales para mejorar la generalización a través de diferentes tipos de textos (reseñas, tweets, etc.). En consecuencia, supera a los modelos entrenados en un solo tipo de texto (por ejemplo, reseñas de películas del popular conjunto de datos SST-2) cuando se usa en datos nuevos.
Como usar
La forma más fácil de usar el modelo para predicciones individuales es mediante el pipeline de análisis de sentimientos de Hugging Face, que sólo necesita unas pocas líneas de código como se muestra en el siguiente ejemplo:
from transformers import pipeline
sentiment_analysis = pipeline("sentiment-analysis", model="siebert/sentiment-roberta-large-english")
print(sentiment_analysis("I love this!"))
Funcionalidades
- Clasificación precisa de sentimientos binarios
- Afinado en 15 conjuntos de datos diferentes
- Generalización avanzada en diferentes tipos de textos
- Supera a modelos entrenados en un solo tipo de texto
- Compatible con PyTorch, TensorFlow y JAX
- Preparado para AutoTrain y Endpoints de Hugging Face
Casos de uso
- Análisis de sentimientos en reseñas de productos
- Análisis de sentimientos en tweets
- Evaluación de sentimientos en datos no etiquetados
- Generalización y adaptación a nuevos datos
- Punto de partida para un afinamiento posterior en datos específicos