nanaaaa/BilingualChildEmo
nanaaaa
Clasificación de texto
Este modelo se llama BilingualChildEmo y se ha desarrollado para la clasificación de texto. Está basado en la biblioteca de transformadores de Hugging Face y PyTorch, utilizando el modelo xlm-roberta. Su objetivo principal es la clasificación de emociones en textos escritos en dos idiomas. Este modelo es compatible con AutoTrain e Inference Endpoints. La licencia es apache-2.0.
Como usar
Para comenzar a usar el modelo, puede seguir el siguiente código:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = "nanaaaa/BilingualChildEmo"
# Cargar el tokenizador y el modelo
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Ejemplo de uso
text = "I like you. I love you"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Transformadores
- Compatibilidad con AutoTrain
- Compatibilidad con Inference Endpoints
Casos de uso
- Clasificación de emociones en textos bilingües
- Análisis de sentimientos
- Aplicaciones en el procesamiento del lenguaje natural