nanaaaa/BilingualChildEmo

nanaaaa
Clasificación de texto

Este modelo se llama BilingualChildEmo y se ha desarrollado para la clasificación de texto. Está basado en la biblioteca de transformadores de Hugging Face y PyTorch, utilizando el modelo xlm-roberta. Su objetivo principal es la clasificación de emociones en textos escritos en dos idiomas. Este modelo es compatible con AutoTrain e Inference Endpoints. La licencia es apache-2.0.

Como usar

Para comenzar a usar el modelo, puede seguir el siguiente código:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_name = "nanaaaa/BilingualChildEmo"

# Cargar el tokenizador y el modelo
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Ejemplo de uso
text = "I like you. I love you"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Transformadores
Compatibilidad con AutoTrain
Compatibilidad con Inference Endpoints

Casos de uso

Clasificación de emociones en textos bilingües
Análisis de sentimientos
Aplicaciones en el procesamiento del lenguaje natural