HuggingFaceH4/tiny-random-LlamaForSequenceClassification

HuggingFaceH4
Clasificación de texto

Este modelo es para la clasificación de secuencias y está basado en la biblioteca Transformers. Es compatible con PyTorch y está diseñado para ser compatible con AutoTrain y puntos finales de inferencia.

Como usar

Este modelo no tiene tarjeta de modelo detallada y no se puede desplegar en la API de inferencia debido a una actividad insuficiente. Para usar el modelo en un punto final dedicado, puedes seguir esta estructura de código:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_name = 'HuggingFaceH4/tiny-random-LlamaForSequenceClassification'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Ejemplo de uso
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Clasificación de secuencias
Basado en Transformers
Compatibilidad con PyTorch
Compatible con AutoTrain
Compatibilidad con puntos finales de inferencia
Generación de texto

Casos de uso

Clasificación de texto
Generación de texto