HuggingFaceH4/tiny-random-LlamaForSequenceClassification
HuggingFaceH4
Clasificación de texto
Este modelo es para la clasificación de secuencias y está basado en la biblioteca Transformers. Es compatible con PyTorch y está diseñado para ser compatible con AutoTrain y puntos finales de inferencia.
Como usar
Este modelo no tiene tarjeta de modelo detallada y no se puede desplegar en la API de inferencia debido a una actividad insuficiente. Para usar el modelo en un punto final dedicado, puedes seguir esta estructura de código:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = 'HuggingFaceH4/tiny-random-LlamaForSequenceClassification'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Ejemplo de uso
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de secuencias
- Basado en Transformers
- Compatibilidad con PyTorch
- Compatible con AutoTrain
- Compatibilidad con puntos finales de inferencia
- Generación de texto
Casos de uso
- Clasificación de texto
- Generación de texto