zephyr-dpo-v2
BarraHome
Clasificación de texto
El modelo Zephyr-dpo-v2 es un modelo de generación de texto optimizado con la biblioteca TRL de Huggingface y entrenado 2 veces más rápido utilizando Unsloth. Este modelo está afinado a partir del modelo BarraHome/zephyr-dpo-4bit y ha demostrado un rendimiento notable en varias evaluaciones por medio del Open LLM Leaderboard.
Como usar
Para usar el modelo Zephyr-dpo-v2, puedes integrar la biblioteca Transformers de Huggingface en tu entorno de desarrollo y cargar el modelo con el auto_model correspondiente. Aquí hay un ejemplo de cómo hacerlo en Python:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "BarraHome/zephyr-dpo-v2"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
input_text = "Escribe tu texto aquí"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
outputs = model.generate(input_ids)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Funcionalidades
- Clasificación de texto
- Transformers
- Safetensors
- Generación de texto
- Inferencia de generación de texto
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints de Inferencia
Casos de uso
- Clasificación de texto en varios dominios
- Generación de texto para la escritura creativa
- Asistentes virtuales y chatbots
- Análisis de sentimiento
- Resúmenes automáticos de texto