zephyr-dpo-v2

BarraHome
Clasificación de texto

El modelo Zephyr-dpo-v2 es un modelo de generación de texto optimizado con la biblioteca TRL de Huggingface y entrenado 2 veces más rápido utilizando Unsloth. Este modelo está afinado a partir del modelo BarraHome/zephyr-dpo-4bit y ha demostrado un rendimiento notable en varias evaluaciones por medio del Open LLM Leaderboard.

Como usar

Para usar el modelo Zephyr-dpo-v2, puedes integrar la biblioteca Transformers de Huggingface en tu entorno de desarrollo y cargar el modelo con el auto_model correspondiente. Aquí hay un ejemplo de cómo hacerlo en Python:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "BarraHome/zephyr-dpo-v2"

model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

input_text = "Escribe tu texto aquí"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
outputs = model.generate(input_ids)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Funcionalidades

Clasificación de texto
Transformers
Safetensors
Generación de texto
Inferencia de generación de texto
Compatibilidad con AutoTrain
Compatibilidad con Endpoints de Inferencia

Casos de uso

Clasificación de texto en varios dominios
Generación de texto para la escritura creativa
Asistentes virtuales y chatbots
Análisis de sentimiento
Resúmenes automáticos de texto