DistilHermes-2.5-Mistral-7B

eren23
Pregunta y respuesta

DistilHermes-2.5-Mistral-7B es un modelo finetuned con DPO utilizando el dataset argilla/distilabel-intel-orca-dpo-pairs. Es un modelo en la biblioteca de transformers para la generación de texto y respuestas a preguntas. El modelo ha sido evaluado en varios conjuntos de datos y ha mostrado resultados prometedores.

Como usar

Para usar el modelo, se puede utilizar el siguiente ejemplo de código en Python:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = 'eren23/DistilHermes-2.5-Mistral-7B'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = '¿Dónde vivo?'
inputs = tokenizer(prompt, return_tensors='pt')
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Funcionalidades

Generación de texto
Respuestas a preguntas
Compatible con AutoTrain
Compatible con inferencia de generación de texto
Compatible con endpoints de inferencia

Casos de uso

Generación de texto complejo
Respuestas a preguntas complejas
Asistentes virtuales
Sistemas de chatbots
Investigación en procesamiento del lenguaje natural