StableHermes-3b
maddes8cht
Pregunta y respuesta
StableHermes-3b es un modelo de lenguaje avanzado con 3 mil millones de parámetros afinado en el extenso conjunto de datos OpenHermes, que cuenta con 242,000 entradas principalmente obtenidas de datos generados por GPT-4, abarcando una variedad de conjuntos de datos abiertos del panorama de la inteligencia artificial. Como una mejora de la familia GPT-NeoX, StableHermes-3b está específicamente diseñado para proporcionar información precisa y detallada a través de una miríada de dominios.
Como usar
Para utilizar StableHermes-3b para generar conocimientos o respuestas, puedes usar el siguiente fragmento de código:
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("cxllin/StableHermes-3b")
model = AutoModelForCausalLM.from_pretrained(
"cxllin/StableHermes-3b",
trust_remote_code=True,
torch_dtype="auto",
)
model.cuda()
inputs = tokenizer("Describe las posibles implicaciones de la computación cuántica en el futuro de la ciberseguridad.", return_tensors="pt").to("cuda")
tokens = model.generate(
**inputs,
max_new_tokens=64,
temperature=0.75,
top_p=0.95,
do_sample=True,
)
print(tokenizer.decode(tokens[0], skip_special_tokens=True))
Funcionalidades
- 3 Mil millones de parámetros: Arquitectura de última generación enfocada en precisión y detalle.
- Datos de entrenamiento diversos: Beneficiándose de entradas como conjuntos de datos GPTeacher, WizardLM, Airoboros GPT-4, conjuntos de datos de expertos de dominio de Camel-AI, y más.
- Conjunto de datos de código abierto: OpenHermes es una de las primeras afinaciones del conjunto de datos Hermes que es completamente de código abierto.
- Arquitectura avanzada de decodificador Transformer: Basada en la estructura de modelo de lenguaje solo decodificador de GPT-NeoX.
Casos de uso
- Generación de conocimientos o respuestas precisas en una amplia gama de dominios.
- Responder preguntas complejas basadas en datos abiertos.
- Optimización del rendimiento, tamaño de archivo y carga de memoria a través de variantes de cuantización.