Mikael110/llama-2-7b-guanaco-fp16

Mikael110
Clasificación de texto

Esta es una versión de Llama-2 de Guanaco. Fue afinado desde el modelo base Llama-7b usando los scripts de entrenamiento oficiales encontrados en el repositorio de QLoRA. Quería que fuera lo más fiel posible y, por lo tanto, no cambié nada en el script de entrenamiento más allá del modelo al que apuntaba. El prompt del modelo es, por lo tanto, también el mismo que el modelo original de Guanaco. Este repositorio contiene el modelo fusionado f16. El adaptador QLoRA se puede encontrar aquí. Una versión de 13b del modelo se puede encontrar aquí. Renuncia legal: Este modelo está sujeto a las restricciones de uso del modelo Llama-2 original. Y no viene con ningún tipo de garantía.

Como usar

# Uso del modelo

Este es un ejemplo de cómo usar el modelo en código para la generación de texto:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

modelo = AutoModelForCausalLM.from_pretrained('Mikael110/llama-2-7b-guanaco-fp16')
tokenizer = AutoTokenizer.from_pretrained('Mikael110/llama-2-7b-guanaco-fp16')

entrada = tokenizer.encode('Tu texto aquí', return_tensors='pt')
salida = modelo.generate(entrada)
texto_generado = tokenizer.decode(salida[0], skip_special_tokens=True)
print(texto_generado)

Las adaptaciones de QLoRA se pueden encontrar aquí.

Funcionalidades

Clasificación de Texto
Transformers
PyTorch
Generación de Texto
Compatible con AutoTrain
Inferencia de Generación de Texto
Compatible con Endpoints

Casos de uso

Clasificación de texto para análisis de sentimientos.
Generación de texto creativa.
Asistencia en la escritura de contenido.
Automatización de diálogos conversacionales.