video_generation_model

nagayama0706
Texto a video

video_generation_model es una combinación de los siguientes modelos usando LazyMergekit: TheBloke/openchat_3.5-GPTQ y dalle-mini/dalle-mini. Este modelo permite generar videos a partir de texto utilizando una combinación de capacidad de generación de texto y transformación de imágenes.

Como usar

!pip install -qU transformers accelerate

from transformers import AutoTokenizer
import transformers
import torch

model = "nagayama0706/video_generation_model"
messages = [{"role": "user", "content": "What is a large language model?"}]

tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)

outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])

Funcionalidades

Generación de video a partir de texto
Compatibilidad con Transformers
Utiliza Safetensors para eficiencia
Método de combinación slerp
Soporte para inferencia basada en texto

Casos de uso

Generación de contenido audiovisual a partir de descripciones de texto
Creación automática de videos para marketing y publicidad
Generación de videos educativos y demostrativos basados en guiones de texto