video_generation_model
nagayama0706
Texto a video
video_generation_model es una combinación de los siguientes modelos usando LazyMergekit: TheBloke/openchat_3.5-GPTQ y dalle-mini/dalle-mini. Este modelo permite generar videos a partir de texto utilizando una combinación de capacidad de generación de texto y transformación de imágenes.
Como usar
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "nagayama0706/video_generation_model"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
Funcionalidades
- Generación de video a partir de texto
- Compatibilidad con Transformers
- Utiliza Safetensors para eficiencia
- Método de combinación slerp
- Soporte para inferencia basada en texto
Casos de uso
- Generación de contenido audiovisual a partir de descripciones de texto
- Creación automática de videos para marketing y publicidad
- Generación de videos educativos y demostrativos basados en guiones de texto