Stack IA Creador — las 6 herramientas + el Master Prompt
Todos los que estamos creando contenido con IA andamos saturados — perdemos horas entre tantas herramientas. Este es el stack que uso todos los días en mi agencia: las seis herramientas que cubren cada parte del flujo (guion, imagen, video, voz, avatar y DMs) coronadas por el Master Prompt, el prompt que escribe los demás. Aquí encuentras la explicación profunda de cada herramienta, los links directos para abrirlas, y los prompts listos para que Claude te genere lo que cada una necesita sin que tengas que pensarle.
del guion a la DM automatizada
Claude · Nano Banana · ChatGPT · Veo · SeeDance · ElevenLabs · HeyGen · Higgsfield · ManyChat · Master Prompt
Empezamos por el dolor de tener mil herramientas abiertas, vemos el flujo completo en un mapa, y entramos herramienta por herramienta — qué resuelve cada una, cuándo usarla, el link directo y un prompt de Claude listo para generar lo que esa herramienta espera. Cierra el Master Prompt: la skill que te arma el prompt perfecto para cualquier tool del stack.
el pain · por qué importa
Saturados de herramientas, sin un stack que jale
El problema: Sale una herramienta nueva cada semana. Pruebas tres, te quedas con dos, abandonas una y vuelves a la siguiente. Resultado: cinco pestañas abiertas, tres suscripciones que no usas y un viernes en la noche tratando de acordarte cuál era la buena para subtítulos. La IA no nos está ahorrando tiempo todavía porque no tenemos stack, tenemos zoológico.
La consecuencia real: Un Reel de un minuto te toma cuatro horas porque saltas entre Claude, Gemini, Midjourney, Runway, Descript, CapCut, Canva, Notion. Cada salto es un copy-paste, un re-prompt, una cuenta nueva. Para cuando lo subes, ya pasó la idea.
La solución: un stack chico, fijo, donde cada herramienta hace una cosa específica y todas se conectan con un solo cerebro arriba — Claude para todo lo que es texto/dirección, y un Master Prompt que te genera los prompts perfectos para cada modelo del stack.
Antes
15 tabs · 6 cuentas · 0 stack
Cada vez que arrancas un proyecto re-eliges qué tool usar. Quemas energía mental decidiendo, no creando.
Después
6 tools · 1 Master Prompt
Cada herramienta tiene un rol fijo. Claude orquesta. Tú decides la idea, el stack ejecuta.
La diferencia
de 4 horas a 40 minutos
No es magia. Es que dejaste de re-decidir herramienta a cada paso y dejaste a Claude hacer la dirección creativa.
Para quién es esta guía: creadores que están viviendo de su contenido, agencias chicas que producen para clientes, y cualquiera que ya entendió que la IA es la palanca pero todavía no la dejó funcionar. Si pagas más de tres suscripciones de IA y sientes que ninguna se conecta entre sí, este stack está hecho para ti.
el mapa · cómo se conectan
El flujo completo: del guion a la DM automática
Cada herramienta resuelve una etapa específica. No son seis tools sueltas — son seis eslabones de una sola cadena. El Master Prompt está arriba de todas, generando los prompts perfectos para cada una.
01
Guion
Claude (Opus 4.7 + Sonnet)
Convierte una idea cruda en guion humanizado de 45-55s con hook, body listicle, payoff y CTA.
02
Imagen
Nano Banana Pro + ChatGPT
Visuales fotorrealistas o estilizados para portada, B-roll estático y posts. Una para velocidad, otra para detalle.
03
Video
Veo 3.1 + SeeDance 2
Animaciones cinematográficas. Veo para realismo, SeeDance para velocidad. Lo que era un día de rodaje, son diez minutos.
04
Voz
ElevenLabs
Clonación de voz en 30 segundos o voces de personajes para narración, doblaje y ASMR de marca.
05
Avatar
HeyGen + Higgsfield
HeyGen para tu avatar UGC hablando frente a cámara. Higgsfield para efectos cinematográficos image-to-video.
06
DMs
ManyChat
El cierre del flujo: comentario con palabra clave dispara DM automática con el recurso prometido. Cero leads perdidos.
encima de las 6 · master prompt
El prompt que escribe los demás prompts
Para cada herramienta del stack hay un prompt ideal. El Master Prompt te lo genera. Le dices qué necesitas (un guion, una imagen, una shot list, una dirección de voz) y te devuelve el prompt perfecto, listo para pegar. Ir al Master Prompt →
01 · guion
Claude — Opus 4.7 para lo pesado, Sonnet para construir
El primer eslabón del stack. Sin guion, no hay imagen, video, voz ni nada que valga la pena automatizar. Y aquí Claude no compite, gana — los modelos de Anthropic están entrenados específicamente para razonamiento largo, narrativa estructurada y voz humana en español. Lo que ChatGPT te da plano, Claude te lo da con ritmo.
Opus 4.7 — para lo pesado
Cuando necesitas un guion que conecte una marca con una idea compleja, cuando hay que hilar tres hilos narrativos, cuando el dolor del viewer es sutil y hay que aterrizarlo. Opus piensa más profundo, tarda más en responder, pero el output queda. Lo uso para el primer draft de cualquier Reel que vaya a tener vida más allá de un día.
Sonnet 4.6 — para construir e iterar
Cuando ya tengo el guion base y quiero variantes, cuando hay que reescribir el hook diez veces, cuando necesito velocidad para probar formatos. Sonnet responde rápido, sigue instrucciones quirúrgicas y es perfecto para el ping-pong creativo. Mi flujo: Opus arranca, Sonnet pule.
El truco real: no le pidas un guion en seco. Aliméntalo con tu marca (3-4 líneas), tu tono (con dos ejemplos breves) y tu audiencia. La diferencia entre un Reel que conecta y uno que no, está en esos tres campos del prompt.
Idea cruda → guion humanizado de Reel
Le pasas una idea en una línea + tu marca y te devuelve un guion de 45-55s con hook, body listicle, payoff y CTA. Spanish-first, sin 'pa''.
Eres mi co-guionista para Reels de Instagram en español. Tu trabajo es convertir una idea cruda en un guion humanizado de 45-55 segundos siguiendo este formato exacto.
CONTEXTO DE MARCA:
- Mi nicho: {ESCRIBE TU NICHO}
- Mi tono: {natural / técnico / coloquial / formal}
- Mi audiencia: {beginners / intermediate / pros}
IDEA CRUDA:
{DESCRIBE LA IDEA EN 1-2 LÍNEAS}
ESTRUCTURA QUE QUIERO:
- HOOK (6 seg): un dolor o promesa específica que detenga el scroll.
- BODY (40-46 seg): listicle de 3 a 6 puntos, cada uno con un puente narrativo (no usar "primero/segundo/tercero").
- PAYOFF (4-6 seg): el insight que amarra todo.
- CTA (4-6 seg): específico, con palabra clave para ManyChat.
REGLAS:
1. Spanish-first. No uses "pa'", usa "para".
2. Cada punto del body con conteo desigual de palabras (varía 18-28).
3. Verbos concretos antes que adjetivos vagos.
4. Cero emoji, cero hashtags, cero markdown.
5. Devuélveme el guion limpio listo para grabar y abajo notas de cámara (energía 1-10 por sección, gestos sugeridos).Banco de 10 ideas semanales
Para cuando estás seco. Le das tu marca y audiencia, y devuelve 10 ideas listas para guionar — con pain, promesa y estructura sugerida cada una.
Eres mi estratega de contenido para Reels en español.
CONTEXTO:
- Mi marca: {DESCRIBE EN 1-2 LÍNEAS}
- Mi audiencia ideal: {DESCRIBE}
- Mi gancho diferencial: {QUÉ TE HACE DISTINTO}
Genérame 10 ideas de Reel en formato:
#N — [HOOK provisional]
- Pain real que ataca:
- Promesa concreta que cumple:
- Estructura sugerida (listicle / contraste / how-to / story):
- Por qué le va a importar a mi audiencia (1 oración):
REGLAS:
- Cada idea debe ser específica. Nada de "habla de productividad".
- Mínimo 3 ideas con potencial viral (gancho fuerte, dolor universal, payoff inesperado).
- Mínimo 2 ideas educativas para autoridad.
- Spanish-first, no uses "pa'".02 · imagen
Nano Banana Pro + ChatGPT Image — la dupla que pega
Tienes el guion. Ahora lo visual. La pregunta no es cuál es mejor — la pregunta es cuándo usar cada una. Ambas son estado del arte en 2026 y se complementan: una es la mejor para velocidad y consistencia de personaje, la otra la mejor para detalle editorial y dirección compleja.
Nano Banana Pro (Google · Gemini)
Brutal para mantener consistencia de personaje a través de varias imágenes — la misma persona, mismo outfit, distinta escena. Velocidad altísima, edición conversacional (le dices “quítale el fondo y mete una luz dura desde la izquierda” y lo hace). Se accede vía Gemini App. Mi default cuando hago series de B-roll estático para Reels.
ChatGPT Image (OpenAI)
La nueva generación está afilada para detalle editorial, tipografía dentro de la imagen, ilustración compleja con múltiples sujetos y dirección minuciosa. Cuando la imagen tiene que ser portada o necesitas tipografía perfecta dentro de ella, esta es. Lo uso para covers de podcast, portadas de carruseles y posts donde el texto es parte del diseño.
La regla que sigo: empiezo en Nano Banana Pro porque es más rápido. Si necesito una versión más editorial o con tipografía dentro, llevo el mismo concepto a ChatGPT Image. El segundo prompt de abajo te ayuda exactamente con eso: adapta tu prompt de Nano Banana al formato que ChatGPT entiende mejor.
cross-link · ya está en la bóveda
Claude Banana — la fórmula exacta para prompts de Nano Banana
Si quieres ir más profundo, ya hay un proyecto dedicado en la bóveda con la fórmula completa para transformar descripciones básicas en prompts profesionales de Nano Banana Pro.
Descripción visual → 3 variantes de prompt para Nano Banana Pro
Le pasas la escena que tienes en la cabeza y devuelve 3 variantes (segura, riesgo, rompe expectativa) listas para pegar en Gemini.
Eres mi director de arte para imágenes generadas con Nano Banana Pro (Gemini).
DESCRIPCIÓN VISUAL:
{DESCRIBE LA ESCENA EN 2-3 LÍNEAS}
USO FINAL:
{thumbnail / portada / B-roll estático / post de Instagram / banner web}
Devuélveme 3 variantes de prompt, cada una con:
1. Sujeto + acción concretos.
2. Estilo (fotográfico documental, ilustración editorial, render 3D mate, mixed media).
3. Paleta (3 colores específicos en nombre evocador o hex).
4. Composición (regla de tercios, centrado, simetría, perspectiva forzada).
5. Iluminación (golden hour, contraluz suave, sombra dura mediodía, neón).
6. Lente / cámara virtual (35mm, 85mm bokeh, gran angular 24mm, macro).
7. Textura (granulado fílmico, matte, hyperreal, papel acuarela).
8. Negativos (qué evitar: deformaciones, texto sobreimpuesto, marcas).
Etiqueta cada variante: Variante A (segura), Variante B (riesgo), Variante C (rompe expectativa).
Devuélveme las 3 variantes en bloques separados listos para pegar en Nano Banana Pro. No agregues explicación.Adapta tu prompt de Nano Banana → ChatGPT Image
Mantiene la misma intención pero cambia la sintaxis para que ChatGPT te dé su mejor versión. Útil cuando la primera generación se queda corta.
Tienes este prompt original para Nano Banana Pro: [PEGA AQUÍ TU PROMPT DE NANO BANANA] Adáptalo para el generador de imágenes de ChatGPT (GPT-Image) manteniendo: - La misma composición y paleta. - El mismo sujeto y la misma acción. - La misma intención emocional. Ajustando: - Sintaxis a frases naturales en lugar de etiquetas separadas por comas. - Detalles de iluminación y textura más explícitos (ChatGPT responde mejor a descripciones narrativas). - Cualquier mención de marca o logos a lenguaje neutro. - Si hay personajes humanos, marca expresión facial concreta para evitar caras genéricas. Devuélveme solo el prompt adaptado entre triple backticks, sin explicación adicional.
03 · video
Veo 3.1 + SeeDance 2 — para que se mueva
Aquí es donde la diferencia con producción tradicional se hace insultante. Tomas y videos que antes te tomaban un día completo de set, ahora son diez minutos de prompts. Y como con imagen, la dupla resuelve dos problemas distintos.
Veo 3.1 (Google DeepMind)
Realismo fotográfico brutal. Personajes que actúan, audio sincronizado con la escena, control cinematográfico (cámara, lente, movimiento). Cuando necesitas un shot que tendría que pasar por un plató — gente hablando, una escena emocional, un producto en uso — Veo es la herramienta. Más caro en tokens y un poco más lento, pero el output es increíble.
SeeDance 2 (ByteDance · vía Higgsfield)
Velocidad de iteración pura. Generaciones rápidas, costo por clip más bajo, ideal cuando necesitas probar diez variantes antes de comprometerte. Excelente para B-roll abstracto, transiciones, motion graphics y todo lo que no requiere realismo extremo. La forma más cómoda de usarlo es vía Higgsfield, que ya integra el modelo en su plataforma — así no peleas con la versión china de la herramienta.
El flujo que funciona: prototipas el shot list completo en SeeDance 2 (10 clips en 5 minutos), eliges los 3 que van a ser hero shots, y esos los regeneras en Veo 3.1 con el detalle pulido. El resto lo dejas en SeeDance. Mezclas en edición y nadie nota la diferencia, pero tú gastaste la mitad.
tip de oro
No le pidas un “video genial”. Pídele un shot list cinematográfico — cámara, lente, iluminación, movimiento, duración, acción. La diferencia entre un clip que parece IA y uno que parece producción real está en esa precisión.
Guion → shot list para Veo 3.1 + SeeDance 2
Convierte tu guion en una shot list cinematográfica con cámara, lente, iluminación y movimiento. Cada shot etiquetado [VEO 3.1] o [SEEDANCE 2] según prioridad.
Eres mi director de cinematografía para video con IA (Veo 3.1 + SeeDance 2).
INPUT:
{PEGA AQUÍ TU GUION COMPLETO}
OUTPUT: shot list lista para generar.
Por cada beat del guion devuélveme un shot con:
- # del shot
- Descripción visual en 1 línea
- Cámara: tipo de toma (close-up, medium, wide, dolly-in, drone, handheld POV)
- Lente: 24mm gran angular / 35mm reportaje / 85mm retrato / 100mm macro
- Iluminación: hora del día, dirección de la luz, mood
- Acción del sujeto en presente continuo, sin adjetivos vagos
- Movimiento de cámara (estático / push-in / pan / tilt / orbit / dolly-zoom)
- Duración (8s default Veo, marca si necesita menos)
REGLA DE RUTEO:
- Si el shot necesita realismo fotorrealista, gente hablando con voz, narrativa con emoción → marca [VEO 3.1].
- Si el shot prioriza velocidad de iteración, transiciones abstractas, motion graphics, B-roll genérico → marca [SEEDANCE 2].
Estructura final: un bloque por shot, listo para pegar uno por uno. Cero explicación.04 · voz
ElevenLabs — clonas la tuya en 30 segundos o sacas voces de personajes
ElevenLabs sigue siendo el rey del audio generado con IA. La calidad del modelo, el catálogo de voces, la facilidad para clonar la tuya con menos de un minuto de muestra — nada se le acerca todavía. Y para creadores de contenido es el cierre lógico del stack: una vez que tienes guion, imagen y video, la voz es lo que termina de venderlo.
Clonación de voz
Le subes 30 segundos de tu voz limpia (sin música, sin reverb, sin ruido) y a los pocos minutos tienes un clon que puede leer cualquier guion. Inglés, español, portugués, italiano — la misma voz tuya en todos los idiomas. Esto cambia el juego para creadores que quieren tropicalizar su contenido.
Voces de personajes y ASMR
El catálogo de voces predefinidas es enorme: narradores documentales, voces gravosas estilo trailer, voces juveniles, ASMR, niños. Para storytelling, dobles de marca, y narración de carruseles donde no quieres usar tu propia voz, hay opciones para cada caso.
El detalle que cambia todo: ElevenLabs respeta marcas de pausa, énfasis y emoción si se las metes en el texto. Mayúsculas para énfasis, comas y puntos para ritmo, y los nuevos modelos también respetan etiquetas tipo [whispered] o [excited]. Una voz dirigida bien suena 10× más natural que la misma voz con texto plano.
Texto plano → 3 variantes de dirección de voz
Le pasas el texto y la intención, y te devuelve 3 variantes (segura/riesgo/rompe) con edad, acento, velocidad, énfasis, pausas y voice settings sugeridos.
Eres mi director de voz para narración con ElevenLabs.
TEXTO A NARRAR:
{PEGA AQUÍ TU TEXTO}
INTENCIÓN GENERAL:
{urgencia / cómplice / educativo / emocional / venta directa / storytelling}
Devuélveme 3 variantes de dirección de voz. Para cada una:
- Edad aparente (ej. 28-32, 40-45)
- Género (m / f / neutral)
- Acento (latino neutral, mexicano, rioplatense, ibérico, caribe)
- Velocidad base (lenta 130 wpm / media 160 wpm / rápida 190 wpm / variable)
- Intensidad emocional (1-10)
- Pausas marcadas (indica con [...] dónde quieres silencio dentro del texto)
- Énfasis (palabras clave en MAYÚSCULAS dentro del texto)
- Respiraciones audibles (sí/no, dónde)
- Voice settings sugeridos en ElevenLabs: Stability (0-1), Similarity Boost (0-1), Style (0-1)
Etiqueta cada variante: Variante A (segura), Variante B (riesgo), Variante C (rompe expectativa).
Sugiéreme también 2 voces del catálogo público de ElevenLabs que encajen con cada variante (nombres exactos).05 · avatar y efectos
HeyGen + Higgsfield — si no quieres salir tú en cámara
Esta es la sección que más cambia el juego para gente que produce volumen alto y no puede grabarse cada día. HeyGen resuelve a la persona hablando, Higgsfield resuelve los efectos cinematográficos arriba de cualquier foto. Combinadas, eliminan la dependencia de set, cámara y horario.
HeyGen — avatares UGC
Le subes un par de minutos de tu cara grabada y HeyGen te entrega un avatar que puede leer cualquier guion sincronizando labios, expresión y micro-gestos. Para agencias es perfecto: produces videos UGC para 5 clientes distintos sin grabar 5 veces. Para creadores solos: mantienes tu cara presente sin tener que estar prendiendo el set cada vez.
Higgsfield — efectos cinematográficos
Image-to-video premium con foco en movimientos de cámara cinematográficos: dolly-zoom, orbits, parallax, paneos. Le metes una foto fija y te saca un clip que parece sacado de un trailer. Especialmente bueno para productos, intros de canal, transiciones impactantes y todo lo que normalmente requeriría un steadicam.
El combo más potente: avatar de HeyGen hablando frente a cámara + B-roll de Higgsfield en transición. Tu avatar abre el video con un gancho, corte a Higgsfield mostrando el producto/concepto en movimiento cinematográfico, regresas al avatar para el cierre. Tres minutos de edición, output de canal premium.
Guion escrito → versión natural para avatar HeyGen
Reescribe tu guion para que el avatar suene humano, no leído. Frases cortas, micro-pausas, gestos sugeridos con timestamps.
Eres mi script doctor para video UGC con avatar de HeyGen.
TEXTO ORIGINAL:
{PEGA TU GUION ESCRITO}
Reescríbelo para que un avatar UGC lo diga sonando humano a cámara, no leído. Reglas:
1. Frases cortas (12-14 palabras máx).
2. Ritmo conversacional: micro-pausas con coma o punto.
3. Verbos en presente, energía cercana, no formal.
4. Si hay datos, uno por frase.
5. Quita relleno: "como sabemos", "obviamente", "literalmente" si no aporta peso.
6. Cierra con un beat que el avatar pueda subrayar (subir cejas, encoger hombros, sonrisa lateral).
Devuélveme el guion final listo para pegar en HeyGen en español neutro. No uses "pa'", usa "para".
Abajo del guion incluye 3 indicaciones de gesto/expresión que el avatar debe hacer en momentos específicos del texto (marca con timestamps aproximados).Foto fija → 3 prompts de efecto cinematográfico para Higgsfield
Devuelve 3 variantes (sutil, media, high-impact) con movimiento de cámara, sujeto, iluminación dinámica y partículas. Listas para pegar.
Eres mi director de efectos cinematográficos para Higgsfield (image-to-video).
INPUT:
- Foto base: {DESCRIBE LA FOTO EN 2 LÍNEAS}
- Acción deseada: {DESCRIBE LO QUE QUIERES QUE SUCEDA EN EL CLIP}
- Mood: {dramático / playful / hipnótico / cinematic / urgent}
Devuélveme 3 variantes de prompt optimizadas para Higgsfield, cada una con:
1. Movimiento de cámara cinematográfico (dolly-zoom, orbit, push-in, parallax, crane).
2. Movimiento del sujeto (sutilezas naturales, no exageraciones).
3. Iluminación dinámica (cambio de luz a lo largo del clip).
4. Textura / partículas si aplica (humo, niebla, polvo, lluvia, chispas).
5. Duración sugerida (3s / 5s / 8s).
6. Intensidad de movimiento: Variante A (sutil), Variante B (media), Variante C (high-impact).
Devuélveme las variantes listas para pegar, sin explicación adicional.06 · automatización
ManyChat — el cierre del flujo, donde ningún lead se pierde
Tienes el video subido. La gente comenta “IA” o la palabra que pediste. Si tú no respondes en las primeras horas, perdiste 80% de la atención. Aquí entra ManyChat. Configurás un trigger de palabra clave en el comentario, y la herramienta dispara una DM automática con el recurso que prometiste — sin que tengas que abrir Instagram una sola vez.
Por qué ManyChat
Es el estándar de la industria para automatización de DMs en Instagram. Integración oficial con Meta, no se cae, no te suspenden la cuenta. Free tier para empezar, plan pro cuando creces. Visual builder simple — si entiendes árboles de decisión básicos, lo configurás en 20 minutos.
Lo que cambia
Antes: respondías comentarios uno por uno cuando podías y el lead se enfriaba. Después: el comentario dispara una DM en menos de un minuto, con el recurso, un mini-CTA secundario y un tag automático para segmentar después. Vos te enfocás en producir el siguiente Reel.
flow base que funciona
- Trigger: palabra clave en comentarios del Reel (ej. “IA”, “PDF”, “LINKS”).
- Auto-reply público: respuesta corta (máx 90 caracteres) que dice “te mando todo por DM, revisa tu bandeja”.
- DM #1 inmediata: saludo + entrega del recurso (link a un PDF, video, página de la bóveda, lo que sea).
- DM #2 (5 min después): mini-CTA secundario — invitar a un grupo, pedir feedback, llevar a otro contenido.
- Tag automático de la suscripción para segmentar campañas futuras.
- Seguimiento condicional: si en 24h no respondió, mensaje de chequeo amable.
Diseño de flow ManyChat completo
Le pasas tu objetivo, palabra clave y audiencia, y devuelve el flow exacto: trigger, auto-reply público, DM #1, DM #2, tag y seguimiento. Textos listos para pegar.
Eres mi consultor de automatización de DMs en Instagram con ManyChat.
OBJETIVO DE MI CTA:
{ej. "que comenten IA y reciban un PDF con los 6 herramientas"}
PALABRA CLAVE QUE VOY A PEDIR:
{ej. "IA"}
PERFIL DE MI AUDIENCIA:
{describe en 1 línea}
Diséñame el flow completo:
1. Trigger: configuración exacta del comment trigger (palabra exacta vs. contiene, mayúsculas/minúsculas).
2. Auto-reply público debajo del comentario (texto exacto, máx 90 caracteres, sin "pa'").
3. DM #1: saludo + entrega de la promesa (con link al recurso). Texto exacto.
4. DM #2 (5 min después): mini-CTA secundaria (invitar a un grupo, pedir feedback, llevar a otro contenido).
5. Tag automático de la suscripción para segmentar después.
6. Condición de seguimiento: si en 24h no respondió al DM #1, mensaje de chequeo.
Devuélveme los textos exactos de cada paso en bloques separados, listos para pegar en ManyChat. Tono: cercano, directo, latino-neutral.encima de las 6 · master prompt
El Master Prompt — el prompt que escribe los demás prompts
Las seis herramientas de arriba son potentes, pero ninguna te sirve si tu prompt está flojo. Acá entra el Master Prompt: en lugar de pedirle a Claude directamente lo que quieres, le pides que te genere el prompt perfecto para lo que quieres. Es meta — y es lo que separa a la gente que “usa IA” de la gente que la exprime.
La idea
Le dices al Master Prompt qué tarea tienes (un guion, una imagen, una shot list, una dirección de voz, una campaña ManyChat) y te hace primero las preguntas correctas. Solo cuando tiene contexto suficiente, te devuelve el prompt final, pulido, listo para pegar en la herramienta que toque.
Por qué cambia el juego
Dejas de improvisar prompts. Dejas de obtener outputs medio-bien que tienes que reescribir tres veces. El Master Prompt sube la calidad de cualquier herramienta del stack al máximo, porque el output siempre depende del input — y el input ahora está afilado por diseño.
cross-link · ya está en la bóveda
Prompt Master — la skill open-source que afila tus prompts
No es solo un concepto: es una skill de Claude (5.7k★ en GitHub, MIT) que ya está documentada en la bóveda. Revisa tu prompt en 9 dimensiones, detecta para qué herramienta del stack estás escribiendo y mantiene memoria entre prompts. Acá está la guía completa con instalación, dimensiones que evalúa y los 35 anti-patrones que caza.
cómo lo uso en la práctica
- Abro Claude. Pego el Master Prompt template (de abajo) reemplazando {{TAREA}}.
- Claude me hace 5 preguntas — contexto, output, qué evitar, ejemplos, métrica de éxito.
- Las contesto en lenguaje plano, sin pulir.
- Claude me devuelve el prompt afilado entre triple backticks.
- Copio y pego en la herramienta que toque (Nano Banana, Veo, ElevenLabs, HeyGen). El output sale al primer intento.
Master Prompt — template inicial para Claude
Pégalo en Claude reemplazando {{TAREA}} con lo que necesitas (guion, imagen, video, voz, avatar, DM). Claude te hace las preguntas correctas y te devuelve el prompt final pulido.
Eres un experto en {{TAREA}} con diez años de experiencia ayudando a creadores y agencias.
ANTES DE RESPONDER, hazme estas preguntas en orden y espera mis respuestas una por una:
1. ¿Cuál es el contexto exacto del entregable? (audiencia, plataforma, longitud, idioma)
2. ¿Cuál es el output ideal? (formato, tono, restricciones)
3. ¿Qué quiero que NO aparezca en el resultado?
4. ¿Hay ejemplos previos que quiero que tomes como referencia? Si sí, los pegaré.
5. ¿Cuál es la métrica de éxito? (cómo voy a saber si quedó bien)
Una vez tengas las 5 respuestas, escribe el PROMPT FINAL que yo voy a pegar a Claude (o a la herramienta que toque) para resolver mi tarea. El prompt debe:
- Empezar por rol e instrucción clara.
- Incluir restricciones explícitas (qué evitar).
- Pedir output estructurado si aplica.
- Cerrar con un check de calidad que la IA debe hacerse antes de entregar.
Devuélveme el prompt entre triple backticks, listo para copiar. Después del prompt, dame en una línea por qué hiciste cada decisión clave (rol elegido, formato, restricciones).Guía de la comunidad
Este stack es lo que uso todos los días en mi agencia. Las herramientas cambian, los principios no: un tool por etapa, Claude orquestando arriba, y un Master Prompt que afila la entrada para que el output salga bien al primer tiro. Esta guía es parte de la bóveda de tododeia, una colección libre de recursos para creadores y agencias que viven de la IA.
Prompt Master
La skill que afila tus prompts
Claude Banana
Fórmula de prompts para Nano Banana
Hyperframes
Videos animados con Claude Design
¿Para quién no es este stack?
Si recién estás empezando y no tienes idea clara de qué quieres comunicar, primero define el mensaje y la marca — el stack más afilado del mundo no salva un mensaje confuso. Si tu único objetivo es hacer un video al mes para tu portafolio, no necesitas seis herramientas; con dos te sobra. Y si lo que produces es estrictamente artístico (cine, videoarte, instalación), este stack está optimizado para velocidad y conversión, no para autoría visual de gama alta. Para creadores y agencias produciendo volumen con IA, esto es exactamente lo que necesitabas.