Higgsfield MCP — agentes creativos con Seedance 2.0, GPT Images 2.0 y todo el catálogo top
Hoy, 29 de abril de 2026, Higgsfield publicó su MCP oficial: un conector que mete a Higgsfield adentro de Claude (y de OpenClaw, Hermes Agent y NemoClaw — los nombres con los que ellos llaman a los otros agentes). El URL es uno solo — https://mcp.higgsfield.ai/mcp — y deja a tu agente generar imagen y video cinematográfico end-to-end con Seedance 2.0, GPT Images 2.0 y el resto del catálogo. Acá traduzco el anuncio al español, dejo los 3 pasos para conectarlo en Claude y arranco con prompts listos para imagen, video y batch nocturno.
anuncio del 29-abr-2026 · higgsfield.ai
Conectá Higgsfield a Claude y generá imagen + video cinematográfico desde la conversación.
La tesis de Higgsfield se la juega en una línea: let your agents build content while you sleep. Hasta hoy la generación de assets vivía en su UI propia; con el MCP el agente ejecuta el ciclo completo adentro del chat — sin pestañas, sin copiar archivos, sin perder contexto. Es la única vía agentic para Seedance 2.0 y GPT Images 2.0, y funciona con la misma URL en cuatro agentes distintos.
el anuncio · qué publicó higgsfield
Higgsfield MCP — el conector oficial llegó
El 29 de abril de 2026 Higgsfield publicó su MCP oficial con un mensaje directo: “You can now create content end-to-end inside any agent.” En vez de mantener su catálogo encerrado en una UI propia, lo abrieron como conector — un URL que se pega adentro del agente y deja a Claude (y a OpenClaw, Hermes Agent y NemoClaw) generar imagen y video sin salir del chat.
El conector se construye sobre Model Context Protocol, el estándar abierto que ya usan Anthropic y otros para que cualquier agente compatible registre conectores externos. Es el mismo mecanismo que activó la tanda de conectores creativos de Anthropic el día anterior — y es la razón por la que Higgsfield no necesita una integración por agente: el URL es único y lo entiende cualquiera que respete MCP.
fuente oficial
higgsfield.ai/mcp
Publicado el 29 de abril de 2026. El anuncio explica cómo registrar el conector en Claude, lista los modelos accesibles vía agente — Seedance 2.0, GPT Images 2.0 y el resto del catálogo top — y deja la frase ancla del lanzamiento: let your agents build content while you sleep. ver el anuncio original
un URL
El mismo en cuatro agentes
Claude, OpenClaw, Hermes Agent y NemoClaw comparten el connector. Cambiás dónde lo pegás, no qué pegás.
estándar abierto
MCP — Model Context Protocol
Higgsfield no inventa un protocolo nuevo: se monta sobre el estándar que cualquier agente compatible ya entiende.
modelos top
Seedance 2.0 + GPT Images 2.0
La frase clave del anuncio: “the only way to get agentic access to Seedance 2.0, GPT Images 2.0, and every other top model.”
Lectura del timing: el anuncio sale el día siguiente al de Anthropic con sus 8 conectores creativos (Adobe, Blender, Ableton…). No es casualidad — Claude para Trabajo Creativo abrió la conversación sobre “agentes adentro de las apps que ya usás”. Higgsfield agarra el viento y se postula como la pieza que falta del lado de la generación cinematográfica.
cómo activar · 3 pasos
Conectá Higgsfield a Claude
Activar el MCP de Higgsfield en Claude te toma menos de dos minutos. Son tres pasos secos — abrir Settings, pegar el URL, hacer login. El URL es único y oficial; cualquier otra cosa que veas circular probablemente no sea el conector real.
paso 01
Abrí Claude → Settings → Connectors
Lanzá la app de Claude o entrá a claude.ai con tu cuenta. Andá a Settings → Connectors. Vas a ver el listado de conectores activos y el botón para sumar uno custom.
paso 02
Add custom connector → nombre y URL
Click en Add custom connector. Como nombre ponele Higgsfield. Pegá el URL del MCP (lo tenés acá abajo listo para copiar). Guardá.
paso 03
Click Add → Connect → sign in
Apretá Add → Connect. Claude te lleva al login de Higgsfield: ingresá con tu cuenta. Listo. Ya podés pedirle a Claude que genere imagen o video y va a usar el catálogo de Higgsfield por debajo.
URL del conector — pegalo en Claude → Settings → Connectors
https://mcp.higgsfield.ai/mcp¿Y en OpenClaw, Hermes o NemoClaw?
El mismo URL — https://mcp.higgsfield.ai/mcp — funciona en los cuatro agentes que Higgsfield nombra en el anuncio. Cambia dónde se registra el connector dentro de la UI de cada uno, no qué se pega. Si vas a usar uno de esos tres, abrí su panel de conectores MCP, ponele de nombre Higgsfield y seguí el paso 3.
Tip de seguridad: el URL oficial empieza con https://mcp.higgsfield.ai y termina en /mcp. Si te topás con un connector que pide credenciales de Higgsfield apuntando a otro dominio, no lo actives — los conectores MCP autentican con tu cuenta y conviene que lo hagan contra el endpoint oficial.
cuatro superficies · una integración
Claude, OpenClaw, Hermes y NemoClaw
En el anuncio Higgsfield nombra cuatro superficies de agente que pueden usar el MCP: Claude, OpenClaw, Hermes Agent y NemoClaw. Las tres últimas son los nombres con los que Higgsfield se refiere a las superficies que no son Claude — preservados verbatim del anuncio. No descifran a qué plataforma corresponde cada una; nosotros tampoco.
superficie de agente
Claude
La superficie destacada del anuncio. Higgsfield muestra el flujo Claude → Settings → Connectors paso a paso porque es el agente con el que más usuarios van a probar el MCP el primer día. Una vez conectado, le pedís imagen o video por chat y el modelo se elige solo según lo que pidas.
el flujo de los 3 pasos del anuncio es el de Claude.
superficie de agente
OpenClaw
Es el nombre con el que Higgsfield llama a la superficie de agente que no es Claude pero que también acepta conectores MCP. Mismo URL, distinta UI para pegarlo. La integración funciona end-to-end igual: el agente piensa, llama al modelo, devuelve el asset.
verbatim del anuncio oficial — Higgsfield no descifra a qué plataforma corresponde.
superficie de agente
Hermes Agent
Otro de los agentes nombrados por Higgsfield en el anuncio. La idea es la misma: una vez registrado el connector, Hermes puede generar imágenes y video sin salir de la conversación. Los modelos del catálogo se exponen a través del mismo MCP.
verbatim del anuncio — preservado tal cual lo nombra Higgsfield.
superficie de agente
NemoClaw
El cuarto agente que el anuncio menciona explícitamente. Comparte URL del MCP con los otros tres. El paquete completo de Higgsfield (Seedance 2.0, GPT Images 2.0 y el resto del catálogo) queda accesible desde NemoClaw apenas se conecta.
verbatim del anuncio — sin decodificar a qué agente real corresponde.
El detalle clave: el URL del MCP es el mismo en las cuatro superficies. Lo único que cambia es el panel donde lo pegás — Settings → Connectors en Claude, equivalente en cada una de las otras tres. Si usás más de un agente en tu día a día, configurá el connector una sola vez por cabeza, no una integración distinta por cada uno.
modelos accesibles · agentic
Seedance 2.0, GPT Images 2.0 y el resto del catálogo
El anuncio se la juega con una frase fuerte: “the only way to get agentic access to Seedance 2.0, GPT Images 2.0, and every other top model.” En castellano: hasta hoy podías usar estos modelos desde la UI propia de Higgsfield, pero el agente tenía que ir y volver con cada turno. Con el MCP el agente elige el modelo, lo llama y devuelve el asset — todo en un mismo turno de la conversación.
Video cinematográfico
Seedance 2.0
Modelo de video destacado por Higgsfield en el anuncio del MCP. Pensado para clips cortos con lenguaje cinematográfico — shots con cámara, iluminación intencional y tono visual coherente. Vía agente, le pedís el shot en lenguaje natural y el modelo entrega el clip listo para revisar.
ejemplo de prompt natural
“5 segundos, plano medio, una mujer caminando bajo la lluvia en Tokio nocturno, neón rojo y cyan, lente 35mm, ratio 9:16.”
Imagen
GPT Images 2.0
El segundo modelo nombrado en el anuncio. Generación de imagen con foco en composición y dirección de arte. Lo importante para el flujo agentic: el modelo está adentro del agente, no en otra UI — el agente arma el prompt, llama al modelo y trae el render sin saltar de pestaña.
ejemplo de prompt natural
“Still cinematográfico, retrato de un chef en cocina industrial al amanecer, luz fría lateral, lente 50mm f/1.4, ratio 4:5, estilo editorial.”
Cinematic motion · vfx · retratos · transiciones
Y el resto del catálogo top de Higgsfield
El anuncio dice textual: "the only way to get agentic access to Seedance 2.0, GPT Images 2.0, and every other top model." Es la promesa fuerte del MCP: el catálogo completo de Higgsfield queda expuesto al agente. No hay menú UI separado — la elección del modelo la hace el agente según lo que pidas.
ejemplo de prompt natural
“Generá tres variaciones del mismo concepto en distintos modelos: una más fotográfica, una más cinematográfica y una más estilizada. Mostrámelas lado a lado.”
El cambio mental: dejás de pensar “¿qué modelo voy a usar?” y empezás a pensar “¿qué pieza necesito?”. La elección del modelo deja de ser tuya y pasa a ser del agente, que elige según el brief. Si querés forzar uno específico, decilo en el prompt — Claude respeta el override.
lectura · qué cambia con esto
Por qué un MCP de Higgsfield mueve la aguja
El anuncio podría leerse como “Higgsfield sumó otra integración”. Es más que eso: cambia dónde vive la generación de assets dentro del flujo creativo. Cuatro razones concretas por las que vale la pena conectarlo hoy.
punto 01
Agentes que crean contenido end-to-end
Hasta ahora la generación de imagen y video con Higgsfield vivía en la UI propia de Higgsfield: ibas, prompteabas, descargabas, volvías al chat. Con el MCP el agente ejecuta el ciclo completo adentro de la conversación — sin pestañas, sin copiar archivos, sin perder contexto.
punto 02
Acceso agentic a modelos top
Higgsfield lo plantea como su diferencial fuerte: "the only way to get agentic access to Seedance 2.0, GPT Images 2.0, and every other top model." No es solo conectar un modelo; es que el agente pueda elegir cuál usar, llamarlo y devolver el asset, todo en un mismo turno.
punto 03
Una sola integración, cuatro agentes
El URL del MCP es uno solo: lo pegás en Claude, en OpenClaw, en Hermes o en NemoClaw y la integración funciona en los cuatro. Lo único que cambia es dónde se registra el connector. Higgsfield se adelantó al estándar abierto y lo dejó instalable en cualquier agente compatible.
punto 04
Build while you sleep
La frase del anuncio — "let your agents build content while you sleep" — apunta al uso batch. Le dejás un brief al agente con el inventario de assets que necesitás para mañana, definís variaciones y aprobaciones, y volvés a la mañana con los renders en una galería. Es la diferencia entre prompt-por-prompt y producción asistida nocturna.
Cross-link: Higgsfield era la herramienta #6 del Stack IA Creador. Ese stack pensaba a Higgsfield como una aplicación más a la que entrabas, prompteabas y salías. Con el MCP, Higgsfield deja de ser una parada en el flujo y pasa a ser una capacidad del agente — algo que Claude puede invocar en cualquier momento sin que tengas que cambiar de pestaña. Es una mudanza adentro del agente, no una sustitución del producto.
arrancá ya · prompts listos
Tres prompts para tu primera sesión con Higgsfield MCP
Estos tres prompts cubren los tres usos que más te van a aparecer apenas conectes el MCP: una imagen cinematográfica con dirección de arte clara, un clip corto de video con Seedance 2.0 y un batch agentic nocturno — el caso bandera del “build while you sleep”. Reemplazá los placeholders entre llaves antes de pegarlos.
Imagen · cinematic still con dirección de arte explícita
Para diseñadores y equipos de marketing. Claude arma 3 variantes con tipo de plano, lente, iluminación y ratio definidos, y devuelve una mini-ficha por imagen para que sepas qué cambiar en la próxima ronda.
Eres mi director de arte conectado a Higgsfield vía el MCP oficial. Modelo recomendado: GPT Images 2.0 (o el que mejor encaje con el brief).
CONTEXTO:
- Marca: {NOMBRE_DE_LA_MARCA}.
- Categoría: {moda · gastronomía · arquitectura · retrato · etc.}.
- Pieza objetivo: {still para feed · hero web · cover de email · etc.}.
- Mood deseado: {cinematográfico · editorial · documental · futurista · etc.}.
TAREA:
1. Generame 3 variantes del mismo concepto, cada una con dirección de arte distinta (una más fotográfica, una más cinematográfica, una más estilizada).
2. Para cada imagen especificá explícitamente: tipo de plano (full body / medium shot / close-up), lente equivalente (35mm / 50mm / 85mm), iluminación (key + fill + rim), hora del día y ratio (1:1, 4:5, 16:9).
3. Después devolveme una mini-ficha por imagen — qué modelo elegiste, por qué, y qué cambiarías si necesitara una versión 2.
REGLAS:
- Nunca inventes logos ni texto en la imagen.
- Si una variante no logra el mood, descartala y rehacela antes de mostrármela.
- No mezcles estilos en la misma imagen — cada variante debe defender su decisión visual.
OUTPUT:
- Las 3 imágenes en una galería interna.
- Tabla resumen: variante / modelo usado / decisión visual / lo que cambiarías.Video · clip de 5 segundos con Seedance 2.0
Para realizadores y editores. Claude reescribe tu concepto como prompt cinematográfico estructurado, genera el clip con Seedance 2.0 vía MCP y propone una segunda toma con correcciones después del primer render.
Eres mi director de fotografía conectado a Higgsfield vía el MCP oficial. Modelo objetivo: Seedance 2.0.
CONTEXTO:
- Concepto: {DESCRIBÍ EN UNA LÍNEA — por ej. "una mujer corriendo bajo la lluvia en Tokio nocturno, neón cyan y rojo, sensación cinematográfica de thriller"}.
- Duración objetivo: 5 segundos.
- Ratio: 9:16 (vertical para reels) — ajustá si te paso otro.
- Referencias visuales que tengo en la cabeza: {cita 1-2 películas, fotógrafos o reels que respeten el tono}.
TAREA:
1. Reescribime el concepto como un prompt cinematográfico estructurado: shot type, movimiento de cámara, lente, iluminación, paleta dominante, mood, ritmo.
2. Generá el clip con Seedance 2.0 vía el MCP de Higgsfield.
3. Después del primer render mostrámelo, identificá las 2 cosas que mejor funcionan y las 2 que no, y proponé un segundo prompt corregido para una toma 2.
REGLAS:
- Nunca incluyas texto on-screen salvo que te lo pida explícito.
- Si el primer render queda flojo en movimiento o iluminación, regeneralo automáticamente con la corrección antes de mostrármelo.
- Mantené los 5 segundos como objetivo: si necesitás más tiempo para que el shot respire, decime y lo decidimos juntos antes.
OUTPUT:
- El clip final.
- Mini-bitácora: prompt v1 / observaciones / prompt v2 / qué cambió en el render.Batch agentic · build while you sleep
Para agencias y creadores con producción diaria. Le dejás el plan de mañana al agente, dormís, y a la mañana tenés una galería ordenada con prompts ganadores y un resumen ejecutivo. El uso bandera del MCP.
Eres mi productor agentic conectado a Higgsfield vía el MCP oficial. Vas a trabajar mientras yo duermo. Modelos disponibles: Seedance 2.0, GPT Images 2.0 y el resto del catálogo Higgsfield.
CONTEXTO:
- Mañana publico: {LISTÁ las piezas — por ej. "1 reel vertical de 5s, 3 stills cuadrados para feed y 1 hero horizontal para newsletter"}.
- Tema central: {DESCRIBILO EN 2 LÍNEAS}.
- Estilo visual deseado: {cinematográfico · editorial · documental · futurista · etc.}.
- Pieza ancla: {cuál es la más importante, así si algo falla priorizamos esa}.
TAREA NOCTURNA:
1. Por cada pieza, generá 3 variaciones con prompts distintos (cambiá lente, hora del día o paleta dominante para que sean realmente distintas, no clones).
2. Marcá tu favorita justificando en una línea por qué es mejor que las otras dos.
3. Dejame todo en una galería interna ordenada por pieza, con el prompt usado y el modelo elegido visible al costado.
4. Si algún render falla, regeneralo automáticamente. Si falla 2 veces seguidas, dejá nota explicando qué falló y seguí con la siguiente pieza para no detener el batch.
REGLAS:
- No inventes logos, marcas ni texto on-screen.
- No mezcles estilos dentro de la misma pieza.
- Optimizá el catálogo Higgsfield: si una pieza pide cinematic motion fuerte, usá Seedance; si pide dirección de arte fotográfica, usá GPT Images. No fuerces todo en un mismo modelo.
OUTPUT a la mañana:
- Galería completa lista para revisar.
- Resumen ejecutivo: cuántas piezas terminadas, cuántas regeneradas, cuántas falladas, tu top-pick por pieza con justificación.
- Lista de prompts ganadores para reciclar la próxima sesión.Tip: Higgsfield rinde mejor con prompts específicos en lenguaje cinematográfico — tipo de plano, lente, hora del día, paleta dominante, ratio. Cuanto más concreto sea el brief, menos vueltas tiene que dar el agente para entender qué buscás. Si dudás, pedíle a Claude que te reescriba tu idea en formato cinematográfico antes de generar.
Guía de la comunidad
Esta guía es la traducción y lectura del anuncio oficial de Higgsfield publicado el 29 de abril de 2026. La fuente original es higgsfield.ai/mcp. Es parte de la bóveda de tododeia, una colección libre de recursos para creadores y agencias que viven de la IA.
Stack IA Creador
Higgsfield era la #6 del stack — ahora vive adentro del agente
Hyperframes + Claude Design
El otro stack de video con Claude Design
Claude para Trabajo Creativo
El anuncio paralelo de Anthropic con sus 8 conectores
¿Para quién no es esta guía?
Si tu uso de Higgsfield es esporádico y te alcanza con prompt suelto desde la UI propia, el MCP es ruido extra para vos — higgsfield.ai sigue funcionando como siempre. La guía es para quien ya vive adentro de Claude (u otro agente) y quiere que la generación de imagen y video pase a ser parte del agente, no una parada externa. Si todavía no usás Higgsfield, primero familiarizate con sus modelos en la web propia y después volvé a conectar el MCP — vas a entender mucho mejor qué le estás delegando al agente.