Adobe lleva tiempo con una idea muy clara: que no tengas que ir saltando de herramienta en herramienta cada vez que sale un modelo de IA nuevo. Su apuesta es ir integrando los mejores modelos dentro de las apps en las que ya trabajas cada día, como Photoshop y Firefly.
El último movimiento va justo en esa dirección: la integración del modelo de imagen Google Gemini 3 (Nano Banana Pro) directamente en Photoshop y Adobe Firefly. Eso significa más calidad en generación y edición por IA… pero, sobre todo, más control desde el propio documento de Photoshop.

Qué cambia en Photoshop con Gemini 3 (Nano Banana Pro)
En Photoshop, Nano Banana Pro se convierte en el nuevo motor que impulsa Generative Fill (Relleno Generativo). Es decir, cuando uses prompts de texto para añadir, eliminar o modificar elementos en una imagen, estarás trabajando con este modelo de última generación.
Lo más interesante para el día a día:
- Ediciones más finas y específicas: El modelo mejora la calidad de las ediciones basadas en texto: puedes pedir cambios muy concretos en zonas determinadas (por ejemplo, solo el cielo, solo el fondo, solo una prenda) y el resultado encaja mejor con la imagen original.
- Más resolución y más realismo: Las generaciones nuevas y las extensiones de imagen mantienen mejor la nitidez y la coherencia de la escena. Es especialmente útil para ampliar lienzos, crear fondos o generar variaciones de producto y lifestyle en alta calidad.
- Control de luz y ambiente con un prompt: Una de las mejoras más llamativas es la capacidad de ajustar la iluminación general con texto: transformar un “día soleado” en una escena nocturna, cambiar la hora dorada por una luz más neutra, etc., directamente desde Generative Fill, sin multiplicar capas de ajustes.
- Texto dentro de las imágenes que por fin parece “real”: Nano Banana Pro está especialmente afinado para integrar texto en la propia imagen (rótulos, carteles, packaging, mockups) de forma más limpia y coherente con la perspectiva y el estilo de la escena.
- Ediciones guiadas por conocimiento del mundo real: El modelo se apoya en la base de conocimiento de Google Search, lo que le ayuda a generar imágenes visualmente correctas y con detalles verosímiles: desde arquitectura a productos, pasando por escenas urbanas realistas.
Y lo importante: todo esto vive dentro del flujo clásico de Photoshop. Puedes pasar de probar variaciones generativas a pulir el resultado con capas, máscaras y selecciones, como has hecho siempre. No hay que exportar a otra app, ni aprender una interfaz nueva, ni contratar suscripciones extra: el modelo es un “motor” más dentro de Photoshop, junto con Nano Banana y FLUX.1 Kontext [pro], que ya se habían integrado antes para alimentar Generative Fill.

Un ecosistema de modelos dentro de las mismas apps
Nano Banana Pro se suma a una lista cada vez más larga de modelos de terceros integrados en el ecosistema de Adobe: además de Google, hay modelos de Black Forest Labs, OpenAI, Runway, Luma, Pika, etc., tanto para imagen como para vídeo y audio.
La idea de fondo es clara:
- No tengas que perseguir tú las novedades de modelos.
- No tengas que ir encadenando herramientas sueltas en tu flujo de trabajo.
- Y no tengas que multiplicar cuentas y suscripciones para aprovechar lo último en IA creativa.
En su lugar, todo entra por la puerta de las apps que ya usas: Photoshop para la edición fina y profesional; Firefly como estudio creativo para idear, generar, probar y compartir conceptos.





