• Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología
Notiulti
Noticias Ultimas
Inicio » Adobe
Tag:

Adobe

Tecnología

Adobe Sneaks 2026: IA predice el éxito de campañas, elimina el adivinazo

by Editor de Tecnologia abril 23, 2026
written by Editor de Tecnologia

Adobe Sneaks 2026: La demostración ganadora muestra cómo la IA convierte el adivinamiento de campañas en predicciones

Publicado el: 23 de abril de 2026 a las 9:33 AM por Melania Watson

La sesión anual de Adobe Sneaks en Adobe Summit en Las Vegas volvió a reunir a una audiencia llena en el escenario principal, y este año ofreció mucho más que simple curiosidad. El tradicional escaparate de ideas experimentales se ha convertido en un banco de pruebas para lo próximo en experiencia del cliente, con un número creciente de conceptos que dan el salto de demostración a producto implementado.

Diseñado para destacar la innovación de toda la empresa, Sneaks invita a cualquiera dentro de Adobe –desde ingenieros hasta diseñadores de UX– a presentar sus ideas más audaces. En 2026, ese flujo ha aumentado significativamente. Más de 500 conceptos fueron enviados (en comparación con alrededor de 150 el año pasado), impulsados por la ideación potenciada por IA, prototipado rápido y lo que los insiders están llamando una nueva era de “vibe coding”.

El resultado fue un conjunto cuidadosamente seleccionado de siete demostraciones en vivo que abarcan desde la creación de contenido hasta el cumplimiento de marca, todas construidas como prototipos funcionales. Aunque siguen siendo experimentales, la brecha entre los conceptos presentados en Sneaks y su implementación real se está reduciendo rápidamente, lo que subraya que las ideas futuristas de Adobe están convirtiéndose cada vez más en realidades a corto plazo para los profesionales del marketing.

Con la IA conectando datos, contenido y equipos de manera más fluida que nunca, Sneaks 2026 no solo insinuó lo que viene, sino que también mostró qué tan rápido podría llegar.

De las 500 propuestas, siete proyectos fueron seleccionados para demostración en vivo, cada uno un prototipo funcional construido por ingenieros e investigadores de diversos equipos de Adobe.

“Son prototipos reales creados por ingenieros reales”, declaró Eric Matisoff, evangelista principal de Adobe. “Aún no han pasado por el riguroso control de calidad que realizamos cuando lanzamos algo a producción”.

La sesión, conducida junto a Iliza Shlesinger, comediante, actriz y escritora galardonada, se centró en cómo se está aplicando la IA agente en los flujos de trabajo de marketing, desde la producción creativa hasta la personalización y las pruebas.

Tras las demostraciones, el público luego…

abril 23, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Adobe Firefly: Modelos Personalizados y Nuevas Funciones IA

by Editor de Tecnologia marzo 19, 2026
written by Editor de Tecnologia

Adobe ha lanzado en versión beta pública sus Modelos Personalizados dentro de su plataforma de IA creativa Firefly, ofreciendo a los usuarios la posibilidad de entrenar la generación de imágenes con su propio estilo visual.

Esta función permite a los creadores subir sus propias imágenes para que Firefly construya un modelo reutilizable basado en una estética, diseño de personajes o apariencia fotográfica elegida. La beta está dirigida a la ideación en ilustración, trabajo de personajes y fotografía, ayudando a los usuarios a mantener una identidad visual consistente en múltiples resultados.

Este movimiento amplía el esfuerzo de Adobe por convertir a Firefly en un espacio de trabajo central para la producción de imágenes y videos asistida por IA. Firefly ahora también ofrece acceso a más de 30 modelos de IA de Adobe y otros proveedores, incluyendo Google, OpenAI, Runway y Kling.

Entre los modelos recién disponibles se encuentran Nano Banana 2 y Veo 3.1 de Google, Gen-4.5 de Runway, Firefly Image Model 5 de Adobe y Kling 2.5 Turbo. Adobe afirma que los clientes de Firefly pueden utilizar generaciones ilimitadas de imágenes y videos en una amplia gama de estos modelos.

Control de Estilo

Adobe posiciona los Modelos Personalizados como una forma para que los profesionales creativos y las marcas mantengan la consistencia estilística al producir grandes volúmenes de contenido. El sistema está diseñado para preservar elementos como la paleta de colores, la iluminación, el grosor de las líneas y las características recurrentes de los personajes, permitiendo a los equipos generar nuevo material sin restablecer la línea de base visual cada vez.

Los modelos entrenados son privados por defecto, un aspecto que probablemente será importante para las marcas y agencias preocupadas por el control de los activos propios y el material de las campañas internas.

En lugar de pedir a los usuarios que cambien entre diferentes servicios, Adobe está intentando combinar la elección del modelo, la generación y la edición en un único entorno. En la práctica, los usuarios pueden crear una imagen o un video con un modelo, comparar los resultados con otro y continuar editando dentro de las propias herramientas de Adobe.

Herramientas de Edición

Adobe también introdujo herramientas adicionales de imagen y video en Firefly. Una de ellas, llamada Quick Cut, está diseñada para convertir metraje sin editar en una secuencia editada inicial en cuestión de minutos.

Las opciones de edición de imágenes ampliadas permitirán a los usuarios añadir u eliminar objetos, extender escenas y realizar ajustes más detallados a los elementos visuales generados. Estos cambios muestran el intento de Adobe de posicionar a Firefly no solo como un generador basado en indicaciones, sino como un flujo de trabajo de producción más amplio para la creación y el refinamiento de borradores.

Esto refleja un cambio más amplio en el mercado de la IA generativa, donde los grupos de software van más allá de las indicaciones de texto independientes y las salidas de imagen única. Los proveedores están intentando cada vez más mantener a los usuarios dentro de un mismo sistema, desde el desarrollo del concepto hasta la edición, la revisión y la entrega.

Impulso Conversacional

Adobe también está ampliando el acceso a Project Moonlight, un producto en beta privada que utiliza una interfaz conversacional en todas las aplicaciones de Adobe. El sistema está diseñado para permitir a los usuarios describir lo que quieren en un chat y luego trabajar en tareas en aplicaciones como Photoshop, Express y Acrobat.

Project Moonlight se mostró por primera vez anteriormente y sigue en beta privada, pero su expansión subraya la visión de Adobe de que las interfaces conversacionales se convertirán en una forma más común de gestionar el software creativo. En lugar de introducir una indicación a la vez, los usuarios dirigirían el software a través de un intercambio continuo, al tiempo que podrían ajustar y refinar el trabajo.

Adobe describió a Firefly como un «estudio de IA creativa todo en uno» que reúne modelos externos y las propias herramientas de edición de Adobe. La compañía apuesta a que los clientes preferirán un único flujo de trabajo donde la generación y la postproducción vayan de la mano.

La competencia en este segmento se ha intensificado a medida que las empresas de imágenes y videos de IA buscan posiciones más sólidas en el trabajo creativo profesional. La respuesta de Adobe ha sido construir Firefly no solo en torno a sus propios modelos, sino también en torno al acceso a sistemas de terceros, al tiempo que utiliza su software de edición establecido como un punto de diferenciación.

El último lanzamiento también sugiere que Adobe quiere abordar una de las preocupaciones más prácticas para los usuarios profesionales de la IA generativa: cómo hacer que los resultados sean repetibles. Para muchos equipos de diseño, la consistencia en las campañas, los formatos y los canales puede ser tan importante como la novedad. Un modelo entrenado con activos internos ofrece una vía para ello, especialmente para trabajos centrados en personajes, ilustraciones de marca y estilos fotográficos recurrentes.

Adobe afirma que el enfoque de entrenamiento personalizado permite a los usuarios convertir sus propias bibliotecas de imágenes en una base reutilizable para futuros informes y proyectos, convirtiendo el modelo resultante en parte de su flujo de trabajo habitual.

marzo 19, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Entretenimiento

Adobe Animate: Revierte Adobe su decisión de discontinuar el software

by Editora de Entretenimiento febrero 5, 2026
written by Editora de Entretenimiento

Hace apenas unos días, Adobe anunció su intención de descontinuar Animate, su software de animación 2D, enfocándose aparentemente en su plataforma de inteligencia artificial Firefly y sus capacidades de video generativo. Sin embargo, la compañía dio un giro inesperado y emitió un comunicado confirmando que Animate no será descontinuado ni se restringirá el acceso a él.

A continuación, te presentamos los detalles de esta rápida sucesión de eventos, las razones detrás de esta decisión y por qué podría considerarse una victoria para los cineastas y artistas que buscan mantener su autonomía en la era de la IA.


Adobe Animate Saga

La situación cambió rápidamente, lo que dificultó el seguimiento de los detalles. Sin embargo, según informes, los usuarios y suscriptores de Adobe Animate recibieron un correo electrónico esta semana informando sobre la posible discontinuación de Animate a partir del 1 de marzo de 2026.

Se animó a los usuarios existentes a seguir utilizando el software, pero se les informó que dejaría de recibir soporte técnico después del 1 de marzo de 2027. Esto provocó una fuerte reacción en línea, mayor de lo que aparentemente esperaba Adobe, con usuarios veteranos expresando su desacuerdo y muchos señalando la posible relación con el nuevo enfoque de la compañía en sus modelos y plataforma de IA.

En un comunicado publicado ayer, 4 de febrero de 2026, Adobe ha revertido oficialmente su decisión y no descontinuará ni restringirá el acceso a Adobe Animate.

¿Qué sigue para Adobe Animate?

Según el comunicado de Adobe, que se reproduce íntegramente a continuación, Animate seguirá estando disponible para clientes nuevos y existentes, y ya no habrá una fecha límite para los cambios mencionados en el correo electrónico original.

“No estamos descontinuando ni restringiendo el acceso a Adobe Animate. Animate seguirá estando disponible para clientes nuevos y existentes, y nos aseguraremos de que continúes teniendo acceso a tu contenido. Ya no hay una fecha límite para que Animate deje de estar disponible. Estos cambios se diferencian de lo que compartimos en nuestro correo electrónico original.

Adobe Animate está en modo de mantenimiento para todos los clientes. Esto se aplica a clientes individuales, pequeñas empresas y empresas.


El modo de mantenimiento significa que continuaremos dando soporte a la aplicación y proporcionando actualizaciones de seguridad y correcciones de errores, pero ya no agregaremos nuevas funciones. Animate seguirá estando disponible para usuarios nuevos y existentes: no descontinuaremos ni restringiremos el acceso a Adobe Animate.


Estamos comprometidos a garantizar que los usuarios de Animate tengan acceso a su contenido, independientemente de los cambios en el estado de desarrollo.”

Adobe Animate tiene una historia más profunda de lo que muchos imaginan, ya que técnicamente debutó en 1996 como FutureSplash Animator de la compañía FutureWave Software. Esa compañía fue adquirida en 1997 por MacroMedia, que a su vez fue adquirida por Adobe en 2005.

Animate ha sido parte de Adobe Creative Cloud desde 2015 y se ha utilizado en una amplia gama de películas, programas y otros proyectos creativos a lo largo de los años como una opción de software de animación 2D popular y capaz que, hasta ahora, encajaba bien en el ecosistema de herramientas creativas de Adobe.

Una victoria contra la IA

En general, lo más importante aquí podría ser que las voces de los creadores fueron escuchadas y los cambios impopulares se revertieron. Es difícil no establecer una conexión directa entre Animate, que es el tipo más “tradicional” de animación 2D digital, y la nueva era de la animación y generación de IA, algo en lo que Adobe está apostando fuertemente una y otra vez.

Sin embargo, esperamos que esto sea una buena señal de que cuando la gente alza la voz, las grandes empresas y las industrias en general escuchan.

febrero 5, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Entretenimiento

Adobe Animate: No se suspenderá, entra en mantenimiento

by Editora de Entretenimiento febrero 4, 2026
written by Editora de Entretenimiento

Buenas noticias para los animadores: Adobe ha dado marcha atrás en su decisión de descontinuar Animate el 1 de marzo. La compañía anunció que, en lugar de eliminar la aplicación, Animate entrará en modo de mantenimiento. Esto significa que seguirá recibiendo actualizaciones de seguridad y corrección de errores, y permanecerá disponible tanto para usuarios nuevos como existentes, aunque no se añadirán nuevas funcionalidades.

La decisión se produce tras una comunicación inicial que, según Adobe, “no cumplió con nuestros estándares y causó mucha confusión y angustia en la comunidad”, tal como se expresó en una publicación de Reddit por parte de Mike Chambers, miembro del equipo de la comunidad de Adobe. Puedes encontrar más detalles sobre la situación aquí.

Adobe asegura que Animate estará disponible en este modo de mantenimiento “indefinidamente” para usuarios individuales, pequeñas empresas y grandes corporaciones. Anteriormente, se había comunicado que los usuarios no empresariales tendrían acceso a la aplicación y la posibilidad de descargar contenido hasta el 1 de marzo de 2027, mientras que los clientes empresariales hasta el 1 de marzo de 2029.

Para más información sobre el cambio de planes, puedes consultar la FAQ oficial de Adobe.

febrero 4, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Entretenimiento

Adobe Animate: Fin del soporte y alternativas

by Editora de Entretenimiento febrero 2, 2026
written by Editora de Entretenimiento

Adobe ha anunciado el fin de una era para los animadores: Adobe Animate dejará de estar a la venta el 1 de marzo. La compañía lo comunicó a través de una sección de preguntas frecuentes en su sitio web, justificando la decisión con la aparición de nuevas plataformas que, según ellos, se adaptan mejor a las necesidades actuales de los usuarios.

Aunque la venta se detendrá en marzo, los usuarios aún tendrán tiempo para acceder y descargar sus archivos. Adobe ha establecido el 1 de marzo de 2027 como fecha límite para la mayoría, extendiéndola hasta el 1 de marzo de 2029 para clientes empresariales. La aplicación seguirá estando disponible para su descarga hasta esas fechas y la compañía promete continuar brindando soporte técnico durante este período de transición.

La historia de Adobe Animate se remonta a 1996, cuando FutureWave Software lanzó FutureSplash Animator, una herramienta pionera para la creación de animaciones vectoriales. Posteriormente, Macromedia adquirió la herramienta, renombrándola Flash. En 2005, Adobe compró Macromedia y la aplicación pasó a llamarse Adobe Flash Professional. En 2015, con el declive de Flash en la web, Adobe anunció su intención de cambiarle el nombre a Adobe Animate.

Si bien Adobe sugiere que Creative Cloud Pro ofrece alternativas como After Effects o Adobe Express para reemplazar algunas funciones de Animate, la noticia ha generado frustración entre los usuarios. En redes sociales, como se evidencia en Reddit y otros foros, muchos expresan su descontento. Incluso creadores de series animadas populares, como Chikn Nuggit, han manifestado su dependencia de Animate, señalando que su cierre podría afectar a numerosos empleos y poner en riesgo la preservación de obras pasadas. En un mensaje publicado en X (antes Twitter), el equipo de Chikn Nuggit expresó su preocupación: “Esta decisión no solo perjudicaría a innumerables trabajos en la industria, sino que también podría significar la pérdida de muchas creaciones del pasado”. David Firth, creador de la inquietante serie Salad Fingers, también ha confirmado que sigue utilizando la aplicación para su trabajo.

Megacharlie, un artista técnico de Jackbox Games, añadió que Animate es una herramienta fundamental en la producción de dibujos animados de alta calidad para televisión, películas, estudios de animación y videojuegos, tanto grandes como independientes, además de ser utilizada por miles de creadores independientes a diario.

febrero 2, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Entretenimiento

CES 2024: IA y Entretenimiento, la Nueva Tendencia

by Editora de Entretenimiento enero 7, 2026
written by Editora de Entretenimiento

Las Vegas se ha convertido, una vez más, en el epicentro de la innovación tecnológica con la edición 2026 de CES. Si bien la feria destaca por gadgets sorprendentes como piruletas que cantan o robots que doblan la ropa, este año el entretenimiento ha ocupado un lugar central en la conversación.

Más de 25 paneles y eventos dedicados a la industria del entretenimiento se están llevando a cabo en Las Vegas, abarcando tanto el ámbito tradicional de los estudios como el floreciente mundo de los creadores de contenido digital. Las discusiones se han centrado en el potencial cinematográfico de la inteligencia artificial, el impacto de esta tecnología en la publicidad y el papel cada vez más importante de la economía de los creadores.

La inteligencia artificial ha generado controversia en Hollywood, con muchos profesionales del sector mostrando reticencia a adoptar estas nuevas herramientas. La creación de Tilly Norwood, el primer “actor” generado completamente por IA, provocó indignación. Las preocupaciones sobre los derechos de autor de personajes, imágenes y materiales existentes siguen siendo relevantes, pero muchos participantes en CES se mostraron optimistas sobre el potencial de la IA para potenciar la creatividad de los artistas en lugar de reemplazarla.

“Las herramientas que creamos han desbloqueado algo en nosotros. Han democratizado la narración de historias, permitiendo que cualquiera pueda convertirse en narrador”, afirmó Dwayne Koh, director creativo de Leonardo.ai, durante una sesión sobre IA y creatividad. “Iguala las condiciones de juego y facilita que las personas cuenten las historias que siempre han querido contar, pero que antes no tenían la oportunidad de hacer realidad.”

Otros participantes señalaron que el temor de Hollywood ante las nuevas tecnologías no es nuevo. Hannah Elsakr, vicepresidenta de Adobe para nuevos negocios de IA generativa, recordó que, “cuando lanzamos Photoshop en los años 90, también recibimos llamadas telefónicas furiosas de creativos que decían que estábamos destruyendo la artesanía.”

“Estamos en las primeras etapas con la IA. No estoy abogando por más videos de gatos saltando desde trampolines en sus feeds. Creo que se trata de la creatividad de alto nivel, y que el director, el artista y el actor serán los que impulsen la calidad”, continuó Elsakr. “Piensen en la IA como una herramienta más en la caja de herramientas para impulsar ese avance.”

Las conversaciones también se centraron en la creciente legitimidad de los influencers y los creadores de contenido nativos de internet dentro de la industria del entretenimiento tradicional. La eficiencia con la que trabajan estos creadores, a menudo gracias al uso de herramientas impulsadas por IA, fue un tema recurrente. Brad Haugen, vicepresidente ejecutivo de estrategia digital y crecimiento de Lionsgate y 3 Arts, instó a las compañías de medios tradicionales a colaborar con los creadores y reconocer su importancia. “Potencialmente, tenemos entre nosotros al próximo gran cineasta, al próximo gran showrunner de televisión, al próximo gran emprendedor digital”, dijo Haugen. “Los creadores no están solo ahí para promocionar productos ni para hacer cosas en internet. Son, en realidad, el próximo Spike Jonze y la próxima Sofia Coppola.”

El miércoles se continuará con la programación relacionada con el entretenimiento, incluyendo paneles con líderes de Netflix, Disney y Warner Bros. Discovery, y el actor Joseph Gordon-Levitt, como parte del Variety’s Entertainment Summit.

Además de los eventos programados, CES exhibe una amplia gama de productos y servicios relacionados con el entretenimiento, incluyendo televisores con funciones avanzadas, auriculares inteligentes con IA, una “guitarra inteligente sin cables” e incluso una “silla de sonido” con audio integrado, todos diseñados para llevar la IA y la tecnología avanzada a los consumidores.

Amazon también anunció el lanzamiento de Alexa.com, que incorpora su asistente de IA a la web con nuevas funciones, como recomendaciones personalizadas de películas y programas de televisión. Esta es solo una de las muchas características diseñadas para mejorar la experiencia de visualización en el hogar, incluyendo la función previamente anunciada que permite a Alexa saltar a una escena específica con solo una descripción sencilla.

enero 7, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

ChatGPT: Apps dentro de la IA, el futuro del software

by Editor de Tecnologia diciembre 19, 2025
written by Editor de Tecnologia

Mark Wilson | Publicado hace 2 horas

Cuando Apple lanzó la App Store en 2008, fue increíblemente influyente para el futuro de internet. La todopoderosa World Wide Web se fragmentó en aplicaciones de tamaño reducido, a menudo denominadas Web 2.0. Lo que siguió no fue solo software que cabía en tu bolsillo. Desde TikTok hasta Uber, estas plataformas equipadas con cámaras, integradas con GPS y conectadas a la nube cambiaron la forma en que vivimos.

Ahora, a raíz de la IA, la tienda de aplicaciones está resurgiendo. Pero en lugar de construirse como iconos táctiles dentro de un sistema operativo móvil, se están conectando directamente a las conversaciones de LLM (Modelos de Lenguaje Extensos) como Microsoft CoPilot y Anthropic’s Claude.

Hoy, OpenAI –la plataforma de IA más grande con 800 millones de usuarios semanales– está abriendo ChatGPT para que cualquier desarrollador integre su aplicación directamente en el flujo de la conversación (pendiente de revisión y aprobación). Tras un programa piloto a principios de este año, ahora cualquier desarrollador puede conectar sus propias aplicaciones para que se sugieran contextualemente durante cualquier chat, o que sean invocadas por un usuario mencionando su nombre específico (@).

Socios iniciales como Adobe permitirán editar imágenes directamente en el flujo de la conversación (con controles deslizantes para ajustarlas), mientras que Target mostrará cualquier tipo de producto para comprar. Independientemente de tus sentimientos hacia la IA, estas herramientas parecen destinadas a cambiar la forma en que pensamos sobre las aplicaciones e incluso la multitarea, al desplazarnos de un software basado en sustantivos (Canva, Figma) a verbos (“crear una presentación”).

“Ya no se sentirá como si estuvieras entrando por una puerta principal. Es como si te encontraras con estos [usuarios] en un momento muy específico”, dice Bryant Jow, un diseñador de OpenAI que supervisa la integración de aplicaciones. “Creo realmente que una de las cosas más importantes es que no debería haber una curva de aprendizaje ni que tengas que reorientarte. Debería sentirse inmediata e intuitivamente fácil.”

De hecho, la promesa de todas las empresas asociadas con las que hablé es cumplir con lo que los LLM generalmente solo insinúan. Hacemos lluvias de ideas sobre todo tipo de ideas dentro de los chats de IA, pero cuando es hora de darles vida, podemos topar con un muro. Aquí es donde las aplicaciones integradas pueden aparecer, ofreciendo sus servicios más afinados. Pero el diablo está en los detalles. Y muy pocos detalles han sido completamente resueltos.

“Si recuerdas las primeras aplicaciones que la gente creó en la App Store, como la aplicación para beber cerveza [iBeer], eran… bueno, eran lo que eran, ¿verdad? Mucha gente tardó un momento en descubrir cómo comportarse en este ecosistema. ¿Qué construimos? ¿Cómo proporcionamos utilidad? ¿Y cómo optimizamos para eso?”, dice Gui Seiz, quien lidera el diseño de producto en el equipo de IA de Figma. “Creo que todavía estamos en esa etapa.”

Qué pueden hacer realmente las aplicaciones de ChatGPT y cómo lo hacen

Para ser completamente franco, los proveedores de modelos de IA están creando una especie de ouroboros con aplicaciones conectadas. Hablas con ChatGPT. Te recomienda que te conectes con una aplicación. Esa aplicación, sin embargo, probablemente esté impulsada por modelos de IA que podrían ser de OpenAI. Y así, su agente impulsado parcialmente por OpenAI, lleno de conocimientos especializados, vuelve a aparecer en la plataforma ChatGPT de OpenAI. Es nuestro futuro de agentes hablando con agentes, sucediendo ahora.

Sin embargo, el ingrediente secreto de estas conexiones no es simplemente una pila típica de API que se han utilizado para conectar aplicaciones durante años. Es un nuevo estándar en rápido crecimiento llamado MCP (Model Context Protocol). Originalmente desarrollado por Anthropic en 2024, ahora es de código abierto bajo Linux.

Cuando una empresa ejecuta un servidor MCP, esencialmente está abriendo una puerta para que la IA pueda comprender todo lo que quiere: compartir datos, herramientas y memoria, todo en un proceso automatizado y consolidado. Mientras que las empresas de modelos originalmente forzaron su camino a través de internet, destrozando y arrebatando los conjuntos de datos necesarios para construir sus sistemas, MCP es el equivalente a un mayordomo pidiéndoles que se limpien los pies y le den la bienvenida a la IA.

Para Target, MCP significó que su lanzamiento inicial en ChatGPT fue rápido: solo cuatro semanas desde que comenzaron las discusiones con OpenAI y Target estaba vendiendo en su plataforma.

Pero, ¿cómo es comprar en Target en un LLM? Por el momento, puedes escribir @target y pedir que compres, en mi caso, “ofertas de lego para navidad”. Genera una cuadrícula de miniaturas de opciones, todas con precios. Toca una y te lleva a una nueva página con más información, como si estuvieras en su sitio web. Allí, puedes añadirlo a tu carrito. Target, como todos los socios con los que hablé, prometió que llegarán más funciones rápidamente, a una escala de semanas, no de meses.

Canva y Figma han ofrecido herramientas para crear presentaciones, transformando una lluvia de ideas o prácticamente cualquier cosa que quieras pegar en ChatGPT en una presentación. Ambos servicios están utilizando sus propias plantillas para crear elementos visuales que se muestran como miniaturas. Desde allí, puedes tocar cualquier vista previa para ver la presentación completa. El problema es que, en cualquier caso, realmente no puedes editar estas diapositivas más a fondo a través de la conversación: la integración de la aplicación te devuelve un poco a ChatGPT estándar después de la consulta. En cambio, la vista previa, como Target, te remite a sus respectivas aplicaciones.

Por eso, la integración más ambiciosa parece ser la de Adobe, que integró herramientas de Adobe Express, Photoshop y Acrobat. Adobe realmente construyó su propia experiencia de interfaz ligera en ChatGPT, por lo que si le pides que ilumine una foto, aparecen algunos controles deslizantes en la pantalla que solo controlan la exposición y los niveles de blanco y negro. De esta manera, puedes obtener la imagen exactamente tan brillante como quieras, en lugar de decirle a la IA: “un poco más brillante, espera, no, un poco más oscura”.

Esta interfaz de usuario es intencionalmente granular, diseñada para mostrar solo lo que necesitas para una tarea y nada más.

“Eso es lo que hace que esto sea increíblemente emocionante”, argumenta Govind Balakrishan, SVP y GM de Adobe Express. “Ya no estás lidiando con toda la interfaz de Photoshop. Solo estás lidiando con los controles deslizantes que te dan lo que estás tratando de hacer”.

Descubrir nuevas aplicaciones será el nuevo SEO

La capacidad de descubrir aplicaciones aún necesita mejoras, aunque. Y esto representa un desafío a corto y largo plazo para la empresa.

A corto plazo, el descubrimiento conversacional simplemente apesta.

Para ser honesto, invocar estas aplicaciones puede ser frustrante y con errores. OpenAI necesita hacer algo de limpieza en su interfaz, agregando las comodidades que esperamos. Por ejemplo, cuando @ cualquier aplicación disponible, la autocompleta como un nombre de usuario de Instagram, pero solo después de que hayas emparejado la aplicación correctamente una vez. En el caso de Adobe, esto se vuelve más complicado, ya que invocas funciones específicas a través de sus aplicaciones separadas como @Photoshop y @AdobeAcrobat (y no pidas crear un PDF en Photoshop). Eso es innecesariamente complicado y debería ser resuelto por el LLM, no por el usuario.

Mientras tanto, ni siquiera se supone que debas verte obligado a mencionar las aplicaciones todo el tiempo, ya que se supone que el LLM las sugiere casualmente en lo que la empresa llama “invocación indirecta”. No estoy viendo mucho, si es que algo, de eso funcionando todavía.

Cuando soy demasiado casual, diciendo “Me gustaría comprar en Target” en lugar de “@target encuentra X”, enumeró las tiendas Target cercanas y luego me ofreció consejos de compra. Cuando dije que “esperaba trabajar con la aplicación Target en ChatGPT ahora mismo”, explicó que podía hacerlo, junto con todo lo que podía hacer en Target. Pero siempre me tocó a mí invocar el código secreto mencionado, @Target en este caso, para hacer mi consulta.

Es una facilidad de uso lo suficientemente sencilla que la gente aprenderá, que no es diferente a usar X o Threads, pero todo el punto de una interfaz conversacional amigable es que no sea un club secreto. Me sorprendió continuamente la falta de comprensión contextual (y OpenAI dice que actualmente no están activos para todos los usuarios).

Pero esto parece solucionable rápidamente.

La pregunta existencial más importante para OpenAI es cómo y por qué recomendaría una aplicación sobre otra que ofrece características similares con calidad similar.

No te equivoques, cada empresa quiere ser la aplicación que se invoque a la orden. Yo mismo me preguntaba por qué algunas empresas se molestarían siquiera en conectarse a ChatGPT. Tan pronto como entregan sus capacidades a una IA generalizada, ¿no están diluyendo su propio valor? Target gana dinero con cada venta, claro, y Canva todavía ofrece cuidadosamente sus artículos gratuitos de forma gratuita y sus artículos de pago con suscripción. Pero Adobe, por ejemplo, ofrece todas sus herramientas de ChatGPT de forma gratuita en lugar de ofrecerte una suscripción.

“En cierto nivel, creemos que cuantos más usuarios tengamos… aprovechando la amplitud y la fuerza de nuestras aplicaciones, mejor estaremos con el tiempo”, dice Balakrishan. “La monetización se resolverá por sí sola”.

Por ahora, ayuda que todos estos servicios de generación de medios te vinculen de nuevo a sus respectivas aplicaciones, con interfaces completas, para terminar el trabajo que solo puedes comenzar en ChatGPT. De hecho, Canva compartió datos iniciales de la ejecución de sus propios servidores MCP para atender las solicitudes de Claude, CoPilot y ChatGPT desde julio. Han atendido a 2,6 millones de usuarios que han creado más de 11 millones de diseños, y ha estado funcionando como una herramienta para atraer la atención. Canva señala que el tráfico de referencia de los LLM está aumentando a un ritmo más rápido que cualquier otra fuente.

Pero, en términos generales, todos parecen estar de acuerdo en que integrar aplicaciones en los LLM debería ser más que simplemente portar una aplicación a una interfaz de chat. Debería desbloquear nuevos flujos de trabajo, funciones e interfaces de usuario que aún no hemos imaginado.

“Hay cosas que, por alguna razón, la modalidad que ofrece Figma no es ideal para hacer eso”, dice Seiz. “Me pregunto qué tipo de nuevos casos de uso o nuevas cosas intentará hacer la gente”.

Encontrar la próxima gran modalidad de la IA

Para Target, que se lanzó justo a tiempo para el Black Friday, una de sus mayores sorpresas fue un nuevo comportamiento de compra. La gente subió listas escritas a mano en lugar de escribirlas. Eso fue interesante, y Target no sabe qué es posible a partir de eso, todavía, pero es uno de los muchos puntos de datos que podrían informar su pensamiento futuro.

“Queríamos ser los primeros y tener un papel en cómo evoluciona ese camino”, dice Purvi Shah, VP de UX Design, Research and Accessibility en Target.

La mayor preocupación para las empresas con las que hablé no era si serían comercializadas al conectarse a una vasta plataforma de IA, sino cómo serían descubiertas en todo ese ruido. No es secreto que Adobe, Canva y Figma son competidores, al igual que Target y Walmart (que también fue de los primeros en integrar las compras con ChatGPT]. Sugerir cualquiera de ellos contextualmente, en conversación, significa que OpenAI necesita tomar una decisión sobre qué servicio competitivo es el adecuado para cada momento. Naturalmente, todos quieren poseer ese momento.

Cuando le pregunto a OpenAI cómo gestionarán este problema, Jow admite que es “definitivamente uno de los desafíos más difíciles” que enfrenta el equipo. Cuando le pregunto si veremos ubicaciones pagadas, como los anuncios de búsqueda que han impulsado el negocio de Google durante años, dice: “Ya veremos”.

Mientras tanto, los desarrolladores de aplicaciones compartieron su propio nerviosismo sobre cómo se desarrollará esto, y están de acuerdo en que probablemente veremos una era de optimización de plataformas de IA, al igual que los sitios clásicamente se optimizaron para ser descubiertos por Google, para llegar a la cima de ChatGPT y otros LLM. Por ahora, todo lo que los desarrolladores pueden hacer es ofrecer respuestas “de calidad y relevantes” a cualquier solicitud, según Seiz, para que OpenAI se vea incentivado a seguir recomendando su servicio.

“Es inevitable que habrá múltiples experiencias adyacentes que ofrezcan una herramienta realmente excelente para ese caso de uso”, dice Jow. “Y creo que lo que realmente queremos asegurar es que esas opciones se muestren al usuario de una manera transparente, para que el usuario pueda decidir qué herramienta es la más adecuada para él”.

ACERCA DEL AUTOR

Mark Wilson es el editor global de diseño de Fast Company, quien cubre todo el impacto del diseño en la cultura y los negocios. Es una autoridad en diseño de productos, UX, IA, diseño de experiencias, comercio minorista, alimentos y branding, y ha realizado reportajes sobre empresas destacadas que van desde Nike y Google hasta MSCHF, Canva, Samsung, Snap, IDEO y Target, mientras perfila a luminarias del diseño como Tyler the Creator, Jony Ive y Salehe Bembury

FAST COMPANY

diciembre 19, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Adobe AEM: ¿El Fin de la Codificación Tradicional?

Vibe Coding: Creatividad e IA en la Experiencia Digital

Adobe AEM: La IA como Aliado del Creador

¿El Futuro del Desarrollo Web? Adobe y el «Vibe Coding»

AEM y la IA: Creación de Experiencias Digitales Intuitivas

by Editor de Tecnologia diciembre 13, 2025
written by Editor de Tecnologia

Cuando Adobe lanzó su última actualización de tecnología creativa, Internet no solo se desplazó; vibró. El “coding de vibraciones” no se trata de fuentes extravagantes o animaciones llamativas; Adobe, un proveedor de software de experiencia del cliente digital, apuesta a que la creación de contenido puede sentirse menos como edición y más como improvisación. Para empresas y creativos por igual, esta promesa plantea la pregunta: ¿puede el software realmente transmitir una vibra y, de ser así, sigue siendo capaz de ofrecer calidad, consistencia y resultados empresariales? Este artículo desentraña la apariencia para examinar qué significa realmente el “sueño” de Adobe del coding de vibraciones para creadores, empresas y el futuro en evolución del contenido digital.

Tabla de Contenidos

  • Introducción: Cuando la Creatividad se Encuentra con el Código

Adobe siempre ha difuminado la línea entre el arte y la ingeniería, pero su nueva propuesta lleva esa frontera a un territorio desconocido. La visión de Adobe se centra en llevar este modelo de coding de vibraciones a Experience Manager (AEM), transformando la arquitectura del CMS en sí misma en una superficie creativa en lugar de una técnica. La idea es simple y audaz al mismo tiempo: ¿qué pasaría si la creación de experiencias digitales se sintiera menos como escribir instrucciones a una máquina y más como componer una pista, esbozar un estado de ánimo o improvisar con un compañero de banda que nunca se cansa? Las recientes demostraciones de Adobe se inclinan hacia ese espíritu, mostrando a los creadores dando forma a componentes, diseños y lógica a través del lenguaje natural, gestos y la guía de la IA que se adapta a la “sensación” de lo que están tratando de crear. Es elegante, atractivo y encaja perfectamente con la misión de Adobe de transformar los flujos de trabajo técnicos en expresión creativa. Como dijo un primer usuario, “lo que antes tomaba dos semanas ahora toma 20 minutos”. Pero bajo la marca, existe una pregunta real para los equipos de experiencia del cliente digital y los desarrolladores: ¿el coding de vibraciones es una envoltura inteligente alrededor del desarrollo asistido por IA, un avance en la forma en que se construyen las experiencias digitales o una señal temprana de que las herramientas creativas están cambiando hacia un software impulsado por la intención y expresivo emocionalmente? En otras palabras: ¿es una artimaña o un vistazo al futuro?

Artículo Relacionado: ¿Deberían los Marketeres Aventurarse en el Coding de Vibraciones?

¿De Dónde Proviene el ‘Coding de Vibraciones’: El Último Impulso de Adobe

Adobe no utilizó la frase “coding de vibraciones” porque suene bien –aunque absolutamente lo hace–. El término fue acuñado en febrero de 2025 por Andrej Karpathy, un cofundador de OpenAI. Karpathy utilizó el término para describir un estilo de desarrollo de software impulsado por un chatbot en el que los desarrolladores describen lo que quieren en lenguaje sencillo y la IA genera el código a partir de esa descripción.

Lo Que Adobe Siente Sobre el Coding de Vibraciones

El término, tal como lo usa Adobe, pretende capturar un cambio en la forma en que AEM maneja la creación, el desarrollo y la orquestación. En lugar de tratar la codificación como una serie rígida y lineal de instrucciones, Adobe está impulsando un modelo impulsado por la intención donde la IA interpreta lo que el creador quiere decir y convierte esa intención en resultados estructurados y desplegables.

Capacidades Clave Detrás del Flujo de Trabajo Emergente de “Coding de Vibraciones” de Adobe

La siguiente tabla resume las capacidades clave de AEM y de la cadena de suministro de contenido que Adobe está implementando para respaldar el desarrollo asistido por IA impulsado por la intención.

Capacidad Descripción
Codificación asistida por IA dentro de AEM Los desarrolladores describen el comportamiento del componente, las reglas de diseño o el flujo de lógica que necesitan, y AEM produce un borrador de código o configuración alineado con los estándares de Adobe y los patrones de proyecto existentes.
Generación de plantillas y componentes Los equipos generan plantillas reutilizables, variaciones y estructuras de activos a partir de indicaciones de lenguaje natural, lo que permite a la IA crear un andamiaje inicial que los desarrolladores refinan.
Reparación automatizada de andamiaje y flujo de trabajo AEM detecta componentes faltantes, estructuras obsoletas o lógica defectuosa y propone correcciones, lo que respalda un cambio hacia la mejora continua en lugar de las actualizaciones periódicas.
Construcción de lógica en lenguaje natural Los creadores describen reglas como mostrar ofertas específicas, rotar imágenes o activar flujos de trabajo, y AEM traduce estas descripciones en lógica o código del sistema.
Generación de elementos creativos sobre la marcha Adobe combina las tareas de desarrollo con la creación de contenido generativo, lo que permite producir elementos de la interfaz de usuario, variaciones de activos o componentes de diseño según sea necesario junto con el código.

Una vista de GitHub de los archivos SKILL.md recién publicados que los equipos de ingeniería de Adobe AEM están utilizando para potenciar los agentes de codificación basados en Claude Code y GPT. Estos archivos de habilidades ayudan a los desarrolladores a acelerar el trabajo complejo de Edge Delivery Services al inyectar indicaciones detalladas y modulares solo cuando sea necesario.

Adobe’s Cedric Huesler | LinkedIn

El Cambio Filosófico: La Codificación como Composición

Adobe no solo está agregando aceleradores de IA a AEM; más bien, está reformulando el acto de construir experiencias digitales por completo. El coding de vibraciones se basa en una filosofía donde el desarrollo es menos como ensamblar maquinaria y más como componer música. Estableces el ritmo, expresas la sensación y el sistema ayuda a traducir esa intención creativa en algo limpio, estructurado y listo para producción. En lugar de comenzar con reglas de código, estructuras de carpetas, API de componentes o límites estrictos del CMS, Adobe quiere que los creadores comiencen con la experiencia que están tratando de crear. Las herramientas manejan el andamiaje, el formato y el cumplimiento. Las personas que lo usan –ya no solo desarrolladores– se concentran en dar forma al momento. Esta mentalidad se hace eco de lo que algunos líderes del equipo de AEM en Adobe han enfatizado públicamente: un CMS funciona mejor cuando el contenido permanece separado de la lógica y la estructura. El creador no debería tener que luchar contra el sistema ni lidiar con los detalles de implementación solo para expresar la intención. La apuesta de Adobe es que la IA puede cerrar esa brecha: dejar que los creadores describan la experiencia y dejar que la plataforma descubra cómo ensamblar la estructura subyacente.

Artículo Relacionado: Adobe Acaba de Convertir AEM en un Co-Desarrollador de IA

Bajo el Capó: Lo Que Realmente Hace el ‘Coding de Vibraciones’

Una vez que eliminas la marca musical, el coding de vibraciones es realmente la forma divertida de Adobe de describir un grupo de capacidades de desarrollo asistido por IA dentro de AEM; el tipo que infiere patrones, crea andamiajes y convierte la intención en componentes funcionales más rápido de lo que un humano puede hacer clic a través de los menús. En su núcleo, el sistema combina tres cosas:

  • Desarrollo asistido por IA: AEM se comporta cada vez más como un programador inteligente, interpretando la intención, redactando el código subyacente y suavizando los detalles técnicos para que los creadores puedan concentrarse en la experiencia que están dando forma. En lugar de memorizar cada regla, convención de nomenclatura o estructura de carpetas, los creadores pueden dejar que el sistema maneje las salvaguardias.
  • Inferencia de patrones y plantillas inteligentes: Dale una descripción (o una idea a medio terminar) y el sistema reconoce los patrones comunes detrás de ella, luego genera plantillas iniciales o componentes completamente estructurados. Esto reduce el tiempo dedicado al código repetitivo y permite a los equipos pasar directamente a la refinación.
  • Componentes autoestructurados y atajos de flujo de trabajo: El coding de vibraciones también se dirige al punto intermedio complicado del trabajo del CMS: actualizar diseños, modificar la lógica de los componentes y unir los flujos de contenido. Las sugerencias de IA pueden preconfigurar modelos, enrutar el contenido correctamente y aplicar automáticamente las mejores prácticas. Esto da como resultado menos experiencias interrumpidas, menos inconsistencias y ciclos de iteración más rápidos. Para los desarrolladores experimentados, esto reduce la fricción, especialmente durante la creación de prototipos o la colaboración entre equipos. Para los no desarrolladores, se convierte en una línea de vida: una forma de construir o modificar componentes sin necesidad de comprender cada capa de la arquitectura de AEM.

Por Qué Importa: Velocidad, Escala y la Nueva Pila Creativa

La exageración en torno al “coding de vibraciones” solo importa si resuelve problemas reales, y en los entornos empresariales, la velocidad y la escala son siempre los cuellos de botella. El enfoque de Adobe se centra directamente en esos puntos débiles. Al convertir el desarrollo en un proceso más fluido y asistido por IA, les da a los equipos creativos y técnicos espacio para moverse más rápido sin sacrificar la estructura. Para los equipos de contenido, significa una experimentación rápida. En lugar de esperar en una cola de desarrollo para una nueva variación de componente o una actualización de diseño, pueden expresar la intención, generar una versión funcional e iterar de inmediato. El ciclo entre la idea y la ejecución se acorta drásticamente. Para los desarrolladores, reduce la carga cognitiva. No necesitan llevar todo el libro de reglas de AEM en sus cabezas. El resultado son componentes más limpios y consistentes con menos deuda técnica y menos excepciones únicas. Para los equipos de marketing, se reducen los plazos de entrega. Las campañas, las páginas de destino y las microexperiencias se pueden ensamblar, adaptar y enviar más rápido, porque la maquinaria subyacente ya no es un cuello de botella. Y para los líderes empresariales, hay una victoria estructural: estas herramientas ayudan a cerrar la brecha entre la ambición creativa y la viabilidad técnica. Los equipos pueden experimentar de forma segura, construir de forma consistente y mantener experiencias a escala sin depender únicamente de una profunda experiencia técnica.

Donde la Creatividad y la Ingeniería Comienzan a Converger

Los equipos que adoptan estas herramientas ya están viendo cómo el trabajo creativo y técnico se fusiona de formas que habrían parecido improbables hace unos años.

Oportunidades de Aprendizaje

Sarrah Pitaliya, VP de marketing digital en Radixweb, dijo: «Aparte de los ahorros de un millón de dólares, los plazos reducidos a la mitad y la eficiencia duplicada que escuchamos en las noticias, lo que veo sucediendo todos los días es que la IA está acercando los lados creativo y técnico del trabajo. Las personas que normalmente se quedaban en sus carriles de repente están explorando nuevas áreas. En los últimos meses, he visto a los especialistas en marketing decirles a los desarrolladores correcciones técnicas para la velocidad de las páginas de destino, y a los desarrolladores proponer diseños mejores que los diseñadores reales».

Esto también impulsa a Adobe hacia el movimiento más amplio de herramientas de codificación baja y sin código. Durante años, las plataformas han prometido construcciones más rápidas al abstraer la sintaxis y la complejidad técnica. El coding de vibraciones lleva esa idea más allá al permitir que los equipos describan la intención directamente en lugar de ensamblar bloques o configurar menús. No es codificación baja en el sentido clásico, es más expresivo y fluido, pero busca el mismo resultado: hacer que la creación de experiencias sea accesible para las personas que no son ingenieros de tiempo completo, al tiempo que les brinda a los desarrolladores un punto de partida más rápido.

Artículo Relacionado: Liberando la Creatividad del Marketing con Plataformas de Codificación Baja/Sin Código

Cómo se Compara el Enfoque de Adobe con Otros

Adobe no es el único proveedor que intenta combinar la IA con una creación de experiencias más rápida, pero su ángulo es distinto. La mayoría de las plataformas empresariales abordan el problema desde la lógica, la automatización o la eficiencia de la codificación baja. Adobe se acerca desde el lado creativo, y esa diferencia es importante. El enfoque de Adobe sobre el desarrollo asistido por IA extiende su filosofía de diseño de larga data: la creatividad primero, la estructura segundo. Donde otros usan la IA para optimizar los flujos de trabajo, Adobe la usa para elevar la expresión. El coding de vibraciones encaja naturalmente con esa filosofía, transformando la intención, el estado de ánimo y la dirección visual en componentes estructurados. Para los equipos que ya han invertido en AEM, esto se siente como una extensión de la pila creativa en lugar de un paradigma completamente nuevo. Salesforce se encuentra en el extremo opuesto del espectro. Sus herramientas asistidas por IA optimizan la estructura, la lógica y la fluidez de los datos. Piensa en reglas de automatización, flujos guiados y conocimientos predictivos. La flexibilidad creativa es secundaria. Salesforce permite una ejecución operativa ajustada, pero no el tipo de creación impulsada por el estado de ánimo y expresiva que propone Adobe. La visión de Microsoft se inclina fuertemente hacia la automatización de agentes. El enfoque se centra en los sistemas que orquestan tareas, mueven datos entre aplicaciones, aplican la gobernanza y ejecutan flujos de trabajo de varios pasos. Es potente, especialmente para las operaciones empresariales, pero no se trata de creación expresiva. En comparación con Adobe, Microsoft está construyendo la IA que hace el trabajo, no la IA que ayuda a las personas a crear el trabajo.

Cómo se Diferencian las Principales Plataformas de IA en su Enfoque para la Creación de Experiencias

Proveedor Filosofía Central de la IA Fortaleza Principal Limitaciones para los Equipos Creativos
Adobe Creatividad primero; la IA traduce la intención, el estado de ánimo y la dirección visual en componentes estructurados dentro de AEM. Creación expresiva de alta velocidad que combina diseño y desarrollo, extendiendo la pila creativa en lugar de reemplazarla. Puede encontrar fricción en grandes empresas que requieren una gobernanza estricta, consistencia de marca y auditabilidad.
Salesforce Estructura y lógica primero; la IA automatiza los flujos de trabajo, los flujos guiados y la toma de decisiones predictiva. Precisión operativa con una sólida automatización de flujos de trabajo y gobernanza de datos. Flexibilidad limitada para la creación impulsada por la expresión, el estado de ánimo o el diseño; la creatividad es secundaria a la estructura.
Microsoft Automatización de agentes; la IA orquesta tareas, mueve datos, aplica la gobernanza y maneja los flujos de trabajo de varios pasos. Capacidades excepcionales de operaciones empresariales con automatización que “hace el trabajo”. No diseñado para la creación expresiva; se centra en la orquestación operativa en lugar de la creatividad colaborativa.

Algunos profesionales ven esas diferencias claramente cuando comparan cómo los principales proveedores hablan sobre la IA. Jitesh Keswani, CEO y director general de e intelligence, dijo que es la libertad de ser creativo lo que vende Adobe. «Lo que Microsoft está vendiendo es algo que puede ayudar a hacer las cosas. Salesforce es un método de marketing para automatizar los procesos comerciales. Están corrigiendo varios problemas en nombre de varios clientes». Keswani señaló que las herramientas impulsadas por vibraciones funcionan bien para equipos pequeños y altamente creativos que construyen experiencias únicas, pero pueden encontrar fricción en grandes empresas que necesitan una consistencia de marca estricta, reglas y auditorías. Explicó que a esa escala, “se requiere un orden, en lugar de sucesos fortuitos”, y cuestionó si los enfoques basados en vibraciones pasarían las revisiones de adquisiciones y cumplimiento tan fácilmente como las plataformas más orientadas a procesos de Microsoft o Salesforce. Figma, Webflow, Wix Studio son las plataformas más cercanas a la energía de Adobe, pero comienzan desde una dirección centrada en el diseño. Sus herramientas de IA aceleran la composición del diseño, la estructura visual y los prototipos interactivos. Además, también ofrecen creación expresiva, especialmente para experiencias web, pero aún no igualan la profundidad de Adobe en la gestión de contenido empresarial o la gobernanza multicanal. El movimiento de Adobe trae esa misma fluidez creativa a un ecosistema CMS empresarial completo, no solo a una herramienta de diseño.

Una comparación visual de cómo las principales plataformas equilibran la velocidad y la estructura en el desarrollo asistido por IA. El coding de vibraciones de Adobe enfatiza la alta velocidad con la creatividad estructurada, mientras que Salesforce se inclina por la estructura, Figma prioriza la velocidad flexible y el desarrollo tradicional se queda atrás en ambas dimensiones.

La Trampa del Coding de Vibraciones: Riesgos, Límites y Lo Que Todavía Requiere Manos Humanas

A pesar de su promesa, el coding de vibraciones no exime a los equipos de las realidades del desarrollo empresarial. La misma fluidez que hace que la creación asistida por IA sea atractiva puede introducir nuevos riesgos si los equipos confían demasiado en ella. La preocupación más inmediata es la dependencia excesiva del código generado por la IA. Cuando el andamiaje, los componentes y la lógica se producen automáticamente, es fácil para los desarrolladores, especialmente los más nuevos, confiar en la salida sin inspeccionar cómo funciona realmente. Ese atajo ahorra tiempo en el momento, pero crea problemas a largo plazo cuando la empresa necesita depurar, extender o auditar el sistema. Antes de que los sistemas de ingeniería o de negocio puedan utilizar de forma segura la salida generada por la IA, se debe garantizar la precisión, el razonamiento y la alineación con las limitaciones del mundo real, algo con lo que los modelos generativos todavía luchan. La IA puede acelerar la expresión creativa, pero en los entornos empresariales, la inconsistencia, las alucinaciones y la falta de contexto siguen siendo riesgos importantes que requieren supervisión humana.

Ian Amit, CEO y fundador de Gomboc AI, le dijo a CMSWire: «Para los creativos, la IA ofrece la promesa de ‘conectar’ con el creador. Sin embargo, para las empresas, la IA generativa… carece del contexto empresarial y su naturaleza generativa no ofrece el nivel de consistencia y precisión necesario para la toma de decisiones empresariales».

También está la cuestión de la calidad y la seguridad. La IA tiene la costumbre de inferir patrones que parecen correctos, pero que no siempre se ajustan a los requisitos empresariales. Si los equipos no validan las dependencias, las reglas de acceso a los datos, las comprobaciones de identidad y las consideraciones de rendimiento, la experiencia resultante puede “sentirse” correcta mientras oculta defectos debajo de la superficie.

Dónde la Velocidad Ayuda y Dónde Comienza a Fallar

Los beneficios de la velocidad son reales y se están mostrando en entornos de desarrollo reales, pero esa velocidad es también donde comienzan muchos de los riesgos. Paul DeMott, CTO de Helium SEO, dijo: «La ventaja de la codificación basada en IA es que ofrece beneficios de velocidad inmediatos, lo que reduce el tiempo de generación de código rutinario de un desarrollador promedio entre un 20% y un 30% en un entorno empresarial». Sin embargo, DeMott enfatizó que la historia se complica a medida que crecen los sistemas. En arquitecturas complejas, los componentes generados por la IA pueden pasar las pruebas unitarias, pero tienen dificultades para integrarse porque carecen del contexto completo de los microservicios y los esquemas de datos. Dijo que en una aplicación multi-servicio típica, los equipos a veces dedican más tiempo a verificar y fortalecer el código generado por la IA de lo que habrían dedicado a escribir componentes impulsados por estándares y consistentes desde cero. La depuración de estos problemas puede ser más difícil, no más fácil. La lógica generada por la IA no siempre sigue el razonamiento o las convenciones de nomenclatura que esperan los desarrolladores experimentados. Cuando algo se rompe, los ingenieros pueden encontrarse tratando de revertir la intención de la IA, que es lo contrario de la velocidad. Billie Argent, cofundadora y directora de UX de Passionates Agency, observó que la IA ha reducido los tiempos de construcción para muchas tareas front-end, pero advirtió que la velocidad a menudo oculta la complejidad. Dijo que si bien la IA puede reducir una tarea de tres horas a 15 minutos, incluso pequeñas desviaciones en la accesibilidad, el rendimiento o el manejo de datos pueden agregar “20 horas adicionales para corregir” cuando esos componentes llegan a los sistemas de producción.

Conclusión: Creatividad, Código y la Vibra por Delante

El coding de vibraciones de Adobe puede sonar juguetón, pero refleja un cambio real hacia un desarrollo que se siente como una composición creativa en lugar de una gestión de sintaxis. La IA maneja el andamiaje y el trabajo repetitivo para que los humanos puedan concentrarse en la intención, la arquitectura y la calidad de la experiencia. Esa combinación de intuición y automatización puede acelerar la iteración, mejorar la colaboración y mantener las experiencias más consistentes, siempre y cuando los equipos se mantengan al tanto de la gobernanza, la mantenibilidad y la calidad.

diciembre 13, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Adobe en ChatGPT: Edita, Diseña y PDF con IA

by Editor de Tecnologia diciembre 10, 2025
written by Editor de Tecnologia

Adobe anunció el 10 de diciembre el lanzamiento de Photoshop, Adobe Express y Adobe Acrobat dentro de ChatGPT, brindando a sus 800 millones de usuarios semanales la capacidad de editar imágenes, crear diseños y trabajar con documentos a través de sencillas instrucciones conversacionales.

Estas herramientas están disponibles de forma gratuita para los usuarios de ChatGPT en escritorio, web y iOS. Adobe Express ya está disponible en Android, mientras que las versiones de Photoshop y Acrobat para Android se lanzarán próximamente.

Según Adobe, esta integración acerca sus principales aplicaciones creativas y de productividad a una plataforma ampliamente utilizada para tareas cotidianas, permitiendo a los usuarios mejorar fotos, diseñar invitaciones y transformar documentos sin salir de ChatGPT.

“Estamos encantados de integrar Photoshop, Adobe Express y Acrobat directamente en ChatGPT, combinando nuestras innovaciones creativas con la facilidad de uso de ChatGPT para hacer que la creatividad sea accesible para todos”, afirmó David Wadhwani, presidente de Digital Media en Adobe. “Ahora, cientos de millones de personas pueden editar con Photoshop simplemente usando sus propias palabras, directamente dentro de una plataforma que ya forma parte de su día a día.”

Los usuarios pueden acceder a estas herramientas escribiendo el nombre de la aplicación de Adobe junto con una instrucción. Por ejemplo, al escribir “Adobe Photoshop, ayúdame a difuminar el fondo de esta imagen”, se abrirá Photoshop dentro del chat y se les guiará a través del proceso.

Photoshop dentro de ChatGPT permite realizar ajustes en partes de una imagen, controlar el brillo, el contraste y la exposición, y utilizar efectos. Adobe Express permite a los usuarios explorar plantillas, actualizar texto e imágenes y añadir animaciones. Acrobat permite editar archivos PDF, extraer texto o tablas, fusionar archivos, comprimir documentos y eliminar detalles confidenciales.

Este lanzamiento se basa en el reciente trabajo de Adobe en inteligencia artificial conversacional, incluyendo el lanzamiento de Acrobat Studio a principios de este año y los Asistentes de IA para Photoshop y Adobe Express. Adobe también ha presentado un Asistente de IA para Adobe Firefly que ayudará a los creadores a trasladar ideas entre múltiples aplicaciones de Adobe.

diciembre 10, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
  • Aviso Legal
  • Política de Cookies
  • Términos y Condiciones
  • Política de Privacidad
  • CONTACTO
  • Política de Correcciones
  • Equipo Editorial
  • Política Editorial
  • SOBRE NOTIULTI

El servicio de alojamiento web más recomendado. Para quejas, abusos o publicidad, contacte: admin@notiulti.com


Back To Top
Notiulti
  • Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología