• Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología
Notiulti
Noticias Ultimas
Inicio » IBM
Tag:

IBM

Tecnología

IBM crea molécula única con topología innovadora y la simula con computación cuántica

by Editor de Tecnologia marzo 5, 2026
written by Editor de Tecnologia

YORKTOWN HEIGHTS, Nueva York – 5 de marzo de 2026 – Un equipo internacional de científicos de IBM (NYSE: IBM), la Universidad de Manchester, la Universidad de Oxford, ETH Zurich, EPFL y la Universidad de Regensburg ha creado y caracterizado una molécula diferente a cualquier otra conocida: una en la que sus electrones viajan a través de su estructura en un patrón helicoidal que altera fundamentalmente su comportamiento químico. Publicado hoy en la revista Science, se trata de la primera observación experimental de una topología electrónica de media banda de Möbius en una sola molécula.

Según los científicos, una molécula con esta topología nunca antes había sido sintetizada, observada o incluso predicha formalmente. Comprender el comportamiento de esta molécula a nivel de estructura electrónica requirió algo igualmente fundamental: una simulación cuántica de alta fidelidad.

Este descubrimiento avanza la ciencia en dos frentes. Para la química, demuestra que la topología electrónica –la propiedad que gobierna cómo se mueven los electrones a través de una molécula– puede ser diseñada deliberadamente, no simplemente encontrada en la naturaleza. Para la computación cuántica, es una demostración concreta de que una simulación cuántica puede hacer lo que fue diseñada para hacer: representar el comportamiento mecánico cuántico directamente, a escala molecular, para producir información científica que de otro modo permanecería fuera de alcance.

“Primero diseñamos una molécula que creíamos que se podía crear, luego la construimos y finalmente validamos sus propiedades exóticas con una computadora cuántica”, dijo Alessandro Curioni, IBM Fellow, Vicepresidente de Europa y África, y Director de IBM Research Zurich. “Este es un salto hacia el sueño planteado hace décadas por el renombrado físico Richard Feynman de construir una computadora que pueda simular mejor la física cuántica y una demostración de que, como él dijo, ‘Hay mucho espacio en lo pequeño’. El éxito de esta investigación señala un paso hacia esta visión, abriendo la puerta a nuevas formas de explorar nuestro mundo y la materia que lo compone.”

Una Molécula Nunca Antes Vista

La molécula, con la fórmula C₁₃Cl₂, fue ensamblada átomo por átomo en IBM a partir de un precursor personalizado sintetizado en la Universidad de Oxford, con átomos individuales eliminados uno a la vez utilizando pulsos de voltaje precisamente calibrados bajo un vacío ultraalto a temperaturas cercanas al cero absoluto.

Experimentos con microscopía de túnel y microscopía de fuerza atómica, ambas técnicas pioneras en IBM, combinados con la computación cuántica, revelaron una configuración electrónica sin paralelo en los registros existentes de la química: una estructura electrónica que experimenta una torsión de 90 grados con cada circuito, requiriendo cuatro bucles completos para volver a la fase inicial.

Izquierda, una imagen de microscopía de túnel de la densidad orbital electrónica de la nueva molécula de media banda de Möbius; derecha, una imagen STM simulada de la densidad orbital de la molécula, que fue creada utilizando una computadora cuántica de IBM.

Esta topología de media banda de Möbius es cualitativamente distinta de cualquier molécula conocida y puede ser conmutada reversiblemente entre estados con torsión en el sentido de las agujas del reloj, con torsión en el sentido contrario a las agujas del reloj y sin torsión, lo que demuestra que la topología electrónica no es una propiedad que se descubre, sino que ahora puede ser diseñada deliberadamente en condiciones específicas.

Una Herramienta Científica Disruptiva: Supercomputación Centrada en lo Cuántico

Los científicos en este experimento crearon una molécula que nunca había existido. Ahora tenían que averiguar por qué funcionaba, una tarea que desafiaba a las computadoras convencionales. Los electrones dentro de C₁₃Cl₂ interactúan de maneras profundamente entrelazadas, cada uno influyendo en todos los demás simultáneamente. Modelar ese comportamiento requiere rastrear cada posible configuración de esas interacciones a la vez, lo que exige demandas computacionales que crecen exponencialmente y pueden abrumar rápidamente a las máquinas clásicas.

Las computadoras cuánticas son diferentes por naturaleza porque operan de acuerdo con las mismas leyes mecánicas cuánticas que gobiernan los electrones en las moléculas, y pueden representar estos sistemas directamente en lugar de aproximarlos. “Hablan” el mismo lenguaje fundamental que la materia que están diseñadas para estudiar y esa distinción, que antes era en gran medida teórica, ahora puede contribuir a resultados científicos concretos.

Esta capacidad ofrece un tremendo potencial para que las computadoras cuánticas respalden la experimentación en el mundo real con flujos de trabajo de supercomputación centrada en lo cuántico. Al integrar unidades de procesamiento cuántico (QPU), CPU y GPU, la supercomputación centrada en lo cuántico permite que los problemas complejos se dividan en partes que se orquestan y resuelven de acuerdo con las fortalezas de cada sistema, logrando lo que ningún paradigma computacional único puede ofrecer por sí solo.

Utilizando una computadora cuántica de IBM dentro de dicho flujo de trabajo, el equipo encontró orbitales moleculares helicoidales para la unión de electrones, una huella de la topología de media banda de Möbius. Además, la simulación a través de la computación cuántica ayudó a revelar el mecanismo detrás de la formación de la topología inusual: un efecto pseudo-Jahn-Teller helicoidal.

Este logro se basa en el largo legado de IBM en la nanociencia. El microscopio de túnel (STM) fue inventado en IBM en 1981, por el cual los científicos de IBM Gerd Binnig y Heinrich Rohrer fueron galardonados con el Premio Nobel en 1986. Su creación permitió a los investigadores visualizar superficies átomo por átomo. En 1989, los científicos de IBM desarrollaron el primer método confiable para manipular átomos individuales. En las últimas décadas, el equipo de IBM ha extendido estas técnicas para construir y controlar estructuras moleculares cada vez más exóticas.

CITAS DE LOS INVESTIGADORES

Dr. Igor Rončević, coautor del artículo, Profesor de Química Computacional y Teórica en la Universidad de Manchester:

“La química y la física del estado sólido avanzan encontrando nuevas formas de controlar la materia. En la segunda mitad del siglo XX, los efectos sustituyentes fueron muy populares. Por ejemplo, los investigadores exploraron cómo la potencia de un fármaco o la elasticidad de un material cambian si, por ejemplo, un metilo se reemplaza por cloro. El cambio de siglo nos trajo la espintrónica, introduciendo el espín del electrón como un nuevo grado de libertad para jugar y transformando el almacenamiento de datos. Hoy, nuestro trabajo muestra que la topología también puede servir como un grado de libertad conmutable, abriendo una nueva y poderosa ruta para controlar las propiedades de los materiales.”

“La topología no trivial de esta molécula, y el comportamiento exótico de muchos otros sistemas, surgen de las interacciones entre sus electrones. Simular electrones con computadoras clásicas es muy difícil: hace una década podíamos modelar exactamente 16 electrones, y hoy podemos llegar a 18. Las computadoras cuánticas son naturalmente adecuadas para este problema porque sus bloques de construcción, los qubits, son objetos cuánticos que reflejan los electrones. Usando la computadora cuántica de IBM, pudimos explorar 32 electrones. Sin embargo, lo más emocionante es que esto es solo el comienzo. El hardware cuántico está avanzando rápidamente, y el futuro es cuántico.”

Dr. Harry Anderson, coautor del artículo, Profesor de Química en la Universidad de Oxford:

“Es notable que la estructura de Lewis de C₁₃Cl₂ ya indique que es quiral, como lo confirman el experimento y los cálculos de química cuántica. También es sorprendente que los enantiómeros puedan interconvertirse aplicando pulsos de voltaje desde la punta de la sonda.”

Dr. Jascha Repp, coautor del artículo, Profesor de Física en la Universidad de Regensburg:

“Estoy muy emocionado de ser parte de un proyecto en el que el hardware cuántico hace ciencia real, no solo demostraciones. Es fascinante que una molécula tan pequeña pueda tener una estructura electrónica tan compleja que sea difícil de simular clásicamente, y que sea tan retorcida y extraña que casi te vuelve loco.”

Para obtener más información sobre esta investigación, lea el blog: Quantum simulates properties of the first-ever half-Möbius molecule, designed by IBM and researchers.

Acerca de IBM

IBM es un proveedor líder mundial de nube híbrida e IA, y servicios empresariales, que ayuda a los clientes en más de 175 países a capitalizar los conocimientos derivados de sus datos, optimizar los procesos empresariales, reducir los costos y obtener una ventaja competitiva en sus industrias. Miles de gobiernos y entidades corporativas en áreas de infraestructura crítica, como servicios financieros, telecomunicaciones y atención médica, confían en la plataforma de nube híbrida de IBM y Red Hat OpenShift para afectar sus transformaciones digitales de forma rápida, eficiente y segura. Las innovaciones revolucionarias de IBM en IA, computación cuántica, soluciones en la nube específicas de la industria y servicios empresariales ofrecen opciones abiertas y flexibles a nuestros clientes. Todo esto está respaldado por el legendario compromiso de IBM con la confianza, la transparencia, la responsabilidad, la inclusión y el servicio.

Para obtener más información, visite https://research.ibm.com.

Contacto de Prensa:

Erin Angelini
IBM Communications
Edlehr@us.ibm.com

Dave Mosher
IBM Research
dave.mosher@ibm.com

marzo 5, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

IBM desploma: la mayor caída en bolsa desde la burbuja de las puntocom

by Editor de Tecnologia febrero 24, 2026
written by Editor de Tecnologia

IBM sufrió este lunes su mayor desplome bursátil desde el estallido de la burbuja de las puntocom en el año 2000. La caída se produjo tras el anuncio de Anthropic de una herramienta de inteligencia artificial que, según la compañía, simplificaría la actualización de un software empresarial utilizado durante décadas.

Puntos clave

  • Las acciones de IBM perdieron un 13,1%, cerrando a 223,39 dólares. Se trata de la mayor pérdida en una sola sesión desde octubre de 2000, cuando cayeron un 15,5%.
  • El lunes, Anthropic anunció una herramienta para su Claude Code que ayudaría a modernizar el código Cobol, un lenguaje de programación desarrollado en la década de 1960 que actualmente procesa alrededor del 95% de las transacciones en cajeros automáticos en Estados Unidos, además de gestionar los pagos de la seguridad social estadounidense y otros sistemas utilizados por empresas financieras, aerolíneas y otras organizaciones.
  • IBM ha contribuido a la difusión del uso de Cobol y continúa proporcionando sistemas que lo ejecutan, pero Anthropic argumenta que el lenguaje solo se enseña en una “puñado” de universidades y que encontrar ingenieros capaces de leerlo “se vuelve cada vez más difícil cada trimestre”.
  • Según Anthropic, a pesar de que “cientos de miles de millones” de líneas de código Cobol se ejecutan diariamente en entornos de producción, el número de personas capaces de comprenderlo “disminuye cada año”. Por este motivo, la empresa cree que la inteligencia artificial puede modernizar rápidamente este código.

¿Cuánto ha perdido IBM?

31.000 millones de dólares. Es la cifra aproximada perdida por IBM, en términos de capitalización de mercado, con la caída del lunes. Su valor descendió de 240.800 millones de dólares a alrededor de 208.700 millones de dólares.

El efecto Anthropic

Anthropic presentó este mes una serie de actualizaciones de sus herramientas de inteligencia artificial, alimentando las ventas de acciones de empresas de varios sectores. La startup de IA respaldada por Google y Amazon anunció plugins para su agente de IA Claude Cowork que, según la compañía, podrían automatizar tareas en el servicio al cliente, la gestión de productos, el marketing, el ámbito legal y el análisis de datos, además de generar balances, investigar a potenciales clientes y ayudar en la preparación de las llamadas comerciales.

Esto ha contribuido a difundir temores de que la IA pueda amenazar pronto procesos empresariales comunes, al tiempo que hace descender los títulos de software a nivel global. Otra herramienta lanzada la semana pasada por Anthropic también ha provocado ventas en el sector de la ciberseguridad, con títulos como CrowdStrike y Zscaler cayendo alrededor de un 9% el lunes, después de que la compañía declarara que su herramienta es capaz de analizar el código de software en busca de vulnerabilidades.

La voz contraria

Varios economistas han advertido que los inversores podrían reaccionar de forma exagerada a los recientes desarrollos de la IA. La semana pasada, el analista de Lpl Financial Adam Turnquist escribió que la volatilidad en el sector del software y en aquellos expuestos a la IA refleja un cambio en la “narrativa de mercado” entre los inversores, más que una caída real de ingresos o beneficios.

A principios de mes, JPMorgan afirmó que la idea de que las empresas de IA estén destinadas a revolucionar la industria del software es fruto de una “lógica falaz” y que las preocupaciones de los inversores son exageradas. El analista de Wedbush Securities Dan Ives también declaró a Cnbc que el desplome de los títulos de software representa “la operación más desconectada de la realidad que he visto en mi carrera en Wall Street”, argumentando que los desarrollos de la IA acabarán fortaleciendo a las empresas.

febrero 24, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Negocio

GPUs Aceleran la Computación Cuántica Híbrida: Reducción de Tiempos de Ejecución

by Editora de Negocio febrero 1, 2026
written by Editora de Negocio

Resumen Ejecutivo

  • Dos nuevos estudios demuestran que trasladar el paso clásico más lento en los algoritmos cuánticos híbridos a las GPUs puede reducir los tiempos de ejecución de horas a minutos, acortando la brecha entre el procesamiento clásico y la ejecución cuántica.
  • El trabajo se centra en la diagonalización cuántica basada en muestras, donde la diagonalización clásica –y no el muestreo cuántico– ha sido el principal cuello de botella, y demuestra que los enfoques nativos de GPU y con descarga a GPU pueden reducir drásticamente este costo.
  • Los resultados sugieren un cambio en la computación cuántica híbrida hacia las GPUs como infraestructura central, al tiempo que destacan las limitaciones existentes relacionadas con la capacidad de memoria, los requisitos de escalabilidad y la necesidad continua de una estrecha integración con sistemas clásicos de alto rendimiento.

La computación cuántica híbrida ha prometido durante mucho tiempo ampliar los límites de lo que las primeras máquinas cuánticas actuales pueden lograr. Sin embargo, estos esfuerzos se han topado repetidamente con un problema persistente: las computadoras clásicas deben procesar y refinar los resultados cuánticos, un proceso que a menudo lleva mucho más tiempo que los propios experimentos cuánticos.

Ahora, dos nuevos estudios de investigadores de IBM y sus colaboradores sugieren que este cuello de botella está comenzando a superarse.

Los artículos –GPU-Accelerated Selected Basis Diagonalization with Thrust for SQD-based Algorithms y Scaling Sample-Based Quantum Diagonalization on GPU-Accelerated Systems using OpenMP Offload– informan de importantes ganancias de rendimiento al trasladar el paso clásico más exigente de un algoritmo cuántico híbrido ampliamente utilizado a los procesadores gráficos modernos, reduciendo los tiempos de cálculo de horas a minutos y acercando los tiempos de ejecución clásicos al ritmo de la ejecución cuántica. Los resultados de ambos estudios apuntan a un cambio en la forma en que se diseñan las cargas de trabajo cuánticas híbridas, posicionando a las GPUs como infraestructura central en lugar de aceleradores opcionales.

El trabajo se centra en la diagonalización cuántica basada en muestras (SQD, por sus siglas en inglés), un método híbrido utilizado en química cuántica y ciencia de materiales para calcular los estados de energía de moléculas complejas. SQD se basa en un bucle de retroalimentación: un procesador cuántico genera muestras de posibles configuraciones electrónicas, mientras que un sistema clásico filtra esos resultados y realiza cálculos numéricos a gran escala para refinar la respuesta. Ese post-procesamiento clásico, y no el muestreo cuántico, ha surgido como el costo dominante.

Los nuevos resultados del equipo muestran que rediseñar este paso clásico para supercomputadoras basadas en GPU puede reducir drásticamente ese costo, lo que podría ampliar el rango de sistemas químicos que se pueden estudiar con hardware cuántico de corto plazo.

Un Problema Clásico en el Corazón de los Algoritmos Cuánticos

En SQD, el papel del procesador cuántico es limitado pero crucial. Muestrea un circuito cuántico que codifica información sobre los electrones de una molécula, produciendo configuraciones candidatas que probablemente sean importantes para los estados de energía más bajos del sistema. Estas configuraciones se entregan luego a una computadora clásica, que construye un modelo matemático reducido de la molécula y resuelve sus energías utilizando un método iterativo.

Ese paso clásico implica aplicar repetidamente un gran operador matemático, conocido como Hamiltoniano, a vectores que representan estados electrónicos. Incluso cuando el operador completo nunca se almacena explícitamente, evaluar su efecto puede requerir miles de millones de cálculos pequeños. A medida que los sistemas crecen, este paso de diagonalización domina rápidamente el tiempo de ejecución.

Las demostraciones a gran escala anteriores de SQD dependieron de supercomputadoras masivas basadas en CPU, incluido el sistema Fugaku de Japón, para manejar esta carga de trabajo. Si bien fue efectivo, esas ejecuciones requirieron extensos recursos informáticos y largos tiempos de ejecución, lo que limitó la frecuencia con la que se podían realizar dichos cálculos.

Al mismo tiempo, las supercomputadoras más rápidas del mundo se han desplazado cada vez más hacia diseños acelerados por GPU. Sistemas como Frontier y Aurora dependen de miles de GPU para ofrecer su máximo rendimiento, lo que coloca a los algoritmos centrados en la CPU en desventaja a menos que se reelaboren para adaptarse a esa arquitectura.

Los nuevos estudios de IBM abordan directamente esta discrepancia.

Reconstruyendo la Diagonalización para GPUs

Uno de los estudios, liderado por investigadores de IBM Research en Tokio en colaboración con el instituto de investigación RIKEN de Japón, se centra en una rediseño nativo de GPU del paso de diagonalización utilizado en SQD. En lugar de utilizar herramientas de software para trasladar automáticamente el código de la CPU a las GPU, el equipo reescribió las partes más exigentes para que los datos y los cálculos se organizaran de manera que las GPU puedan manejar de manera eficiente.

La diagonalización, un método matemático estándar utilizado para determinar los estados de energía de un sistema, es una de las rutinas clásicas centrales en SQD. Los investigadores reorganizaron la forma en que se almacenan las configuraciones electrónicas en la memoria, aplanaron las estructuras de datos anidadas y reestructuraron los bucles para exponer el paralelismo fino adecuado para miles de hilos de GPU. La implementación utiliza bibliotecas de programación GPU estándar para administrar la memoria y la ejecución paralela mientras mantiene los datos residentes en el dispositivo.

En pruebas en clústeres de GPU modernos, el enfoque ofreció aceleraciones de hasta aproximadamente 40 veces en comparación con la ejecución de la CPU para el paso de diagonalización. Las ganancias provinieron principalmente de la explotación del gran número de hilos concurrentes disponibles en las GPU, incluso si los cálculos subyacentes involucran relativamente poca aritmética de punto flotante y están dominados por operaciones enteras y movimiento de datos.

El estudio también enfatizó la portabilidad. Si bien está diseñado para GPU de Nvidia, las técnicas subyacentes se pueden adaptar a otras arquitecturas con modificaciones modestas, una consideración importante a medida que los sistemas de computación de alto rendimiento se diversifican.

Al centrarse en el cuello de botella clásico en lugar del hardware cuántico en sí, el trabajo replantea dónde puede provenir el progreso en la computación cuántica de corto plazo. Un procesamiento clásico más rápido permite que los experimentos cuánticos iteren más rápidamente y aborden problemas más grandes sin esperar pasos de post-procesamiento prohibitivamente largos.

Escalabilidad en Sistemas Exaescala

Un segundo estudio, liderado por IBM Research en los Estados Unidos con colaboradores de Advanced Micro Devices y Oak Ridge National Laboratory, examina el mismo desafío de diagonalización desde un ángulo diferente: cómo escalarlo de manera eficiente y portátil en sistemas exaescala completos.

En lugar de reescribir el algoritmo desde cero, el equipo utilizó técnicas modernas de descarga de OpenMP, un estándar de programación para ejecutar cálculos en paralelo, para trasladar la parte más intensiva en computación de SQD a las GPU mientras mantenía intacta la base de código más amplia. El objetivo era mantener una única base de código que pudiera ejecutarse de manera eficiente tanto en sistemas solo con CPU como en sistemas acelerados por GPU.

Los investigadores se centraron en la multiplicación matriz-vector, el paso donde grandes tablas de números se aplican repetidamente a largas listas de valores, que representa la mayor parte del tiempo dedicado en cada ciclo de diagonalización. Al reorganizar la forma en que se almacenan los datos, manteniendo la información utilizada con frecuencia en la GPU y trasladando allí este cálculo central, lograron grandes ganancias de rendimiento sin reescribir todo el algoritmo.

Las pruebas comparativas en la supercomputadora Frontier en Oak Ridge mostraron aceleraciones de aproximadamente 95 veces por nodo en comparación con la implementación original de la CPU, lo que redujo los tiempos de diagonalización de horas a minutos para sistemas moleculares representativos. Las pruebas en otras plataformas de GPU, incluido el hardware más nuevo de AMD y NVIDIA, mostraron ganancias adicionales a medida que evolucionaron las arquitecturas de GPU.

Es importante destacar que el estudio demostró que estas mejoras se escalaron a cientos o miles de GPU con alta eficiencia. La sobrecarga de comunicación siguió siendo una pequeña fracción del tiempo de ejecución total, lo que indica que el enfoque podría admitir cálculos aún más grandes a medida que aumente el tamaño del sistema.

Según los investigadores, en última instancia, los resultados sugieren que la diagonalización acelerada por GPU no es solo una optimización de laboratorio, sino un camino práctico para ejecutar algoritmos cuánticos híbridos a escala en las máquinas más grandes de la actualidad.

Por Qué las Aceleraciones Importan para la Computación Cuántica

Si bien reconocer la mejora del rendimiento es importante, la importancia real de los estudios puede residir en lo que estos nuevos métodos pueden permitir.

Los algoritmos híbridos como SQD están diseñados para funcionar dentro de los límites del hardware cuántico actual, que sigue siendo ruidoso y relativamente pequeño. Su valor depende de ejecutar muchas iteraciones, refinando los resultados a medida que las muestras cuánticas y los cálculos clásicos se informan mutuamente. Si el lado clásico es lento, ese bucle de retroalimentación se detiene.

Al reducir los tiempos de ejecución clásicos para que coincidan o incluso superen los tiempos de ejecución cuánticos, los nuevos enfoques hacen factible ejecutar más iteraciones, explorar espacios de configuración más grandes y estudiar moléculas más complejas. Eso podría ampliar el alcance práctico de las aplicaciones de química cuántica en áreas como la catálisis, el diseño de materiales y la investigación energética.

El trabajo también subraya una tendencia más amplia en la computación cuántica: el progreso depende cada vez más de la integración con sistemas clásicos de alto rendimiento en lugar de los avances cuánticos independientes. A medida que los procesadores cuánticos mejoran de forma incremental, las ganancias de mejores algoritmos clásicos y la infraestructura pueden tener un impacto desproporcionado en lo que los usuarios pueden lograr.

Al mismo tiempo, los estudios destacan las limitaciones restantes. Los límites de memoria de la GPU aún limitan el tamaño de los problemas que se pueden manejar de manera eficiente, y los métodos dependen de tener suficiente trabajo paralelo para mantener ocupados miles de hilos de GPU. Los sistemas más pequeños aún pueden funcionar de manera más efectiva en las CPU.

Ambos estudios son complejos. Para una inmersión más profunda y más técnica, más allá del alcance de este artículo, consulte los artículos –GPU-Accelerated Selected Basis Diagonalization with Thrust for SQD-based Algorithms y Scaling Sample-Based Quantum Diagonalization on GPU-Accelerated Systems using OpenMP Offload– en arXiv. Es importante tener en cuenta que arXiv es un servidor de preimpresiones, que permite a los investigadores recibir comentarios rápidos sobre su trabajo. Sin embargo, no es –ni lo es este artículo– una publicación revisada por pares oficial. La revisión por pares es un paso importante en el proceso científico para verificar los resultados.

febrero 1, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Negocio

IA y Retail: Cómo la Inteligencia Artificial redefine la decisión de compra

by Editora de Negocio enero 8, 2026
written by Editora de Negocio

Por Dee Waddell, Directora Global de Industrias de Consumo, Viajes y Transporte, IBM Consulting.

7 de enero de 2026

ARMONK, N.Y., 7 de enero de 2026 /PRNewswire/ — La inteligencia artificial generativa está redefiniendo los primeros pasos de nuestra experiencia de compra, incluso antes de hacer clic en «comprar». Desde sugerencias hiperpersonalizadas hasta inspiración seleccionada, la influencia comienza mucho antes de una visita a una tienda o un toque en una aplicación, elevando la competencia entre marcas y minoristas a un nuevo nivel.

Own the agentic commerce experience

Un nuevo estudio global* del IBM Institute for Business Value, en colaboración con la National Retail Federation (NRF), reveló que, si bien casi tres cuartas partes de los consumidores encuestados (72%) todavía compran en tiendas físicas, casi la mitad (45%) recurre a la IA para obtener ayuda durante su proceso de compra. Los compradores aún desean ver y tocar los productos, pero los consumidores de hoy, cada vez más informados, llegan con una idea clara de lo que buscan y por qué. Utilizan la IA para investigar productos (41%), interpretar reseñas (33%) y buscar ofertas (31%).

«La IA está transformando la forma en que los consumidores compran, y todos los aspectos del proceso», señala Caroline Reppert, Directora Senior de Política de IA y Tecnología en la National Retail Federation. «A medida que estas tecnologías guían cada vez más el descubrimiento, la comparación y la elección del consumidor, los minoristas que comprendan y respondan a este cambio estarán mejor posicionados para ganarse la confianza, la relevancia y la lealtad a largo plazo de sus clientes.»

De la navegación a la compra guiada: cómo la IA está moldeando las decisiones

Para las marcas y minoristas líderes, este cambio hacia un descubrimiento impulsado por la IA está provocando una reevaluación de cómo y dónde interactúan con los consumidores.

Como explica Matthieu Houle, CIO de ALDO Group, «La IA está convirtiendo las compras en una conversación de confianza, mucho más que una simple búsqueda. Los consumidores ahora confían en asistentes que parecen casi humanos, conocen sus preferencias y ofrecen consejos neutrales y personalizados que cambian la forma en que validan y deciden qué comprar.»

Si bien el 35% de los consumidores encuestados todavía prefieren tiendas visualmente atractivas y sin tiempos de espera, las soluciones impulsadas por la IA son casi igual de importantes. De hecho, un tercio de los consumidores buscan superaplicaciones que combinen el comercio con otros servicios, el 30% desea hogares inteligentes con compradores personales de IA y entrega autónoma, y el 29% busca compras sin esfuerzo a través de plataformas sociales.

Los consumidores se están acostumbrando cada vez más a que los asistentes de compra impulsados por la IA les ayuden a decidir qué comprar. Sin embargo, esta expectativa se está formando más rápido de lo que la mayoría de los modelos operativos minoristas pueden seguir el ritmo, lo que plantea la pregunta: ¿están nuestros datos listos para guiar y validar lo que los clientes eligen en última instancia?

«La IA no es una varita mágica», enfatiza Stanislas Vignon, Jefe de Insights (IA y Omnicanal) de Louis Vuitton Moët Hennessy (LVMH). «Si no tienes los datos correctos, no funciona. Y debes probar tu solución para saber si funciona y dónde aportará valor.»

Cómo las marcas y los minoristas pueden adelantarse a los consumidores impulsados por la IA

A medida que la IA transforma la forma en que los consumidores toman decisiones, las marcas y los minoristas deben anticipar los cambios y diseñar intencionalmente experiencias que satisfagan a los compradores dondequiera que estén, con un enfoque en:

  • Rediseñar el recorrido en torno a los futuros momentos de decisión. Identificar dónde los consumidores utilizarán la IA para investigar, comparar y buscar valor, y asegurarse de que esos momentos se conecten sin problemas con la compra.
  • Utilizar agentes para reducir la incertidumbre al principio del recorrido. Colocar la búsqueda de ofertas, la interpretación de reseñas y el soporte de compras personales donde ayuden a los consumidores a decidir, no solo donde se desvía el volumen de servicio.
  • Hacer que la preparación de los datos y las pruebas sean innegociables. Con más de la mitad de los ejecutivos de marca encuestados (54%) que informan sobre desafíos persistentes en todos los canales y sistemas, alinear la verdad del producto y la política y probar de extremo a extremo es esencial.
  • Amplificar lo que hace que la marca sea distintiva. Utilizar la IA para escalar la relevancia y eliminar la fricción, al tiempo que se preserva la creatividad y la expresión auténtica de la marca.
  • Invertir en habilidades y asociaciones en IA. Más de la mitad de los ejecutivos (51%) citan una experiencia limitada en IA, lo que subraya la necesidad de fortalecer las capacidades internas y asociarse estratégicamente para escalar la IA de manera responsable y efectiva.

La IA está remodelando dónde, cuándo y cómo se toman las decisiones en todas las industrias. En el sector minorista, comprender el comportamiento del consumidor influenciado por la IA se convertirá en una ventaja competitiva definitoria, separando a las marcas y minoristas que moldean las decisiones de aquellos que simplemente las cumplen.

Para ver el estudio completo, visite: https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/agentic-commerce.

*Metodología del estudio

Para examinar cómo los consumidores y los líderes empresariales se están preparando para las compras habilitadas por la IA y el comercio agentic, el IBM Institute for Business Value realizó dos encuestas globales en el tercer trimestre de 2025: una a consumidores y otra a ejecutivos de la industria. La encuesta a consumidores incluyó a más de 18.000 encuestados de 23 países, que representan diversos comportamientos de compra. La encuesta a ejecutivos recopiló información de 200 líderes senior de organizaciones minoristas, de bienes de consumo y de comercio electrónico. Los encuestados se segmentaron por estilo de participación, sensibilidad a los precios y conocimientos relacionados con la IA. Los análisis descriptivos identificaron patrones clave, y se aplicaron técnicas estadísticas validadas para comparar prioridades y evaluar estrategias de participación centradas en la confianza.

Acerca de IBM

IBM es un proveedor líder de nube híbrida global y de IA, y de experiencia en consultoría. Ayudamos a los clientes en más de 175 países a capitalizar los conocimientos derivados de sus datos, optimizar los procesos empresariales, reducir los costos y obtener una ventaja competitiva en sus industrias. Miles de gobiernos y entidades corporativas en áreas de infraestructura crítica, como servicios financieros, telecomunicaciones y atención médica, confían en la plataforma de nube híbrida de IBM y Red Hat OpenShift para afectar sus transformaciones digitales de forma rápida, eficiente y segura. Las innovaciones revolucionarias de IBM en IA, computación cuántica, soluciones de nube específicas de la industria y consultoría ofrecen opciones abiertas y flexibles a nuestros clientes. Todo esto está respaldado por el compromiso de larga data de IBM con la confianza, la transparencia, la responsabilidad, la inclusión y el servicio. Visite www.ibm.com para obtener más información.

Contacto de prensa:

Alexandra Prevor

IBM

alexandra.prevor@ibm.com 

IBM Corporation logo. (PRNewsfoto/IBM Corporation)

FUENTE IBM

enero 8, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
  • Aviso Legal
  • Política de Cookies
  • Términos y Condiciones
  • Política de Privacidad
  • CONTACTO
  • Política de Correcciones
  • Equipo Editorial
  • Política Editorial
  • SOBRE NOTIULTI

El servicio de alojamiento web más recomendado. Para quejas, abusos o publicidad, contacte: admin@notiulti.com


Back To Top
Notiulti
  • Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología