• Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología
Notiulti
Noticias Ultimas
Inicio » PYMNTS News » Página 2
Tag:

PYMNTS News

Tecnología

Blockchain: Más allá del token, la estrategia del CFO

by Editor de Tecnologia enero 8, 2026
written by Editor de Tecnologia

La mayoría de las organizaciones tienen un punto ciego en lo que respecta a blockchain. Y el problema reside en la propia palabra.

Durante años, “blockchain” y “cripto” se han tratado como una única propuesta. Se asumía que las empresas estaban “a favor” o “en contra”, creyentes o escépticas.

Ese enfoque binario fue conveniente en los primeros años de experimentación, cuando la tecnología operaba principalmente fuera de los circuitos tradicionales y se asociaba con la especulación.

Ya no es útil, dado que el sector blockchain comienza a institucionalizarse. Hoy en día, los directores financieros (CFO) deben pensar en capas, no en tokens.

Después de todo, lo que los líderes financieros enfrentan cada vez más no es una única elección tecnológica, sino una pila de ellas. La tecnología blockchain, en el contexto de su utilidad, se entiende mejor como un conjunto de tres capas de infraestructura, cada una con una función diferente, cada una introduciendo un perfil de riesgo diferente y cada una exigiendo un tipo diferente de juicio ejecutivo.

Esta visión en capas nació de un problema práctico: cómo equilibrar simultáneamente la seguridad, la descentralización y la escalabilidad, lo que a menudo se conoce como el trilema de blockchain.

Anuncio: Desplázate para continuar

Las primeras blockchains, como Bitcoin (y posteriormente Ethereum), eran seguras y descentralizadas, pero tenían dificultades con el rendimiento y el costo. Los desarrolladores respondieron dividiendo las responsabilidades en capas, cada una optimizada para tareas específicas. Sin embargo, agruparlas puede oscurecer más de lo que aclara, especialmente para los CFO, cuyas responsabilidades se centran en la liquidación, la liquidez, los controles y la rendición de cuentas.

Y dado que la gobernanza es un desafío central en las tres capas de las blockchains públicas, los líderes financieros no están preguntando si blockchain es transformadora, sino qué capas centrales resuelven mejor problemas específicos que los sistemas existentes, y a qué costo.

Más información: Los depósitos tokenizados roban el protagonismo a las stablecoins, y también el modelo de negocio

Entendiendo las Blockchains de Capa 1

Las blockchains condensan consideraciones técnicas, financieras y operativas en una única pila, donde la transacción y la liquidación son la misma acción.

Las blockchains de Capa 1 (L1) son los rieles de liquidación fundamentales del ecosistema. Establecen consenso, registran transacciones y garantizan la integridad del libro mayor, que es el registro único e inmutable de cada blockchain de quién posee qué y cuándo se produjeron los cambios.

Bitcoin y Ethereum son los arquetipos, pero otras redes como Solana o Algorand operan con los mismos principios básicos, utilizando diferentes mecanismos para ofrecer rendimiento y seguridad. Esto también significa que las garantías de la finalización de la liquidación son específicas de cada cadena, en lugar de que exista un único “estándar blockchain”.

Para los CFO que evalúan la liquidación de blockchain pública, los criterios relevantes sobre qué riel de Capa 1 utilizar pueden reflejar los utilizados para los sistemas tradicionales: disponibilidad, previsibilidad de costos, aplicabilidad legal, auditabilidad y alineación regulatoria.

Las blockchains privadas de Capa 1 pueden resolver el control limitando la participación, pero estos sistemas a menudo tienen dificultades para lograr escala o interoperabilidad, lo que limita su utilidad más allá de consorcios estrechos. En muchos casos, los CFO pueden descubrir que simplemente replican la infraestructura financiera existente con una nueva terminología.

Pero las blockchains de Capa 1 son una elección de infraestructura. Y las elecciones de infraestructura son más importantes cuando se trata de lo que las empresas intentan construir o lograr. Eso es lo que ocurre en las capas 2 y 3.

Leer también: El manual del CFO de criptomonedas para la gestión de tesorería blockchain

Cómo las Capas 2 y 3 Soportan Aplicaciones, Automatización y Realidades Operativas

Si la Capa 1 se refiere a cómo se mueve el valor, la Capa 2 (L2) se refiere a qué se mueve en ella. Las stablecoins se han convertido en los instrumentos más destacados de la Capa 2.

“La verdadera oportunidad no es perseguir las palabras de moda, sino ser disciplinado, identificar dónde las stablecoins realmente superan a un sistema de pago tradicional”, dijo Bryce Jurss, vicepresidente y jefe de América de activos digitales en Nuvei, a PYMNTS el mes pasado.

La interacción entre la Capa 1 y la Capa 2 es fundamental cuando se trata del uso empresarial de las stablecoins. Una stablecoin altamente regulada puede mitigar algunos de los riesgos asociados con un riel de liquidación público. Por el contrario, incluso un riel privado no puede compensar un instrumento mal diseñado.

La mayoría de las empresas que participan en esta capa lo hacen con cautela y en contextos limitados. El objetivo es reducir la fricción, no la sustitución de la moneda.

Considere los pagos transfronterizos, las operaciones de tesorería corporativa o las microtransacciones recurrentes con proveedores. Los rieles tradicionales pueden ser lentos y costosos, inmovilizando el capital de trabajo en tránsito. Los modelos de Capa 2 permiten agrupar muchas interacciones fuera de la cadena y luego anclarlas a la capa base, reduciendo tanto la latencia como las tarifas sin sacrificar las garantías de seguridad de la cadena base.

Pero es en la Capa 3 (L3) donde blockchain suele ser visible por primera vez para la empresa. Estas aplicaciones traducen la liquidación basada en el libro mayor y los instrumentos programables en herramientas para la conciliación, la elaboración de informes, el cumplimiento y la gestión de efectivo.

El riesgo es la abstracción. Las aplicaciones de Capa 3 heredan los supuestos y las vulnerabilidades de las capas inferiores. Una herramienta de conciliación basada en datos de liquidación inestables es solo superficialmente eficiente. Un contrato inteligente que gestiona los pagos es tan fiable como el activo que controla y el marco legal que lo rige.

Leer también: El interés institucional está poniendo a prueba la interoperabilidad financiera de blockchain

Interoperabilidad y el Ecosistema Blockchain más Amplio

Una pregunta común en los círculos empresariales es si la adopción de blockchain requiere redes públicas, cadenas de consorcio privadas o modelos híbridos.

Las redes públicas ofrecen una amplia participación y resiliencia, pero la gobernanza es distribuida y opaca para cualquier empresa individual. Las blockchains privadas o con permiso proporcionan control y vías de cumplimiento más claras, pero a menudo no logran ofrecer los efectos de red que hacen que los sistemas descentralizados sean valiosos.

Los enfoques híbridos o semi-permitidos intentan un punto intermedio: participación restringida para una mayor claridad en la gobernanza, con puentes a redes públicas para la interoperabilidad.

Desde la perspectiva de un CFO, la elección es menos sobre ideología y más sobre alineación de riesgos. Los rieles públicos pueden tener sentido para los corredores de liquidación abiertos donde la liquidez y la interoperabilidad son prioritarias. Los rieles privados pueden ser apropiados para la liquidación interna, la financiación de la cadena de suministro o los flujos interempresariales donde el control y la previsibilidad superan los efectos de red.

enero 8, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

IA en el dispositivo: Google apuesta por FunctionGemma y el Edge AI

by Editor de Tecnologia enero 3, 2026
written by Editor de Tecnologia

Durante la última década, la inteligencia artificial se ha concentrado principalmente en la nube. Modelos grandes, entrenados y ejecutados en centros de datos centralizados, han impulsado chatbots, herramientas empresariales y aplicaciones de consumo, pero este enfoque tiene sus desventajas. La dependencia de la nube introduce latencia, aumenta los costos de infraestructura y requiere que los datos de los usuarios se transmitan a través de redes. A medida que la IA se integra en los sistemas operativos y el software cotidiano, estas limitaciones se hacen cada vez más evidentes.

Google está señalando ahora un cambio en su estrategia de implementación de la IA. Junto con sus modelos Gemini basados en la nube, la compañía ha estado expandiendo su pila de IA en el borde (edge AI), incluyendo las herramientas Google Edge y un nuevo modelo compacto llamado FunctionGemma. En conjunto, estos esfuerzos apuntan a una estrategia que considera la ejecución local como una capa fundamental de la infraestructura de IA, en lugar de una optimización de nicho.

FunctionGemma está diseñado para ejecutarse directamente en dispositivos móviles e interpretar comandos de lenguaje natural en acciones sin depender de la inferencia en la nube, permitiendo que los teléfonos respondan instantáneamente a la intención del usuario. El modelo se enmarca dentro de la estrategia más amplia de Google para hacer que la IA sea utilizable incluso cuando la conectividad es limitada, y para reducir la necesidad de que cada interacción pase por sistemas centralizados. Según informó VentureBeat, el modelo está destinado a “controlar dispositivos móviles” traduciendo el lenguaje en comandos ejecutables, lo que subraya su papel como una capa de control en el dispositivo, más que como una interfaz conversacional.

FunctionGemma está diseñado para la ejecución en el borde

FunctionGemma es una variante especializada del modelo Gemma 3 270M de Google, pero su entrenamiento y propósito difieren significativamente de los modelos de lenguaje general. Como detalló MarkTechPost, FunctionGemma está optimizado para la llamada a funciones (function calling), lo que significa que convierte el lenguaje natural en salidas estructuradas que los sistemas de software pueden ejecutar directamente. En lugar de producir texto libre, el modelo genera instrucciones que se asignan a acciones definidas.

Este enfoque refleja una creciente comprensión de que muchas interacciones con la IA son operativas, no conversacionales. Los usuarios esperan que la IA integrada en los dispositivos haga cosas, no solo las explique. Los modelos de propósito general pueden comprender la intención, pero a menudo tienen dificultades para activar acciones precisas de manera confiable. Las pruebas internas de Google resaltan esta brecha. Un modelo pequeño de referencia tuvo un rendimiento inconsistente en tareas de acción móvil, pero después de un ajuste específico, la precisión de FunctionGemma mejoró sustancialmente, lo que demuestra cómo la especialización mejora la fiabilidad.

Debido a que FunctionGemma se ejecuta localmente, esas acciones ocurren de inmediato. No hay un viaje de ida y vuelta a través de la red y no es necesario transmitir los datos del usuario a servidores externos. VentureBeat señala que esto permite el control de dispositivos en tiempo real, incluso en escenarios sin conexión, lo que hace que el modelo sea adecuado para entornos móviles y embebidos. Esta ejecución local también se alinea con las crecientes expectativas de privacidad, ya que los datos confidenciales permanecen en el dispositivo en lugar de ser procesados de forma remota.

Advertisement: Scroll to Continue

La pequeña huella de FunctionGemma es fundamental para su función. Como escribe MarkTechPost, el modelo fue diseñado para operar en hardware restringido manteniendo suficiente comprensión contextual para manejar comandos prácticos. En lugar de posicionarlo como un asistente independiente, Google está tratando a FunctionGemma como un componente que se puede integrar en aplicaciones, habilitando silenciosamente la IA orientada a la acción bajo la superficie.

Auge de las arquitecturas de IA híbridas

FunctionGemma encaja en el impulso más amplio de Google hacia la IA en el borde, que incluye las herramientas Google Edge diseñadas para ayudar a los desarrolladores a implementar y ejecutar modelos localmente en teléfonos, navegadores y dispositivos integrados. En conjunto, estos esfuerzos reflejan un cambio hacia arquitecturas de IA híbridas que dividen las responsabilidades entre los sistemas locales y la nube.

En este modelo, los modelos de borde ligeros manejan tareas rutinarias y de alta frecuencia donde la velocidad y la fiabilidad son más importantes, mientras que los modelos de nube más grandes se reservan para el razonamiento complejo, el análisis y la generación. Esta división reduce el uso de la computación en la nube y mejora la capacidad de respuesta sin sacrificar el acceso a capacidades avanzadas cuando sea necesario.

La economía del despliegue de la IA también cambia con este enfoque. Los costos de inferencia en la nube se escalan con el uso, lo que se vuelve costoso a medida que las funciones de inteligencia artificial se proliferan en los productos. Ejecutar modelos específicos en los dispositivos reduce la demanda continua de infraestructura y hace que el rendimiento sea más predecible. A medida que la IA se convierte en parte de los sistemas operativos y las aplicaciones principales, esa previsibilidad se vuelve cada vez más importante.

También hay implicaciones en cuanto a la gobernanza. El procesamiento de datos localmente limita la cantidad de información que debe transmitirse o almacenarse de forma centralizada, lo que reduce la exposición a medida que aumenta el escrutinio en torno a las prácticas de datos de la IA. La ejecución en el borde permite que las funciones de IA funcionen minimizando los riesgos asociados con la agregación de datos a gran escala.

enero 3, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Apple Vision Pro: Ventas Bajas y Futuro Incierto

by Editor de Tecnologia enero 2, 2026
written by Editor de Tecnologia

Apple ha reducido la producción y el marketing de su casco Vision Pro, un revés que sugiere que la computación espacial, por ahora, permanecerá un nicho de mercado para compras, identidad y gastos dentro de aplicaciones.

Según un informe del 1 de enero publicado por el Financial Times, Apple ha recortado tanto la fabricación como la promoción del visor de 3.499 dólares. Citando a International Data Corporation (IDC), el FT informó que Luxshare, el socio de fabricación chino de Apple, detuvo la producción a principios de año después de enviar aproximadamente 390.000 unidades en 2024 durante el lanzamiento del Vision Pro. El FT también señaló estimaciones de Sensor Tower que indican que Apple ha reducido el gasto en publicidad digital para el casco en más de un 95% en lo que va del año en mercados como Estados Unidos y el Reino Unido.

Apple no ha revelado las cifras de ventas del Vision Pro. IDC prevé que Apple envíe solo 45.000 unidades nuevas en el último trimestre de 2025, durante el período festivo, según el FT. Apple vende el dispositivo directamente en 13 países y no ha ampliado su despliegue internacional en 2025, de acuerdo con el informe.

“Podemos decir que el costo, el factor de forma y la falta de aplicaciones nativas de VisionOS son las razones por las que el Vision Pro nunca se vendió ampliamente”, declaró Erik Woodring, analista de Morgan Stanley, al FT.

El artículo también citó quejas sobre que el dispositivo es pesado, incómodo para usar durante períodos prolongados y tiene una duración de batería relativamente baja. Apple lanzó una versión actualizada M5 en octubre con un chip más potente, mayor duración de la batería y una diadema rediseñada, y se espera que lance una versión más económica y de especificaciones más bajas este año, según el FT.

El mercado general de cascos de realidad virtual disminuyó un 14% interanual, según el FT, citando a Counterpoint Research, y la línea Quest de Meta representa alrededor del 80% de las ventas unitarias. Apple afirma que 3.000 aplicaciones están diseñadas específicamente para Vision Pro, y el casco ha ganado cierta tracción en usos empresariales como el entrenamiento de pilotos y las cirugías. Apple declinó hacer comentarios.

Advertisement: Scroll to Continue

A pesar de la desaceleración en el desarrollo del casco, la presencia de Apple en pagos e identidad continúa expandiéndose a través de Apple Pay y Apple Wallet.

En PYMNTS, la cobertura reciente de Apple se ha centrado menos en las ambiciones de hardware de la compañía y más en la expansión constante de su infraestructura de pagos e identidad. Los informes del último año han rastreado cómo Apple Wallet está evolucionando hacia un centro central para identidad digital, destacando el lanzamiento de Apple de identificaciones gubernamentales dentro de la billetera y su impulso para convertir el iPhone en una credencial para viajes, verificación de edad y autenticación en tiendas. PYMNTS también ha examinado el papel cada vez mayor de Apple Pay en la reducción del fraude y el pago seguro, así como las asociaciones que amplían las opciones de “compre ahora, pague después” a través de Apple Pay en mercados europeos clave.

enero 2, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

IA en Cuentas por Pagar: De Costo a Activo Estratégico

by Editor de Tecnologia diciembre 31, 2025
written by Editor de Tecnologia

La gestión administrativa de las empresas está en plena renovación, y las cuentas por pagar se encuentran en el centro de esta transformación.

Durante décadas, las cuentas por pagar han operado en un segundo plano dentro de las finanzas corporativas. Su éxito era necesario, pero poco llamativo y centrado en operaciones constantes, medido en facturas procesadas, cheques emitidos y excepciones resueltas con la menor interrupción posible.

Cuando la innovación llegó, a menudo se tradujo en una automatización incremental superpuesta a flujos de trabajo manuales. Esa era está llegando a su fin.

La inteligencia artificial está impulsando a las cuentas por pagar a salir de la retaguardia y asumir un papel más estratégico. A medida que los procesos manuales dan paso a la toma de decisiones inteligente, la defensa proactiva contra el fraude y la optimización de pagos basada en datos, las cuentas por pagar emergen como una fuente de liquidez, resiliencia e ingresos.

“La gente apenas está comenzando a entender que la IA no es simplemente automatización con un marketing más atractivo”, afirmó Finexio, CEO y fundador Ernest Rolfson, a PYMNTS. “Adoptarla como infraestructura permite utilizar sus datos como un activo estratégico”.

Esta distinción es importante. La automatización acelera los procesos existentes. La infraestructura redefine lo que es posible. Cuando la IA se integra a nivel arquitectónico en los flujos de trabajo de las cuentas por pagar, hace más que reducir los tiempos de ciclo o la plantilla. Aprende continuamente de los datos de las transacciones, el comportamiento de los proveedores y los resultados de los pagos.

Advertisement: Scroll to Continue

Leer también: AI-Driven Accounts Payable: Elevating AP From Cost Center to Strategic Asset

La IA como Infraestructura, No Como Automatización

Históricamente, la escalabilidad de las cuentas por pagar ha estado limitada por la economía laboral. Más proveedores, más facturas y más métodos de pago significaban más personal o un riesgo creciente. La IA cambia esta ecuación.

“En el pasado, teníamos personal en grandes centros de llamadas realizando un seguimiento manual”, dijo Rolfson. “Esperábamos una tasa de conversión”.

Ese modelo nunca fue sostenible. Las empresas estaban “luchando contra un problema matemático con la mano de obra”, afirmó.

La IA “realmente resuelve ese problema matemático”, dijo Rolfson. Permite altos niveles de personalización, un contacto con los proveedores preciso y una participación escalable sin aumentar la plantilla, una ventaja especialmente crítica a medida que las empresas enfrentan mercados laborales más ajustados e incertidumbre económica de cara a 2026.

El resultado es una ventaja compuesta. A diferencia de los motores de reglas estáticas, los sistemas de IA mejoran con cada transacción, creando lo que Rolfson llamó un “foso competitivo” para las organizaciones dispuestas a invertir temprano.

Por Qué las Tarjetas Virtuales Aún No Han Despegado

Pocos ámbitos ilustran mejor los límites del pensamiento tradicional en las cuentas por pagar que las tarjetas virtuales. A pesar de estar disponibles durante años y ofrecer beneficios en velocidad, seguridad y reembolsos, la adopción sigue siendo baja. Rolfson situó la adopción a nivel nacional en torno al 7%.

El problema no es el producto, dijo. Es el modelo.

“Las empresas están utilizando reglas estáticas”, explicó. “Este proveedor acepta tarjetas y este no. Es un pensamiento un poco perezoso”.

La IA introduce lo que Rolfson describió como una “toma de decisiones dinámica”, optimizando los métodos de pago a nivel de transacción en función de las tarifas, los plazos, el comportamiento del proveedor y los niveles de reembolso.

“No se trata necesariamente de obtener la mayor aceptación de tarjetas, sino de optimizar la combinación de pagos”, afirmó.

Ese nivel de complejidad está más allá de la escala humana.

“El equipo en el terreno con un salario base de 50.000 o 60.000 dólares no puede resolver este nivel de complejidad”, dijo Rolfson, y los bancos rara vez están equipados para ayudar.

Sin plataformas impulsadas por la IA, los equipos de cuentas por pagar se ven obligados a gestionar manualmente la incorporación de proveedores, los reintentos, los reembolsos y las excepciones.

“A menos que trabaje con más de 100 proveedores, olvídese de ello”, dijo. “Solo obtendrá la punta del iceberg”.

Transformando las Cuentas por Pagar en un Motor de Ingresos

El diferenciador clave de las soluciones modernas de cuentas por pagar es arquitectónico. Los proveedores tradicionales “añadieron pagos a los flujos de trabajo existentes de las cuentas por pagar”, dijo Rolfson, creando a menudo procesos desconectados y manuales. Las plataformas nativas de IA tratan los pagos como la plataforma en sí.

“Cuando cada transacción puede generar algunos ingresos, generar flotación y reducir las pérdidas por fraude, se está cambiando la mentalidad de las cuentas por pagar como un centro de costes a un centro de beneficios”, afirmó.

Sin embargo, la tecnología por sí sola no es suficiente, dijo. Los equipos de cuentas por pagar más exitosos comparten una mentalidad cultural distinta.

“No quieren estar enviando cheques”, dijo, citando un mayor riesgo de fraude, mayores costes y una menor satisfacción del proveedor.

En cambio, promueven activamente los pagos electrónicos, especialmente las tarjetas, en los contratos, los sitios web y las comunicaciones con los proveedores. La estrategia de pago se convierte en parte de las negociaciones con los proveedores, utilizando pagos más rápidos o predecibles como palanca.

“Ahora tenemos supercomputadoras que pueden resolverlo por usted”, dijo Rolfson.

Si la optimización de los pagos es una cara de la historia de las cuentas por pagar impulsadas por la IA, la prevención del fraude es la otra.

“Ahora la IA puede generar facturas que parecen perfectas”, dijo Rolfson. “Tiene voces falsas que pueden autorizar transferencias bancarias. Son imperceptibles”.

Los correos electrónicos de phishing pueden pasar todas las pruebas internas. Lo que antes era un fraude de “aficionado” se ha convertido en un fraude de “calidad estatal”, afirmó.

La única respuesta viable es una defensa proactiva basada en la IA, dijo. Esto significa validar las identidades en tiempo real, confirmar las instrucciones de pago en cada transacción y verificar continuamente a los proveedores con respecto a las señales de riesgo y las listas de defraudadores.

Las cuentas por pagar nunca serán glamurosas. Pero en una economía impulsada por la IA, se están convirtiendo rápidamente en una de las palancas más poderosas de las finanzas.

Para obtener cobertura completa de PYMNTS sobre B2B e IA, suscríbase a los boletines diarios B2B y de IA.

diciembre 31, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

IA y Robótica: Clave para el Fulfillment Navideño

by Editor de Tecnologia diciembre 23, 2025
written by Editor de Tecnologia

Ante la creciente demanda durante las fiestas navideñas, que pone a prueba los límites de las cadenas de suministro, minoristas globales como Amazon, Walmart y Target están recurriendo en gran medida a la inteligencia artificial (IA) y la robótica para agilizar el movimiento de mercancías, reducir errores y proteger a los trabajadores de tareas físicamente exigentes. Lo que antes era tecnología experimental se ha convertido en una infraestructura fundamental, transformando la forma en que las empresas gestionan los picos de demanda en almacenes, redes de transporte y operaciones de devolución.

La IA orquesta la logística navideña

Para los grandes minoristas, el éxito en las fiestas navideñas depende cada vez más de los sistemas de IA que pueden anticipar la demanda y coordinar miles de elementos en tiempo real. En Walmart, una red de orquestación impulsada por IA conecta modelos de previsión, algoritmos de enrutamiento y agentes de decisión para gestionar lo que la compañía ha descrito como sus entregas navideñas más rápidas hasta la fecha. El sistema analiza continuamente señales como las ventas históricas, los patrones de demanda locales, las condiciones climáticas y las limitaciones de transporte para posicionar el inventario más cerca de los clientes antes de que se realicen los pedidos.

Una vez que se dispara la demanda, las herramientas de IA reequilibran dinámicamente las rutas de entrega, ajustan los horarios de recogida y redirigen a los conductores según cambian las condiciones. Walmart señala que estos modelos funcionan como copilotos digitales, ayudando a los conductores y a los equipos operativos a responder a las interrupciones sin intervención manual. El resultado es menos retrasos y ventanas de entrega más predecibles durante las semanas más ocupadas del año.

En Amazon, la robótica y la IA están estrechamente integradas para mantener la fiabilidad a escala navideña. En una reciente entrevista con Bloomberg, Tye Brady, Director de Tecnología de Amazon Robotics afirmó que la compañía está “potenciando la flota de robots más grande del mundo con IA”, con el objetivo claro de eliminar las tareas “monótonas y repetitivas” dentro de los centros de cumplimiento.

La gestión de excepciones es donde la IA marca la mayor diferencia. Brady señaló que cuando el cumplimiento opera a una escala masiva, “solo un 1% de gestión de excepciones puede arruinarlo todo”, lo que hace esencial la detección y resolución rápidas. Los sistemas de IA ahora propagan el aprendizaje a través de flotas de robots, mientras que los paneles de control consolidan señales complejas en recomendaciones legibles para humanos, lo que permite a los trabajadores intervenir de forma más rápida y eficaz.

Los robots se encargan de las tareas más pesadas

Dentro de los almacenes y centros de distribución, la robótica es cada vez más responsable del trabajo más exigente físicamente. Investigaciones destacadas por el MIT muestran cómo los brazos robóticos autónomos ahora descargan remolques, levantan cajas de hasta 50 libras y las colocan en transportadores sin intervención humana. Estos sistemas se basan en la visión artificial, sensores y modelos de IA generativa para identificar objetos, ajustar la fuerza de agarre y operar de forma segura en entornos de almacén concurridos.

El impacto es doble. En primer lugar, los robots ayudan a los almacenes a procesar mayores volúmenes durante períodos pico cortos sin ampliar drásticamente la plantilla. En segundo lugar, reducen el riesgo de lesiones para los trabajadores que tradicionalmente se encargan de levantar objetos pesados de forma repetitiva, un desafío persistente durante las temporadas de compras navideñas.

Los minoristas están posicionando a estos robots como colaboradores, no como reemplazos. Los trabajadores humanos supervisan cada vez más las excepciones, el control de calidad y la supervisión del sistema, mientras que las máquinas se encargan del movimiento repetitivo a gran escala. El modelo permite a las instalaciones extender las horas de operación y mantener el rendimiento incluso cuando los mercados laborales siguen ajustados.

La IA aborda las devoluciones, el fraude y las tendencias cambiantes

La temporada navideña no termina con la entrega. Las devoluciones aumentan en enero, creando otro cuello de botella operativo. Según Reuters, una plataforma de devoluciones propiedad de UPS ahora está implementando IA para detectar posibles devoluciones fraudulentas comparando imágenes de los artículos devueltos con las listas originales de productos. Aunque menos del 1% de las devoluciones se señalan, el sistema ayuda a los minoristas a contener las pérdidas durante un período en el que los volúmenes de devoluciones aumentan drásticamente.

Al mismo tiempo, la IA está ayudando a los minoristas a responder a las tendencias de consumo en rápida evolución que influyen en lo que debe cumplirse. Target está utilizando la IA para analizar las señales de las redes sociales, los datos de ventas y las tendencias de la moda, lo que le permite ajustar los surtidos de productos más rápidamente. Al almacenar materias primas y confiar en modelos predictivos, el minorista pretende reducir el tiempo entre la aparición de una tendencia y la disponibilidad del producto, reduciendo el riesgo de rebajas y mejorando la rotación durante la demanda máxima.

diciembre 23, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Rivian: Nuevo Chip IA y Plataforma de Autonomía Propia

by Editor de Tecnologia diciembre 16, 2025
written by Editor de Tecnologia

Rivian Automotiveha presentado un chip de inteligencia artificial (IA) personalizado y una plataforma integral de autonomía, diseñados y fabricados internamente.

El anuncio, realizado en el primer “Autonomy & AI Day” de la compañía en Palo Alto, California, marca un cambio con respecto a la dependencia de soluciones de computación de terceros, como los procesadores de Nvidia. Rivian afirmó que su nuevo silicio y arquitectura de software impulsarán las capacidades de asistencia al conductor y automatización de próxima generación, comenzando con su próxima línea de vehículos R2 y futuros modelos.

El anuncio de Rivian destaca un cambio más amplio en la industria de los vehículos eléctricos hacia la integración vertical de hardware y software. La compañía describió el chip personalizado como diseñado específicamente para satisfacer las demandas de los sistemas de conducción autónoma, donde la coordinación entre sensores, redes neuronales y la computación es fundamental.

Este enfoque contrasta con el uso de chips de propósito general de Nvidia, diseñados para atender a muchos clientes y casos de uso, lo que puede limitar la personalización a largo plazo y resultar en un desarrollo de funciones más lento.

Diseño de la plataforma y silicio personalizado de Rivian

En el centro de la iniciativa de Rivian se encuentra el Rivian Autonomy Processor (RAP1), un chip personalizado y de propósito específico fabricado por Taiwan Semiconductor Manufacturing Co. (TSMC) que, según Rivian, está optimizado para tareas de IA centradas en la visión.

La compañía afirmó que RAP1 impulsa su nueva arquitectura de computación de tercera generación, el Autonomy Compute Module 3 (ACM3), que espera enviar en vehículos de producción a partir de la R2 a finales de 2026.

Advertisement: Scroll to Continue

Rivian también indicó que planea incluir sensores lidar junto con cámaras y radar en futuros vehículos como parte de una estrategia de sensores multimodal para mejorar la detección de objetos y la redundancia. La compañía también presentó un nuevo software de autonomía basado en un “Large Driving Model” fundamental, una arquitectura de red neuronal entrenada con datos de conducción reales y simulados, que Rivian afirma que se integrará en futuros vehículos para mejorar la percepción y la planificación.

Cambio de los chips de propósito general

Según Bloomberg, Rivian planea reemplazar los procesadores de Nvidia utilizados en generaciones anteriores de sus sistemas de autonomía con su propio silicio interno en futuros vehículos.

CNBC informó que los líderes de Rivian enmarcaron la autonomía como un esfuerzo de extremo a extremo, enfatizando que la computación, los sensores, los modelos y el software deben desarrollarse juntos en lugar de agregarse a plataformas existentes. Esta estrategia refleja una creciente opinión entre los fabricantes de automóviles de que una integración más estrecha en toda la pila de autonomía puede mejorar la velocidad de desarrollo y la flexibilidad a largo plazo, incluso cuando las empresas siguen siendo cautelosas con los plazos para capacidades de conducción autónoma más avanzadas.

Rivian también lanzó una oferta de suscripción, Autonomy+, que ofrecerá funciones avanzadas de asistencia al conductor. El servicio tiene un precio de $2,500 por adelantado o $49.99 por mes, significativamente inferior a las ofertas comparables de algunos competidores. Se proyecta que la asistencia al conductor manos libres funcione en más de 3.5 millones de millas de carreteras mapeadas en los Estados Unidos y Canadá, expandiendo sustancialmente la cobertura de conducción asistida de Rivian.

Paralelismos estratégicos en el sector automotriz y tecnológico

La decisión de Rivian de construir su propio silicio la sitúa junto a empresas que han seguido la integración vertical como estrategia competitiva. Tesla ha desarrollado durante mucho tiempo sus propios procesadores de conducción totalmente autónoma, trabajando con Samsung y TSMC para la fabricación, con el fin de adaptar el rendimiento de la computación a su pila de software.

Los fabricantes de automóviles chinos como BYD, XPeng y Nio también han introducido chips y plataformas de autonomía patentadas, en algunos casos explorando si podrían licenciar esa tecnología a otros fabricantes. Estos movimientos reflejan una tendencia más amplia en la industria hacia el control sobre los componentes principales de la computación a medida que la autonomía se vuelve más central para la diferenciación de productos.

Fuera del sector automotriz, el cambio de Apple hacia el silicio personalizado en sus dispositivos de consumo a pesar de la disponibilidad de procesadores capaces de Intel y Qualcomm proporciona un paralelismo. Al diseñar chips adaptados a los objetivos de software y productos de la compañía, Apple obtuvo ventajas en rendimiento, eficiencia energética y integración de productos. La estrategia de Rivian parece aplicar el mismo principio a la conducción autónoma, tratando la capa de computación como propiedad intelectual estratégica en lugar de una mercancía.

Rivian espera que los vehículos equipados con su hardware y software de autonomía personalizados comiencen a producirse a finales de 2026, con actualizaciones continuas tanto de las funciones manos libres como de las funciones de autonomía de nivel superior en los años siguientes.

diciembre 16, 2025 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Newer Posts
Older Posts
  • Aviso Legal
  • Política de Cookies
  • Términos y Condiciones
  • Política de Privacidad
  • CONTACTO
  • Política de Correcciones
  • Equipo Editorial
  • Política Editorial
  • SOBRE NOTIULTI

El servicio de alojamiento web más recomendado. Para quejas, abusos o publicidad, contacte: admin@notiulti.com


Back To Top
Notiulti
  • Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología