Home NegocioElon Musk y Geoffrey Hinton alertan sobre los riesgos de la IA

Elon Musk y Geoffrey Hinton alertan sobre los riesgos de la IA

by Editora de Negocio

Elon Musk vislumbra una visión ambiciosa de la vida con la inteligencia artificial (IA): la tecnología automatizará todos los empleos, mientras que una “renta básica universal elevada” permitiría el acceso teórico a una abundancia de bienes y servicios. De concretarse el ambicioso plan de Musk, se desencadenaría, por supuesto, una profunda reflexión existencial.

“La verdadera cuestión será la del sentido”, afirmó Musk en la conferencia Viva Technology en mayo de 2024. “Si una computadora –y los robots– pueden hacer todo mejor que tú… ¿tiene tu vida algún significado?”

Sin embargo, la mayoría de los líderes de la industria no se plantean esta pregunta sobre el futuro de la IA, según Geoffrey Hinton, laureado con el Premio Nobel y considerado el “padrino de la IA”. Según Hinton, al desarrollar la IA, las grandes empresas tecnológicas están menos interesadas en las consecuencias a largo plazo de la tecnología y más preocupadas por obtener resultados rápidos.

“Para los propietarios de las empresas, lo que impulsa la investigación son los beneficios a corto plazo”, declaró Hinton, profesor emérito de ciencias de la computación en la Universidad de Toronto, a la revista Fortune.

Y para los desarrolladores detrás de la tecnología, añadió Hinton, el enfoque se centra igualmente en el trabajo inmediato que tienen entre manos, y no en el resultado final de la investigación.

“Los investigadores están interesados en resolver problemas que despiertan su curiosidad. No partimos del mismo objetivo de cuál será el futuro de la humanidad”, explicó Hinton.

“Tenemos objetivos más concretos, como cómo crearla o cómo hacer que una computadora sea capaz de reconocer objetos en imágenes. ¿Cómo hacer que una computadora sea capaz de generar videos convincentes?”, agregó. “Eso es lo que realmente impulsa la investigación.”

leer más  O’Neills: Beneficios récord por ventas de camisetas de hurling y fútbol gaélico

Hinton ha advertido desde hace tiempo sobre los peligros de una IA sin salvaguardias ni evolución intencionada, estimando una probabilidad del 10% al 20% de que la tecnología acabe con la humanidad tras el desarrollo de la superinteligencia.

En 2023, diez años después de vender su empresa de redes neuronales DNNresearch a Google, Hinton renunció a su cargo en la gigante tecnológica, queriendo poder hablar libremente sobre los peligros de la tecnología y temiendo la incapacidad de “impedir que los actores maliciosos la utilicen para fines nefastos”.

¿Cuáles son los riesgos de una IA no regulada?

Para Hinton, los peligros de la IA se dividen en dos categorías: el riesgo que la propia tecnología plantea para el futuro de la humanidad y las consecuencias de que la IA sea manipulada por personas con malas intenciones.

“Existe una gran diferencia entre dos tipos de riesgo”, afirmó. “Existe el riesgo de que actores maliciosos abusen de la IA, y eso ya está aquí. Ya está sucediendo con videos falsos y ciberataques, y podría ocurrir muy pronto con virus. Y eso es muy diferente del riesgo de que la IA se convierta ella misma en un actor malicioso.”

En noviembre de 2025, Anthropic anunció que había interrumpido “el primer caso documentado de un ciberataque a gran escala con IA ejecutado sin una intervención humana sustancial”, identificando a un grupo chino patrocinado por el estado que manipuló Claude Code en un intento de infiltrarse en alrededor de 30 empresas de tecnología, instituciones financieras, agencias gubernamentales y fabricantes de productos químicos, según informó la empresa de IA en una publicación de blog.

leer más  Entrenamiento Reservistas: Armamento, Equipamiento y Simulación G36/P8/MG3

Esta interrupción ha llevado a los expertos en ciberseguridad a creer que Irán podría utilizar la IA para llevar a cabo un ciberataque en gran medida automatizado contra Estados Unidos.

Más allá de abogar por una mayor regulación, el llamamiento a la acción de Hinton para abordar el potencial de la IA para hacer el mal es una batalla cuesta arriba porque cada problema con la tecnología requiere una solución discreta, según dijo. Visualiza una autenticación de tipo procedencia para videos e imágenes en el futuro que combata la propagación de los *deepfakes*.

Así como las imprentas añadieron nombres a sus obras tras la invención de la imprenta hace cientos de años, las fuentes de medios deberán encontrar una forma de añadir sus firmas a sus obras auténticas. Pero Hinton afirmó que las soluciones solo pueden llegar hasta cierto punto.

“Ese problema probablemente se puede resolver, pero la solución a ese problema no resuelve los demás”, dijo.

En cuanto al riesgo que plantea la propia IA, Hinton cree que las empresas tecnológicas deben cambiar fundamentalmente su visión de su relación con la IA. Cuando la IA alcance la superinteligencia, afirmó, no solo superará las capacidades humanas, sino que tendrá un fuerte deseo de sobrevivir y obtener más control. Por lo tanto, el marco actual en torno a la IA –que los humanos pueden controlar la tecnología– ya no será relevante.

Hinton plantea que los modelos de IA deben estar impregnados de un “instinto maternal” para que puedan tratar a los humanos menos poderosos con simpatía, en lugar de desear controlarlos.

Invocando ideales de feminidad tradicional, dijo que el único ejemplo que puede citar de un ser más inteligente sucumbiendo a la influencia de uno menos inteligente es un bebé controlando a una madre.

leer más  RV Eléctrico Evotrex: Autonomía y Carga para tu Camioneta Eléctrica

“Y por lo tanto, creo que ese es un mejor modelo que podríamos practicar con la IA superinteligente”, dijo Hinton. “Ellas serán las madres y nosotros los bebés.”

Una versión de esta historia fue publicada en Fortune.com el 15 de agosto de 2025.

Más sobre el futuro de la IA:

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.