• Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología
Notiulti
Noticias Ultimas
Inicio » AI safety
Tag:

AI safety

Tecnología

IA Evolucionable: El Inicio de una Nueva Era Tecnológica

by Editor de Tecnologia mayo 1, 2026
written by Editor de Tecnologia

El concepto de la Inteligencia Artificial evolucionable (Evolvable AI) está emergiendo como un punto de inflexión que podría transformar radicalmente el desarrollo tecnológico.

De acuerdo con información de The Brighter Side of News, la IA evolucionable tiene el potencial de impulsar la tecnología hacia una nueva fase de evolución.

Esta perspectiva coincide con el debate planteado por The Conversation, donde se analiza si nos encontramos actualmente al borde de una transición evolutiva mayor impulsada por estos avances en inteligencia artificial.

mayo 1, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

IA Segura: Experto Israelí en Panel de la ONU

by Editor de Tecnologia febrero 24, 2026
written by Editor de Tecnologia

Lior Rokach, científico informático israelí y miembro de un panel de élite de las Naciones Unidas sobre inteligencia artificial, planea centrarse en evitar que esta tecnología se salga de control.

“Haré hincapié en el campo de la seguridad de la IA y en cómo garantizar que la IA opere de acuerdo con su diseño, y en cómo desarrollar un sistema de control que prevenga los daños no deseados que la IA pueda causar a los humanos”, declaró el profesor de la Universidad Ben-Gurion del Néguev a JNS.

Rokach es uno de los 40 expertos recomendados por António Guterres, secretario general de la ONU, y aprobados por la Asamblea General de la ONU para formar parte del Panel Científico Internacional Independiente sobre Inteligencia Artificial, que las Naciones Unidas señala como el “primer organismo científico mundial” sobre el tema.

El panel fue establecido a través de una resolución de la Asamblea General de la ONU.

Garantizar que la inteligencia artificial siga siendo segura implica tanto cosas aparentemente simples, como asegurarse de que un usuario que cargue un historial médico electrónico reciba la recomendación de medicación correcta, como tareas más difíciles, como contrarrestar el hacking, según Rokach.

Los modelos de inteligencia artificial, como ChatGPT, Claude y Gemini, tienen “barandillas” para evitar que respondan a preguntas problemáticas, pero es muy fácil sortearlas, dijo Rokach a JNS.

“Esta herramienta en manos de las personas equivocadas será un problema muy grande”, afirmó. La inteligencia artificial puede utilizarse para actividades terroristas y delitos cibernéticos, añadió.

El nativo de Holon, quien anteriormente presidió el departamento de software y sistemas de información de Ben-Gurion, es cofundador de cuatro empresas de inteligencia artificial y posee más de 20 patentes, incluidas las relacionadas con la inteligencia artificial. Fue seleccionado entre unos 2.600 solicitantes de 140 países.

Contó a JNS que el Ministerio de Asuntos Exteriores israelí le llamó la atención sobre la convocatoria de expertos y “enfatizó por qué era importante presentar la solicitud, incluso si la ONU e Israel han tenido algunas fricciones últimamente”.

Técnicamente, él y sus compañeros panelistas no representan a sus países, dijo. Guterres ha afirmado que los panelistas “servirán en su capacidad personal, independientemente de cualquier gobierno, empresa o institución”.

“Soy israelí, pero no soy un candidato que provenga del gobierno israelí”, dijo Rokach a JNS. “De hecho, la ONU incluso enfatizó el hecho de que no soy representante del Estado israelí”.

Pero es fundamental que el Estado judío tenga un lugar en el foro, según Rokach.

“Israel está bendecido con un capital humano excepcional en este campo, pero seguimos siendo un país pequeño en el sentido de competir por masivos recursos informáticos, que solo países grandes como Estados Unidos y China realmente incorporan”, dijo.

Se indica que dos panelistas son de Estados Unidos y un tercero, que enseña en la Universidad Carnegie Mellon en Pittsburgh, es “iraní”.

Guterres dijo que se espera que el panel publique su primer informe en julio, un plazo aparentemente ambicioso. Rokach dijo a JNS que el panel se reunirá por primera vez esta semana por Zoom, y su primera reunión presencial está programada para junio.

El panel tiene como objetivo proporcionar tanto una evaluación académica de la inteligencia artificial como monitorear el campo en tiempo real y “plantear señales de alerta de manera oportuna”, dijo Rokach a JNS.

Si bien el profesor se centra en la seguridad, otros panelistas se ocuparán de temas como el impacto de la inteligencia artificial en el mercado laboral y la educación, garantizando que cualquier desarrollo de la IA sea sostenible y una variedad de otros sectores.

“Lo bueno es que el grupo de expertos proviene de diferentes campos. Hay varios de las ciencias de la computación como yo, pero también otros expertos de la filosofía, el derecho y la física”, dijo Rokach a JNS. “Obtendremos una perspectiva muy interesante sobre este campo”.

La publicación Importante que Israel esté en el panel de las Naciones Unidas sobre inteligencia artificial, dice el profesor de Ben-Gurion apareció primero en JNS.org.

febrero 24, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

GitHub Agentic Workflows: Automatización con IA en tus repositorios

by Editor de Tecnologia febrero 16, 2026
written by Editor de Tecnologia

GitHub ha lanzado una vista previa técnica de Agentic Workflows, un proyecto de código abierto de GitHub Next que ejecuta automatización basada en intenciones dentro de los repositorios utilizando GitHub Actions y agentes de codificación.

Este proyecto está dirigido a tareas recurrentes que aún requieren juicio humano, como la clasificación de incidencias, la investigación de fallos en la integración continua, la corrección de la deriva de la documentación y el mantenimiento de la higiene del código. Los flujos de trabajo se escriben en Markdown plano y se ejecutan dentro de GitHub Actions.

Cómo funciona

Agentic Workflows se ejecutan junto con los GitHub Actions existentes. Un mantenedor del repositorio escribe un archivo Markdown que describe el resultado deseado y luego ejecuta el flujo de trabajo según un calendario o mediante un disparador manual.

Dependiendo de la configuración, los flujos de trabajo pueden utilizar diferentes motores de agentes de codificación, incluyendo Copilot CLI, Claude Code y OpenAI Codex. GitHub Actions sirve como la capa de ejecución, proporcionando registro, auditoría y acceso al contexto del repositorio.

Cada flujo de trabajo incluye configuración para disparadores, permisos, herramientas y salidas permitidas. Las instrucciones del agente residen en Markdown y un archivo de bloqueo se utiliza para la ejecución dentro de GitHub Actions.

Medidas de seguridad

GitHub Next ha convertido las medidas de seguridad en un requisito fundamental para ejecutar agentes de forma continua en los repositorios. Los flujos de trabajo tienen permisos de solo lectura por defecto. Cualquier operación de escritura requiere una aprobación explícita a través de lo que GitHub denomina «salidas seguras».

Las salidas seguras se asignan a operaciones preaprobadas de GitHub, como la creación de una solicitud de extracción o la adición de un comentario a una incidencia. El diseño también incluye ejecución en sandbox, listas blancas de herramientas y aislamiento de red. GitHub Next posiciona estas medidas como protecciones contra comportamientos no deseados y la inyección de prompts.

El equipo contrastó este enfoque con la ejecución directa de herramientas de línea de comandos de agentes de codificación dentro de los flujos de trabajo YAML estándar de GitHub Actions. Argumenta que la ejecución directa puede otorgar permisos más amplios de los necesarios para una tarea, mientras que Agentic Workflows impone restricciones más estrictas y puntos de revisión más claros.

Informe del repositorio

Un ejemplo de flujo de trabajo genera un informe de estado diario para los mantenedores. Recopila la actividad reciente en incidencias, solicitudes de extracción, debates, lanzamientos y cambios de código, y luego produce recomendaciones y próximos pasos con enlaces a hilos relevantes.

El ejemplo se ejecuta según un calendario con acceso de lectura al contenido del repositorio, las incidencias y las solicitudes de extracción. Utiliza salidas seguras que le permiten crear una incidencia de GitHub con un prefijo y etiquetas específicos.

Primeros usuarios

GitHub Next afirma haber utilizado Agentic Workflows internamente en un programa intensivo de «dogfooding». El equipo construyó el proyecto en Go a pesar de tener una experiencia previa limitada, y luego creó un flujo de trabajo diario llamado «go-fan» para proporcionar retroalimentación continua sobre el código y el sistema.

GitHub también ha destacado el uso por parte de mantenedores de código abierto y empresas. Frenck Nijhof, mantenedor y ingeniero principal de Home Assistant, ha utilizado los flujos de trabajo para el análisis a gran escala de incidencias en todo el proyecto. Lo describió como una «amplificación del juicio que realmente ayuda a los mantenedores».

Carvana está utilizando Agentic Workflows en múltiples repositorios, según GitHub. Su liderazgo de ingeniería citó los controles y la adaptabilidad como razones clave para implementar la herramienta de forma más amplia en su base de código.

Alex Devkard, SVP de Ingeniería y Analítica de Carvana, afirma que la «flexibilidad y los controles integrados» son lo que le dan la confianza para implementar Agentic Workflows en sus sistemas complejos, y la empresa ya los está utilizando en varios repositorios.

Inteligencia Artificial Continua

GitHub Next vincula el proyecto a un esfuerzo de investigación más amplio que denomina Continuous AI. El concepto sitúa las tareas impulsadas por la IA en un ciclo continuo dentro del ciclo de vida del desarrollo de software, distinto de las canalizaciones de compilación, prueba y lanzamiento.

GitHub afirma que Agentic Workflows complementan la CI/CD existente en lugar de reemplazarla. Distingue los flujos de trabajo deterministas, como las compilaciones y las ejecuciones de pruebas, del trabajo más subjetivo que los mantenedores aún manejan manualmente, incluyendo la clasificación y las mejoras continuas de la calidad.

GitHub también señala que la ejecución de agentes de codificación puede generar costos de facturación. Para Copilot con la configuración predeterminada, dice que una ejecución típica incurre en dos solicitudes premium: una para el trabajo del agente y otra para una verificación de guardrail a través de salidas seguras.

GitHub Next describe la vista previa técnica como parte de un trabajo más amplio para gestionar el aumento del volumen de contribuciones y tareas de mantenimiento en lo que denomina la era de la IA, y se espera una mayor experimentación a medida que los equipos prueben cómo los flujos de trabajo continuos impulsados por agentes se ajustan a sus prácticas de repositorio.

febrero 16, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Tecnología

Dimite jefe de seguridad de Anthropic: Revela razones en carta

by Editor de Tecnologia febrero 10, 2026
written by Editor de Tecnologia

Mrinank Sharma, director del equipo de investigación de salvaguardias de Anthropic, ha presentado su renuncia. Sharma compartió una extensa nota de renuncia en X, anteriormente Twitter, donde anunció que hoy, 9 de febrero, es su último día en la compañía. “Hoy es mi último día en Anthropic. He renunciado. Aquí está la carta que compartí con mis colegas, explicando mi decisión”, escribió Sharma en su publicación.

Anthropic anunció su ‘Equipo de Investigación de Salvaguardias’ en febrero de 2025. En una publicación de blog, la empresa explicó que, tras el lanzamiento de los Clasificadores Constitucionales, estaban entusiasmados de anunciar este nuevo equipo. Se enfocarán en temas como la robustez ante ataques de jailbreak, el red teaming automatizado y el desarrollo de técnicas de monitoreo efectivas, tanto para el uso indebido como para la desalineación de los modelos.

El equipo está actualmente liderado por Mrinank Sharma, y sus miembros son Erik Jones, Meg Tong, Jerry Wei, Euan Ong, Alwin Peng, Ted Sumers, Taesung Lee, Giulio Zhou y Scott Goodfriend.

En la extensa nota dirigida a sus colegas en Anthropic, Sharma compartió su trayectoria en la empresa. “Llegué a San Francisco hace dos años, después de terminar mi doctorado y con el deseo de contribuir a la seguridad de la IA”, escribió. La carta también aborda el dilema que parece enfrentar y que pudo haber desencadenado su decisión de dejar la compañía. Aquí está la carta de renuncia compartida por Mrinank:

Estimados colegas,

He decidido dejar Anthropic. Mi último día será el 9 de febrero.

Gracias. Hay mucho aquí que me inspira y ha inspirado. Por mencionar algunas cosas: un deseo y una motivación sinceros para afrontar una situación tan desafiante y aspirar a contribuir de manera impactante y con alta integridad; la voluntad de tomar decisiones difíciles y defender lo que es bueno; una cantidad irrazonable de brillantez e ingenio intelectual; y, por supuesto, la considerable amabilidad que impregna nuestra cultura.


He logrado lo que quería aquí. Llegué a San Francisco hace dos años, después de terminar mi doctorado y con el deseo de contribuir a la seguridad de la IA. Me siento afortunado de haber podido contribuir a lo que tengo aquí: comprender la servilidad de la IA y sus causas; desarrollar defensas para reducir los riesgos del bioterrorismo asistido por la IA; poner esas defensas en producción; y escribir uno de los primeros casos de seguridad de la IA. Estoy especialmente orgulloso de mis recientes esfuerzos para ayudarnos a vivir nuestros valores a través de mecanismos de transparencia interna; y también de mi proyecto final sobre cómo los asistentes de IA podrían hacernos menos humanos o distorsionar nuestra humanidad. Gracias por su confianza.


Sin embargo, me queda claro que ha llegado el momento de seguir adelante. Constantemente me encuentro reflexionando sobre nuestra situación. El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento. Parece que nos estamos acercando a un umbral donde nuestra sabiduría debe crecer a la par de nuestra capacidad para afectar al mundo, para no enfrentar las consecuencias. Además, a lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores realmente gobiernen nuestras acciones. He visto esto dentro de mí mismo, dentro de la organización, donde constantemente nos enfrentamos a presiones para dejar de lado lo que más importa, y en toda la sociedad también.


Es al sostener esta situación y escuchar lo mejor que puedo que lo que debo hacer se vuelve claro. Quiero contribuir de una manera que se sienta plenamente en línea con mi integridad, y que me permita aportar más de mis particularidades. Quiero explorar las preguntas que me parecen verdaderamente esenciales, las preguntas que David Whyte diría que «no tienen derecho a desaparecer», las preguntas que Rilke nos insta a «vivir». Para mí, esto significa irme.


No sé qué vendrá después. Pienso con cariño en la famosa cita zen «no saber es lo más íntimo». Mi intención es crear un espacio para dejar de lado las estructuras que me han sostenido en estos últimos años y ver qué podría surgir en su ausencia. Me siento llamado a escribir que aborde y se involucre plenamente con el lugar en el que nos encontramos, y que coloque la verdad poética junto a la verdad científica como formas igualmente válidas de conocimiento, ambas de las cuales creo que tienen algo esencial que contribuir al desarrollo de nuevas tecnologías. Espero explorar un título en poesía y dedicarme a la práctica del discurso valiente. También estoy emocionado de profundizar en mi práctica de facilitación, coaching, construcción de comunidad y trabajo en grupo. Veremos qué sucede.


Gracias y adiós. He aprendido mucho al estar aquí y les deseo lo mejor. Les dejo con uno de mis poemas favoritos, The Way It Is de William Stafford.


Buena suerte, Mrinank






febrero 10, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
Mundo

Científico IA EEUU a Londres por Visa Denegada

by Editor de Mundo enero 29, 2026
written by Editor de Mundo

Un destacado científico en investigación de inteligencia artificial (IA) de Meta fue impedido de reingresar a Estados Unidos tras un viaje para visitar a familiares y amigos en China. A pesar de haber vivido y trabajado legalmente en el país durante siete años y poseer un doctorado de la Universidad Carnegie Mellon, el sello de su visa O-1, destinada a personas con “habilidades extraordinarias”, fue rechazado al intentar regresar.

Zifan Wang, el científico afectado, describió la situación en redes sociales como “inesperada y una locura”, señalando que era un investigador establecido en Estados Unidos.

Debido a la imposibilidad de regresar a EE. UU., Wang anunció que se mudará de San Francisco a Londres para continuar su trabajo. Expresó su deseo de seguir contribuyendo al campo de la IA, manifestando que espera “chatear con personas aquí [en Londres] que trabajen en IA y seguridad de la IA”.

«¡Me mudo de San Francisco a Londres! Espero chatear con personas aquí que trabajen en IA y seguridad de la IA. Cuando visité a mi familia y amigos en China el mes pasado, me negaron el sello de mi visa O1 para reingresar, por lo que no es posible que regrese a EE. UU. inmediatamente después de mi viaje, lo cual fue inesperado y una locura. He estado estudiando y trabajando en EE. UU. durante unos 7 años», escribió en su publicación.

Vea el tuit aquí:

I am moving from SF to London! Looking forward to chatting with people here working on AI and AI safety 😏.

When I visited my family and friends in China last month, my O1 visa stamp for re-entrance was denied so it is not possible for me to return US immediately after my trip,…

— Zifan (Sail) Wang (@_zifan_wang) January 27, 2026

Reacción en Redes Sociales

El anuncio de Wang provocó un debate en línea sobre el sistema de inmigración estadounidense, con la mayoría de los comentarios en su publicación sugiriendo que Estados Unidos perdería un talento valioso, mientras que el Reino Unido se beneficiaría.

Un usuario reaccionó al tuit diciendo: «Londres es una gran ciudad. La pasé muy bien cuando viví allí: tantos parques, museos, Wimbledon, Lords, etc. Espero que regreses a Estados Unidos pronto. Pero disfruta tu tiempo en Londres».

Otro comentó: «Moverse de Estados Unidos al Reino Unido porque le negamos la reentrada con su visa. Nos estamos desangrando de cerebros».

Un tercero expresó: «Te extrañaremos, Sail, pero Londres ha ganado un nuevo residente formidable».

«Bienvenido a Londres… no trabajo en seguridad de la IA, pero soy parte de un grupo de emprendedores que sí lo hacen si estás buscando una nueva comunidad», añadió un cuarto usuario.

enero 29, 2026 0 comments
0 FacebookTwitterPinterestLinkedinEmail
  • Aviso Legal
  • Política de Cookies
  • Términos y Condiciones
  • Política de Privacidad
  • CONTACTO
  • Política de Correcciones
  • Equipo Editorial
  • Política Editorial
  • SOBRE NOTIULTI

El servicio de alojamiento web más recomendado. Para quejas, abusos o publicidad, contacte: admin@notiulti.com


Back To Top
Notiulti
  • Deportes
  • Entretenimiento
  • Mundo
  • Negocio
  • Noticias
  • Salud
  • Tecnología