Microsoft está recortando funciones de la IA en nombre de la justicia

Microsoft le pide que solicite el uso del reconocimiento facial, lo que, junto con una serie de restricciones en la funcionalidad, hará que el uso de Azure Face API sea más ético. Microsoft está escribiendo una entrada de blog que los cambios son para asegurar un uso responsable e inclusivo. ZDNet escribe que los cambios entraron en vigencia el 21 de junio.

Los nuevos usuarios deben solicitar el acceso

Microsoft escribe en el blog que están realizando los nuevos cambios para enfatizar su compromiso con el uso ético de la inteligencia artificial. Como parte del compromiso de Microsoft, ahora refuerzan el uso del reconocimiento facial y exigen aplicaciones para que los usuarios accedan a la herramienta de reconocimiento facial de Azure. Quienes ya usan la herramienta tienen acceso por un año más, pero deben postularse para seguir usando la herramienta

Elimina las características de género y apariencia.

Es cierto que no solo el control de acceso se encuentra entre los cambios de Microsoft. La compañía también elimina funciones de Azure Face AI para garantizar que Ai no discrimine.
Entre las características que se pierden está el reconocimiento de signos que digan algo sobre emociones o identidad. La inteligencia artificial ya no reconoce género, edad, sonrisa, vello facial, cabello y maquillaje.


Microsoft escribe en el blog que han realizado evaluaciones junto con externos para encontrar fortalezas y debilidades al realizar los cambios. Escriben que hay definiciones vagas de emociones, y que también tiene mucho que ver con la cultura, la religión y la demografía. Así, podrán asegurarse de que nadie sea discriminado como resultado de la IA de Microsoft. Las funciones dejarán de funcionar el 30 de junio de 2023 para aquellos que eran clientes antes de que Microsoft anunciara los cambios el 21 de junio.

Herramienta de evaluación para encontrar fortalezas y debilidades

Además de limitar la funcionalidad y el acceso a la IA, Microsoft también ha creado herramientas de evaluación que los clientes pueden usar. Estas herramientas permiten a los clientes de Microsoft evaluar cómo funcionan los modelos de inteligencia artificial en comparación con los propios datos del cliente. Además, Microsoft agregó soporte para Fairlearn, que es una herramienta de código abierto que podrá identificar problemas injustos en la tecnología desarrollada donde se usa la inteligencia artificial de Microsoft.

La empresa también ha escrito uno entrada de blog larga en su nuevo estándar responsable para la inteligencia artificial. Aquí, Microsoft escribe, entre otras cosas, que la justicia, la confiabilidad, la privacidad y la inclusión se encuentran entre los puntos más importantes que han establecido cuando trabajen con inteligencia artificial en el futuro. La consistencia para todo es una transparencia en todo lo que hacen.


Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.