Centrarse en proteger los datos para el desarrollo de IA

Microsoft Build adquirió una sensación diferente este año debido a su formato digital como resultado de la crisis de Covid-19. Pero el programa no tuvo pocas novedades, especialmente en inteligencia artificial (IA), privacidad y aprendizaje automático responsable, que tomó el centro del escenario.

Gran parte de la narrativa existente sobre IA responsable se centra en áreas de alto nivel como la ética, la política y el establecimiento de principios para la tecnología. Estos son importantes, pero a menudo demasiado abstractos para tener relevancia en el mundo real o proporcionar pautas operativas para los desarrolladores.

Por el contrario, Build vio un enfoque mucho más profundo en el Herramientas y prácticas técnicas para ayudar a los profesionales de la IA. Desarrolle e implemente el aprendizaje automático de manera responsable desde el principio. Los movimientos en esta área forman parte de un impulso más amplio de Microsoft hacia la IA responsable este año y, en particular, las herramientas para permitir un gobierno efectivo de las aplicaciones y procesos de aprendizaje automático.

Echemos un vistazo más de cerca a algunos de los anuncios clave y las herramientas que Microsoft ha desarrollado para una IA responsable. Tienen implicaciones vitales para las empresas y la industria en los próximos 12 meses.

La IA responsable es una combinación de principios, prácticas y herramientas que permiten a las empresas implementar tecnologías de IA en sus organizaciones de manera ética, transparente, segura y responsable.

El área ha estado recibiendo mucha atención recientemente, ya que más tomadores de decisiones consideran la introducción de datos y soluciones de inteligencia artificial en áreas críticas y reguladas como misión, finanzas, seguridad, transporte y atención médica. Además, aumentan las preocupaciones sobre el uso ético de la IA, los riesgos inherentes a los datos sesgados y la falta de interpretación en la tecnología, así como el potencial de actividad maliciosa, como los ataques adversos.

Por estas razones, la gobernanza de los modelos de aprendizaje automático se ha convertido en una prioridad para las empresas que invierten en dichos sistemas. Una encuesta de tomadores de decisiones de TI senior en 2019 realizada por mi empresa, CCS Insight, indicó que los dos requisitos más importantes al invertir en inteligencia artificial y tecnología de aprendizaje automático eran el nivel de transparencia de cómo funcionan y se capacitan los sistemas, y la capacidad de los sistemas de inteligencia artificial para garantizar la seguridad y la privacidad de los datos. Estos dos requisitos fueron citados por casi el 50% de los encuestados.

Una de las principales áreas expuestas en Build este año fue la creciente cartera de herramientas de Microsoft disponibles en código abierto, Azure y pronto integradas de forma nativa en Azure Machine Learning, que ayudan a los científicos de datos, ingenieros de aprendizaje automático y desarrolladores a obtener Experiencia práctica de IA responsable.

La compañía global se centra en generar confianza y transparencia en todo el ciclo de vida del aprendizaje automático, desde la adquisición de datos hasta el modelado y la implementación. Sus herramientas se centran en tres áreas principales: proteger, controlar y comprender, que vieron varios anuncios importantes.

Esta área aborda escenarios en el aprendizaje automático que implican información confidencial o requisitos de privacidad, como el uso de datos personales de salud o censos. Las capacidades de seguridad de datos, privacidad y cumplimiento de la nube de Azure son fundamentales para los esfuerzos de Microsoft, junto con Azure Machine Learning, su plataforma para la operacionalización de la tecnología, desde la capacitación hasta la implementación y el monitoreo.

Uno de los movimientos notables en Build se centró en esta área, y específicamente en la privacidad diferencial. Privacidad diferencial es una clase de algoritmos que facilitan la computación y el análisis estadístico de datos personales sensibles al tiempo que aseguran que la privacidad de las personas no se vea comprometida. Microsoft presentó WhiteNoise, una biblioteca de algoritmos de código abierto que permite el aprendizaje automático en datos privados y confidenciales.

Como una de las garantías más sólidas de privacidad disponibles, actualmente se están adoptando algoritmos de privacidad diferenciales en varias áreas. La Oficina del Censo de los EE. UU. Los utiliza para analizar información demográfica y Apple, Google y Microsoft emplean la tecnología para analizar el comportamiento de los usuarios en sus sistemas operativos.

El año pasado, Microsoft se asoció con el Instituto de Ciencias Sociales Cuantitativas de la Universidad de Harvard para desarrollar una plataforma de código abierto para compartir datos privados con privacidad diferencial para atraer a más investigadores al campo. Sin embargo, la adopción generalizada en las empresas es mínima, pero con el lanzamiento de WhiteNoise, Microsoft apunta a que más organizaciones comiencen a usar los algoritmos para el aprendizaje automático en datos confidenciales.

Otro anuncio importante fue la presentación de esfuerzos para apoyar el aprendizaje automático confidencial, que llegará a los clientes a finales de este año. Permite la construcción de modelos en un entorno seguro donde los datos son confidenciales y nadie puede verlos ni acceder a ellos, incluido el equipo de ciencia de datos. Todos los activos de aprendizaje automático, incluidas las entradas, los modelos y los derivados, se mantienen confidenciales.

La capacidad se suma al enfoque de Microsoft para construir modelos sobre datos encriptados después de su lanzamiento en código abierto en 2018 de Simple Encrypted Arithmetic Library (SEAL), un conjunto de bibliotecas encriptadas que permiten que los cálculos se realicen directamente en datos encriptados usando encriptación homomórfica.

Nicholas McQuire es vicepresidente senior y jefe de investigación empresarial y de inteligencia artificial en CCS Insight.

Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *