ICO lanza orientación sobre IA y protección de datos

La Oficina del Comisionado de Información (ICO) ha publicado una página de 80 páginas. Guia documento para empresas y otras organizaciones sobre el uso de inteligencia artificial (IA) en línea con los principios de protección de datos.

La guía es la culminación de dos años de investigación y consulta por Rubén Binns, profesor asociado en el departamento de Ciencias de la Computación de la Universidad de Oxford, y el equipo de IA de ICO.

los Guia cubre lo que el ICO cree que es “la mejor práctica para la inteligencia artificial que cumple con la protección de datos, así como también cómo interpretamos la ley de protección de datos tal como se aplica a los sistemas de inteligencia artificial que procesan datos personales. La guía no es un código legal. Contiene consejos sobre cómo interpretar la ley relevante en su aplicación a la IA y recomendaciones sobre buenas prácticas para medidas organizativas y técnicas para mitigar los riesgos para las personas que la IA puede causar o exacerbar ”.

Busca proporcionar un marco para «auditar la inteligencia artificial, enfocándose en las mejores prácticas para el cumplimiento de la protección de datos, ya sea que diseñe su propio sistema de inteligencia artificial o implemente uno de un tercero».

Encarna, dice, “herramientas y procedimientos de auditoría que usaremos en auditorías e investigaciones; orientación detallada sobre IA y protección de datos; y un juego de herramientas diseñado para proporcionar más apoyo práctico a las organizaciones que auditan el cumplimiento de sus propios sistemas de IA «.

También es un documento interactivo que invita a una mayor comunicación con el ICO.

Se dice que esta guía está dirigida a dos audiencias: “aquellas con un enfoque de cumplimiento, como los oficiales de protección de datos (OPD), el asesor general, los gerentes de riesgos, la alta gerencia y los propios auditores de la OIC; y especialistas en tecnología, incluidos expertos en aprendizaje automático, científicos de datos, desarrolladores e ingenieros de software, y gerentes de seguridad informática y de riesgos de TI «.

Señala dos riesgos de seguridad que pueden ser exacerbados por la IA, a saber, la «pérdida o mal uso de las grandes cantidades de datos personales que a menudo se requieren para entrenar sistemas de IA; y vulnerabilidades de software que se introducirán como resultado de la introducción de nuevos códigos e infraestructura relacionados con la IA «.

Porque, como señala el documento de orientación, las prácticas estándar para desarrollar y desplegar IA implican, por necesidad, procesar grandes cantidades de datos. Por lo tanto, existe un riesgo inherente de que esto no cumpla con el principio de minimización de datos.

Esto, de acuerdo con el GDPR [the EU General Data Protection Regulation] según lo exagerado por el ex periodista de Computer Weekly Warwick Ashford, «Requiere que las organizaciones no retengan datos durante más tiempo del absolutamente necesario, y que no cambien el uso de los datos del propósito para el que fueron recopilados originalmente, mientras que, al mismo tiempo, deben eliminar cualquier dato en el solicitud del interesado«.

Si bien el documento de orientación señala que la protección de datos y la «ética de AI» se superponen, no busca «proporcionar principios genéricos de ética o diseño para su uso de AI».

AI para el ICO

¿Qué es la IA, a los ojos del ICO? «Usamos el término general» AI «porque se ha convertido en un término estándar de la industria para una gama de tecnologías. Un área prominente de la IA es aprendizaje automático, que es el uso de técnicas computacionales para crear modelos estadísticos (a menudo complejos) utilizando (típicamente) grandes cantidades de datos. Esos modelos se pueden usar para hacer clasificaciones o predicciones sobre nuevos puntos de datos. Si bien no toda la IA involucra el LD, la mayor parte del interés reciente en la IA es impulsado por el ML de alguna manera, ya sea en el reconocimiento de imágenes, la conversión de voz a texto o en la clasificación del riesgo crediticio.

«Por lo tanto, esta guía se centra en los desafíos de protección de datos que la IA basada en ML puede presentar, al tiempo que reconoce que otros tipos de IA pueden dar lugar a otros desafíos de protección de datos».

De particular interés para el ICO es el concepto de «explicabilidad» en IA. La guía continúa: “en colaboración con el Instituto Alan Turing, hemos producido una guía sobre cómo las organizaciones pueden explicar mejor su uso de la IA a las personas. Esto resultó en la Explicando las decisiones tomadas con IA orientación, que se publicó en mayo de 2020 «.

La guía contiene comentarios sobre la distinción entre un «controlador» y un «procesador». Dice que «las organizaciones que determinan los propósitos y los medios de procesamiento serán controladores independientemente de cómo se describan en cualquier contrato sobre servicios de procesamiento».

Esto podría ser potencialmente relevante para la controversia en torno a la participación de la empresa estadounidense de análisis de datos Palantir en el proyecto NHS Data Store, donde se ha subrayado en repetidas ocasiones que el proveedor es simplemente un procesador y no un controlador – cuál es el NHS en ese relación contractual.

Datos sesgados

La guía también analiza cuestiones como el sesgo en los conjuntos de datos que conducen a que los AI tomen decisiones sesgadas, y ofrece este consejo, entre otros indicadores: «En casos de datos de entrenamiento desequilibrados, es posible equilibrarlos agregando o eliminando datos sobre / subconjuntos sobrerrepresentados de la población (por ejemplo, agregar más puntos de datos sobre solicitudes de préstamos de mujeres).

«En los casos en que los datos de entrenamiento reflejen la discriminación pasada, puede modificar los datos, cambiar el proceso de aprendizaje o modificar el modelo después del entrenamiento».

Simon McDougall, comisionado adjunto de innovación regulatoria y tecnología en el ICO, dicho de la orientación: “Comprender cómo evaluar el cumplimiento de los principios de protección de datos puede ser un desafío en el contexto de la IA. Desde los riesgos de seguridad exacerbados, y a veces novedosos, que provienen del uso de sistemas de inteligencia artificial, hasta el potencial de discriminación y sesgo en los datos. Es difícil para los especialistas en tecnología y expertos en cumplimiento navegar su camino hacia sistemas de inteligencia artificial compatibles y viables.

“La guía contiene recomendaciones sobre las mejores prácticas y medidas técnicas que las organizaciones pueden usar para mitigar los riesgos causados ​​o exacerbados por el uso de esta tecnología. Refleja las prácticas actuales de IA y es prácticamente aplicable ”.

Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *