Investigadores de OpenAI, Google Brain, Intel y otras 28 organizaciones líderes han publicado un documento que propone una "caja de herramientas" para verificar las afirmaciones de ética de IA.
Con las preocupaciones en torno a la IA que van desde la indiferencia peligrosa hasta el alarmismo que detiene la innovación; Está claro que existe la necesidad de un sistema para lograr un equilibrio saludable.
"Los sistemas de inteligencia artificial se han desarrollado de manera inconsistente con los valores establecidos de quienes los desarrollan", escribieron los investigadores. "Esto ha llevado a un aumento de la preocupación, la investigación y el activismo en relación con los impactos de los sistemas de inteligencia artificial".
Los investigadores señalan que muchos actores involucrados en el desarrollo de IA han realizado un trabajo significativo para articular principios éticos, pero las afirmaciones no tienen sentido sin alguna forma de verificarlas.
"Las personas que se suben a los aviones no confían en el fabricante de una aerolínea debido a sus campañas de relaciones públicas sobre la importancia de la seguridad; confían en él debido a la infraestructura de tecnologías, normas, leyes e instituciones que lo acompañan para garantizar la seguridad de la aerolínea".
Entre las ideas centrales presentadas se encuentra pagar a los desarrolladores por descubrir sesgos en los algoritmos. Tal práctica ya está muy extendida en ciberseguridad; con muchas compañías que ofrecen recompensas para encontrar errores en su software.
"Los sesgos y las recompensas de seguridad ampliarían el concepto de recompensas de errores a la IA y podrían complementar los esfuerzos existentes para documentar mejor los conjuntos de datos y modelos para sus limitaciones de rendimiento y otras propiedades", escribieron los autores.
"Nos centramos aquí en las recompensas por descubrir sesgos y problemas de seguridad en los sistemas de IA como punto de partida para el análisis y la experimentación, pero tenga en cuenta que las recompensas por otras propiedades (como seguridad, protección de la privacidad o interpretabilidad) también podrían explorarse".
Otra vía potencial es la llamada "formación de equipos rojos", la creación de un equipo dedicado que adopta la mentalidad de un posible atacante para encontrar fallas y vulnerabilidades en un plan, organización o sistema técnico.
"El conocimiento de que un laboratorio tiene un equipo rojo puede mejorar potencialmente la confiabilidad de una organización con respecto a sus reclamos de seguridad".
Es poco probable que un equipo rojo solo dé demasiada confianza; pero combinado con otras medidas puede recorrer un largo camino. La verificación por parte de terceros fuera de una organización en sí será clave para infundir confianza en los desarrollos de inteligencia artificial de esa compañía.
"La auditoría de terceros es una forma de auditoría realizada por un auditor externo e independiente, en lugar de la organización que está siendo auditada, y puede ayudar a abordar las preocupaciones sobre los incentivos para la precisión en la autoinforme".
"Siempre que tengan suficiente información sobre las actividades de un sistema de IA, los auditores independientes con fuertes incentivos profesionales y de reputación para la veracidad pueden ayudar a verificar las afirmaciones sobre el desarrollo de la IA".
Los investigadores destacan que un obstáculo actual con la auditoría de terceros es que aún no se han establecido técnicas o mejores prácticas específicamente para la IA. Los marcos de trabajo, como las reclamaciones-argumentos-evidencia (CAE) y la notación de estructuración de objetivos (GSN), pueden proporcionar un punto de partida, ya que ya se utilizan ampliamente para auditorías críticas para la seguridad.
Las auditorías, que cubren todos los pasos del proceso de desarrollo de IA, también se recomiendan para convertirse en la norma. Los investigadores nuevamente señalan a los aviones comerciales, como un sistema crítico para la seguridad, y su uso de registradores de datos de vuelo para capturar múltiples tipos de datos cada segundo y proporcionar un registro completo.
"Los organismos de establecimiento de normas deberían trabajar con la academia y la industria para desarrollar requisitos de seguimiento de auditoría para aplicaciones críticas de seguridad de los sistemas de IA".
La sugerencia final para los métodos orientados al software para verificar las afirmaciones de ética de AI es el uso del aprendizaje automático que preserva la privacidad (PPML).
El aprendizaje automático para preservar la privacidad tiene como objetivo proteger la privacidad de los datos o modelos utilizados en el aprendizaje automático, en el momento de la capacitación o evaluación, y durante la implementación.
El documento cubre tres tipos establecidos de PPML: aprendizaje federado, privacidad diferencial y computación cifrada.
"Donde sea posible, los desarrolladores de IA deberían contribuir, usar y apoyar el trabajo de las comunidades de código abierto que trabajan en PPML, como OpenMined, Microsoft SEAL, tf-encrypted, tf-federated y nGraph-HE".
Los investigadores, que representan a algunas de las instituciones más reconocidas del mundo, han ideado un paquete integral de formas en que cualquier organización involucrada en el desarrollo de IA puede garantizar la gobernanza y el público en general para garantizar que la industria pueda alcanzar su máximo potencial de manera responsable.
Puede encontrar el papel de preimpresión completo en arXiv aquí (PDF)
(Foto de Alexander Sinn en Unsplash)
¿Interesado en escuchar a los líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…