Los rápidos avances en IA requieren mantener altos estándares éticos, tanto por razones legales como morales.
Durante una sesión en AI & Big Data Expo Europe de este año, un panel de expertos brindó sus puntos de vista sobre lo que las empresas deben considerar antes de implementar inteligencia artificial.
Aquí hay una lista de los participantes del panel:
La primera pregunta requería reflexiones sobre las regulaciones actuales y futuras que afectan las implementaciones de IA. Como abogada, De Boel comenzó dando su opinión.
De Boel destaca la próxima Ley de IA de la UE, que se basa en los cimientos de una legislación similar, como el RGPD, pero la amplía para la inteligencia artificial.
“Creo que tiene sentido que la UE quiera regular la IA, y creo que tiene sentido que se centren en los sistemas de IA de mayor riesgo”, dice De Boel. “Solo tengo algunas preocupaciones”.
La primera preocupación de De Boel es cuán complejo será para abogados como ella.
“La Ley de IA crea muchas responsabilidades diferentes para diferentes jugadores. Hay proveedores de sistemas de IA, usuarios de sistemas de IA, importadores de sistemas de IA en la UE: todos tienen responsabilidades y los abogados tendrán que resolverlo”, explica De Boel.
La segunda preocupación es cuán costoso será todo esto para las empresas.
“Una preocupación que tengo es que todas estas responsabilidades van a ser una carga, muchos trámites burocráticos para las empresas. Eso va a ser costoso, costoso para las pymes y costoso para las nuevas empresas”.
Se plantearon preocupaciones similares sobre el RGPD. Los críticos argumentan que la regulación excesiva impulsa la innovación, la inversión y el empleo fuera de la eurozona y deja a países como EE. UU. y China a la cabeza.
Peter Wright, abogado y MD de Digital Law UK, le dijo una vez a AI News sobre GDPR: “Tienes tu startup de Silicon Valley que puede acceder a grandes cantidades de dinero de inversores, acceder a conocimientos especializados en el campo y no peleará con un brazo atado a la espalda como un competidor en Europa”.
Las preocupaciones planteadas por De Boel se hacen eco de Wright y es cierto que tendrá un mayor impacto en las nuevas empresas y las empresas más pequeñas que ya enfrentan una batalla cuesta arriba contra los titanes de la industria establecida.
La preocupación final de De Boel sobre el tema es sobre la aplicación y cómo la Ley de IA va incluso más allá de las sanciones estrictas de GDPR por infracciones.
“La ley de IA realmente copia la aplicación de GDPR pero establece multas aún más altas de 30 millones de euros o el seis por ciento de la facturación anual. Así que son multas realmente altas”, comenta De Boel.
“Y vemos con GDPR que cuando otorga este tipo de poderes, se usa”.
Fuera de Europa, se aplican leyes diferentes. En los EE. UU., las normas como las relativas al reconocimiento biométrico pueden variar mucho de un estado a otro. Mientras tanto, China introdujo recientemente una ley que requiere que las empresas den a los consumidores la opción de optar por no recibir publicidad personalizada.
Mantenerse al día con todas las leyes en constante cambio en todo el mundo que pueden afectar sus implementaciones de IA será una tarea difícil, pero no hacerlo podría resultar en sanciones severas.
El sector financiero ya está sujeto a regulaciones muy estrictas y ha utilizado modelos estadísticos durante décadas para cosas como los préstamos. La industria ahora utiliza cada vez más la IA para la toma de decisiones, lo que trae consigo grandes beneficios y riesgos sustanciales.
“La UE requiere la auditoría de todos los sistemas de IA de alto riesgo en todos los sectores, pero el problema con la auditoría externa es que podría haber datos internos, decisiones o información confidencial que no se puede compartir con una parte externa”, explica Majumder.
Majumder continúa explicando que, por lo tanto, es importante tener una segunda línea de opiniones, que es interna a la organización, pero que lo miren desde una perspectiva independiente, desde una perspectiva de gestión de riesgos.
“Entonces, hay tres líneas de defensa: Primero, al desarrollar el modelo. En segundo lugar, estamos evaluando de forma independiente a través de la gestión de riesgos. Tercero, los auditores como reguladores”, concluye Majumder.
Por supuesto, cuando la IA siempre toma las decisiones correctas, todo va bien. Cuando inevitablemente no lo hace, puede ser seriamente perjudicial.
La UE está interesada en prohibir la IA para fines de riesgo “inaceptables” que pueden dañar los medios de vida, la seguridad y los derechos de las personas. Se permitirán otras tres categorías (riesgo alto, riesgo limitado y riesgo mínimo/sin riesgo), con cantidades decrecientes de obligaciones legales a medida que se desciende en la escala.
“Todos podemos estar de acuerdo en que la transparencia es realmente importante, ¿verdad? Porque déjame hacerte una pregunta: si solicitas algún tipo de servicio y te lo niegan, ¿qué quieres saber? ¿Por qué se me niega el servicio?” dice Reddington.
“Si un algoritmo le niega el servicio y no puede encontrar una razón, ¿cuál es su reacción?”
Existe un consenso cada vez mayor de que XAI (IA explicable) debe usarse en la toma de decisiones para que siempre se puedan rastrear las razones del resultado. Sin embargo, Bruggen señala que es posible que la transparencia no siempre sea algo bueno: es posible que no desee darle a un terrorista o a alguien acusado de un delito financiero la razón por la que se le negó un préstamo, por ejemplo.
Reddington cree que esta es la razón por la cual los humanos no deben quedar fuera del circuito. De todos modos, la industria está lejos de alcanzar ese nivel de IA, pero incluso si está disponible, existen razones éticas por las que no deberíamos querer eliminar la supervisión y la participación humana por completo.
Sin embargo, la IA también puede aumentar justicia.
Mojumder da el ejemplo de su campo de especialización, las finanzas, donde los datos históricos se utilizan a menudo para decisiones como el crédito. Con el tiempo, las situaciones de las personas cambian, pero podrían verse atrapadas en la lucha por obtener crédito en función de los datos históricos.
“En lugar de usar la calificación crediticia histórica como entrada, podemos usar nuevos tipos de datos como datos móviles, facturas de servicios públicos o educación, y la IA nos lo ha hecho posible”, explica Mojumder.
Por supuesto, usar un conjunto de datos relativamente pequeño plantea sus propios problemas.
El panel ofreció algunas ideas fascinantes sobre la ética en la IA y el entorno regulatorio actual y futuro. Al igual que con la industria de la IA en general, avanza rápidamente y es difícil mantenerse al día, pero es fundamental hacerlo.
Puede obtener más información sobre los próximos eventos en la serie global AI & Big Data Expo aquí.
¿Quiere aprender más sobre IA y big data de los líderes de la industria? Eche un vistazo a AI & Big Data Expo que tendrá lugar en Ámsterdam, California y Londres.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
La publicación AI Expo: Proteger los estándares éticos en la era de la IA apareció por primera vez en AI News.
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…