A medida que el uso de la IA se vuelve aún más generalizado, los científicos de datos y las organizaciones que simplemente "hacen lo mejor" no serán suficientes. Scott Zoldi, experto en IA en FICO explica que con el aumento de los defensores de la IA, la IA responsable será la expectativa y el estándar.
En los últimos años, los datos y la inteligencia artificial se han utilizado ampliamente en una multitud de industrias para informar y dar forma a estrategias y servicios, desde atención médica y minorista hasta banca y seguros. Y más recientemente, la IA se ha destacado en la lucha contra el coronavirus.
Sin embargo, el aumento de los volúmenes de datos generados digitalmente, junto con la necesidad de una toma de decisiones automatizada habilitada por la IA, plantea nuevos desafíos para las empresas y los gobiernos, con un enfoque creciente en el razonamiento detrás de los algoritmos de toma de decisiones de la IA.
A medida que la IA lleva la toma de decisiones más lejos de aquellos individuos a los que afecta la decisión, las decisiones pueden parecer más insensibles, tal vez incluso descuidadas. No es raro que las organizaciones citen datos y algoritmos como justificación para decisiones impopulares y esto puede ser motivo de preocupación cuando se trata de líderes respetados que cometen errores.
Algunos ejemplos incluyen: el chatbot en línea racista y ofensivo de Microsoft en 2016, el sistema de reclutamiento de inteligencia artificial de Amazon que ignoró a las postulantes en 2018 y el auto Tesla que se estrelló en Autopilot después de confundir un camión con una señal de tráfico suspendida en 2019.
Además de la posibilidad de una toma de decisiones incorrecta, hay
También el tema del sesgo de IA. Como resultado, se han introducido nuevas regulaciones para
proteja los derechos del consumidor y vigile de cerca los desarrollos de IA.
Las organizaciones necesitan imponer una IA robusta ahora. Para hacer esto, deben fortalecer y establecer sus estándares con tres pilares de IA responsable: explicabilidad, responsabilidad y ética. Con esto en su lugar, las organizaciones de todo tipo pueden confiar en que están tomando decisiones digitales acertadas.
Explicabilidad: Una empresa que confía en un sistema de decisión de inteligencia artificial debe asegurarse de tener una construcción algorítmica que capture las relaciones entre las variables de decisión para llegar a una decisión comercial. Con acceso a estos datos, una empresa puede explicar por qué el modelo tomó la decisión que tomó, por ejemplo, marcó una transacción como un alto riesgo de fraude. Esta explicación puede ser utilizada por analistas humanos para investigar más a fondo las implicaciones y la precisión de la transacción. decisión.
Responsabilidad: Los modelos de aprendizaje automático deben construirse correctamente y centrarse en las limitaciones del aprendizaje automático y considerar cuidadosamente los algoritmos utilizados. La tecnología debe ser transparente y conforme. La consideración en el desarrollo de modelos garantiza que las decisiones tengan sentido, por ejemplo, los puntajes se adaptan adecuadamente con el aumento del riesgo.
Más allá de la IA explicable, existe el concepto de IA humilde: garantizar que el modelo se use solo en los ejemplos de datos similares a los datos sobre los que se capacitó. Si ese no es el caso, el modelo puede no ser confiable y uno debería rebajar a un algoritmo alternativo.
Ética: Basándose en la explicabilidad y la responsabilidad, los modelos éticos deben haber sido probados y eliminarse cualquier discriminación. Las arquitecturas de aprendizaje automático explicables permiten la extracción de las relaciones no lineales que generalmente ocultan el funcionamiento interno de la mayoría de los modelos de aprendizaje automático. Estas relaciones no lineales deben ser probadas, ya que se aprenden con base en los datos sobre los que se formó el modelo y estos datos están demasiado a menudo implícitamente llenos de sesgos sociales. Los modelos éticos aseguran que los prejuicios y la discriminación se prueben y eliminen explícitamente.
Construir modelos de IA responsables lleva tiempo y
trabajo meticuloso, con un escrutinio continuo y meticuloso crucial para hacer cumplir
IA responsable. Este escrutinio debe incluir regulación, auditoría y defensa.
Las regulaciones son importantes para establecer el
estándar de conducta y estado de derecho para el uso de algoritmos. Sin embargo, al final
las regulaciones se cumplen o no y demuestran la alineación con la regulación
requiere auditoria
La demostración del cumplimiento de la regulación requiere un marco para crear modelos auditables y procesos de modelado. Estos materiales de auditoría incluyen el proceso de desarrollo del modelo, los algoritmos utilizados, las pruebas de detección de sesgos y la demostración del uso de decisiones y puntajes razonables. Hoy en día, las auditorías del proceso de desarrollo de modelos se realizan de manera aleatoria.
Se están introduciendo nuevos sistemas de auditoría de desarrollo de modelos basados en blockchain para hacer cumplir y registrar estándares de desarrollo de modelos inmutables, métodos de prueba y resultados. Además, se están utilizando para registrar contribuciones detalladas de los científicos de datos y las aprobaciones de la gerencia a lo largo del ciclo de desarrollo del modelo.
Mirando hacia el futuro, las organizaciones ‘haciendo
lo mejor posible con datos e inteligencia artificial no será suficiente. Con el
aumento de los defensores de la IA y el sufrimiento real que se inflige debido al mal
resultados de los sistemas de IA, la IA responsable pronto será la expectativa y el estándar
en todos los ámbitos y en todo el mundo.
Las organizaciones deben hacer cumplir la IA responsable ahora y fortalecer y establecer sus estándares de explicabilidad, responsabilidad y ética de la IA para garantizar que se comporten de manera responsable al tomar decisiones digitales.
El autor es el Dr. Scott Zoldi, director de análisis de FICO..
El Dr. Scott Zoldi es director de análisis de FICO. Mientras estuvo en FICO, Scott fue responsable de autorizar 110 patentes de autor, con 56 concedidas y 54 pendientes. Scott participa activamente en el desarrollo de nuevos productos analíticos y aplicaciones de análisis de Big Data, muchas de las cuales aprovechan las nuevas innovaciones analíticas de transmisión, tales como análisis adaptativo, análisis colaborativo y análisis de autocalibración. Scott es miembro de dos juntas directivas, Software San Diego y Cyber Center of Excellence. Scott recibió su Ph.D. en física teórica y computacional de la Universidad de Duke.
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…