Las empresas que no implementen la IA de manera ética enfrentarán severas sanciones a medida que las regulaciones se pongan al día con el ritmo de las innovaciones.
En la UE, la Ley de IA propuesta presenta una aplicación similar a GDPR pero con multas aún más altas de 30 millones de euros o el seis por ciento de la facturación anual. Otros países están implementando variaciones, incluida China y un número creciente de estados de EE. UU.

Pandata son expertos en inteligencia artificial centrada en el ser humano, explicable y confiable. El equipo con sede en Cleveland se enorgullece de ofrecer soluciones de inteligencia artificial que brindan a las empresas una ventaja competitiva de manera ética y legal.
AI News se reunió con Cal Al-Dhubaib, director ejecutivo de Pandata, para obtener más información sobre las soluciones éticas de IA.
AI News: ¿Puede darnos una descripción general rápida de lo que hace Pandata?
Cal Al-Dhubaib: Pandata ayuda a las organizaciones a diseñar y desarrollar soluciones de IA y ML. Nos enfocamos en industrias fuertemente reguladas como la atención médica, la energía y las finanzas, y enfatizamos la implementación de una IA confiable.
Hemos desarrollado una gran experiencia trabajando con datos confidenciales y aplicaciones de alto riesgo y nos enorgullecemos de simplificar problemas complejos. Nuestros clientes incluyen marcas reconocidas a nivel mundial como Cleveland Clinic, Progressive Insurance, Parker Hannifin y Hyland Software.
AN: ¿Cuáles son algunos de los mayores desafíos éticos en torno a la IA?
CA: Mucho ha cambiado en los últimos cinco años, especialmente nuestra capacidad para entrenar e implementar rápidamente modelos complejos de aprendizaje automático en datos no estructurados como texto e imágenes.
Este aumento de la complejidad se ha traducido en dos retos:
- La verdad fundamental es más difícil de definir. Por ejemplo, resumir un artículo en un párrafo con AI puede tener varias respuestas “correctas”.
- Los modelos se han vuelto más complejos y más difíciles de interrogar.
El mayor desafío ético al que nos enfrentamos en la IA es que nuestros modelos pueden romperse de maneras que ni siquiera podemos imaginar. El resultado es una larga lista de ejemplos de los últimos años de modelos que han resultado en daños físicos o prejuicios raciales o de género.
AN: ¿Y qué tan importante es la “IA explicable”?
CA: A medida que los modelos han aumentado en complejidad, hemos visto un aumento en el campo de la IA explicable. A veces, esto significa tener modelos más simples que se usan para explicar modelos más complejos que son mejores para realizar tareas.
La IA explicable es crítica en dos situaciones:
- Cuando es necesaria una pista de auditoría para respaldar las decisiones tomadas
- 2) Cuando los expertos humanos en la toma de decisiones necesitan tomar medidas en función del resultado de un sistema de IA.
AN: ¿Existen áreas en las que, en su opinión, las empresas no deberían implementar la IA?
CA: La IA solía ser dominio exclusivo de los científicos de datos. A medida que la tecnología se generaliza, es natural que comencemos a trabajar con una esfera más amplia de partes interesadas, incluidos diseñadores de experiencia de usuario, expertos en productos y líderes empresariales. Sin embargo, menos del 25 por ciento de los profesionales se consideran alfabetizados en datos (HBR 2021).
A menudo vemos que esto se traduce en una falta de coincidencia de las expectativas de lo que la IA puede lograr razonablemente. Comparto estas tres reglas de oro:
- Si puede explicar algo de manera procesal o proporcionar un conjunto sencillo de reglas para realizar una tarea, puede que no valga la pena invertir en IA.
- Si una tarea no es realizada de manera consistente por expertos igualmente capacitados, entonces hay pocas esperanzas de que una IA pueda aprender a reconocer patrones consistentes.
- Proceda con precaución cuando trabaje con sistemas de IA que impacten directamente en la calidad de vida humana, financiera, física, mental o de otra manera.
AN: ¿Crees que las regulaciones de IA deben ser más estrictas o más relajadas?
CA: En algunos casos, la regulación está muy atrasada. La regulación apenas ha seguido el ritmo de la innovación.
A partir de 2022, la FDA ha reclasificado más de 500 aplicaciones de software que aprovechan la IA como dispositivos médicos. La Ley de IA de la UE, que se prevé que se implementará en 2024-25, será la primera en establecer pautas específicas para las aplicaciones de IA que afectan la vida humana.
Al igual que GDPR creó una ola de cambios en las prácticas de privacidad de datos y la infraestructura para respaldarlas, la ley de IA de la UE requerirá que las organizaciones sean más disciplinadas en su enfoque para la implementación y gestión de modelos.
Las organizaciones que comienzan a madurar sus prácticas hoy estarán bien preparadas para montar esa ola y prosperar a su paso.
AN: ¿Qué consejo les daría a los líderes empresariales que estén interesados en adoptar o escalar sus prácticas de IA?
CA: Utilice los principios de gestión de cambios: comprenda, planifique, implemente y comunique para preparar a la organización para la disrupción impulsada por la IA.
Mejore su alfabetización en IA. La IA no pretende reemplazar a los humanos, sino aumentar las tareas repetitivas; permitiendo a los humanos concentrarse en un trabajo más impactante.
La IA tiene que ser aburrida para ser práctica. El verdadero poder de la IA es resolver redundancias e ineficiencias que experimentamos en nuestro trabajo diario. Decidir cómo usar los componentes básicos de la IA para llegar allí es donde la visión de un líder preparado puede ser muy útil.
Si alguno de estos temas suena interesante, Cal ha compartido un resumen de su sesión en la AI & Big Data Expo North America de este año. aquí.
(Foto de Nathan Dumlao en Unsplash)

¿Quiere aprender más sobre IA y big data de los líderes de la industria? Eche un vistazo a AI & Big Data Expo que tendrá lugar en Ámsterdam, California y Londres.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
La publicación Cal Al-Dhubaib, Pandata: sobre el desarrollo de soluciones éticas de IA apareció primero en AI News.