Tue. Jan 13th, 2026

Un artículo publicado por el Foro Económico Mundial (WEF) ha argumentado que existe una "gran brecha de entendimiento" entre los responsables de la formulación de políticas y los creadores de IA.

El informe, escrito por Adriana Bora, investigadora de políticas de inteligencia artificial y gerente de proyectos de The Future Society, y David Alexandru Timis, curador saliente de Brussels Hub, explora cómo resolver los problemas de responsabilidad y generación de confianza con la tecnología de inteligencia artificial.

Bora y Timis señalan que existe "una necesidad de mecanismos sólidos que generen una comprensión integral y compartida colectivamente del ciclo de desarrollo y despliegue de la IA". Como resultado, añaden los dos, esta gobernanza "debe diseñarse bajo un diálogo continuo utilizando metodologías y habilidades de múltiples partes interesadas e interdisciplinarias".

En un lenguaje sencillo, ambos lados deben hablar el mismo idioma. Sin embargo, aunque los creadores de IA tienen la información y la comprensión, esto no se extiende a los reguladores, señalan los autores.

"Hay un número limitado de expertos en políticas que realmente comprenden el ciclo completo de la tecnología de IA", señaló el artículo. "Por otro lado, los proveedores de tecnología carecen de claridad y, en ocasiones, de interés en dar forma a la política de IA con integridad al implementar la ética en sus diseños tecnológicos".

Son innumerables los ejemplos de prácticas de IA poco éticas o en las que el sesgo inherente está integrado en los sistemas. En julio, el MIT se disculpó y desconectó un conjunto de datos que entrenaba modelos de inteligencia artificial con tendencias misóginas y racistas. Google y Microsoft también han admitido errores con la moderación de YouTube y MSN News respectivamente.

También se ha cuestionado la tecnología de inteligencia artificial en la aplicación de la ley. Más de 1,000 investigadores, académicos y expertos firmaron una carta abierta en junio para cuestionar un próximo documento que afirmaba poder predecir la criminalidad basada en el reconocimiento facial automatizado. Por separado, en el mismo mes, el jefe de la Policía de Detroit admitió que su reconocimiento facial impulsado por IA no funcionaba la gran mayoría de las veces.

Google ha estado bajo fuego últimamente, con el despido de Margaret Mitchell la semana pasada, quien codirigió el equipo de IA ética de la empresa, lo que se suma a la publicidad negativa. Mitchell confirmó su despido en Twitter. Una declaración de Google a Reuters dijo que el despido siguió a una investigación que encontró que Mitchell movió archivos electrónicos fuera de la empresa.

En diciembre, Google despidió a Timnit Gebru, otra figura destacada en el desarrollo ético de la inteligencia artificial, quien afirmó que la despidieron por un artículo inédito y por enviar un correo electrónico en el que criticaban las prácticas de la empresa. Mitchell tenía escrito previamente una carta abierta detallando "preocupación" por el despido. Por un Axios informe, la empresa realizó cambios en "cómo maneja los problemas relacionados con la investigación, la diversidad y la salida de los empleados", tras el despido de Gebru. Como informa esta publicación, la partida de Gebru obligó a otros empleados a irse; el ingeniero de software Vinesh Kannan y el director de ingeniería David Baker.

Bora y Timis enfatizaron la necesidad de una "alfabetización ética" y un "compromiso con la investigación multidisciplinaria" desde la perspectiva de los proveedores de tecnología.

“A través de su capacitación y durante sus carreras, los equipos técnicos detrás de los desarrollos de IA no son educados metódicamente sobre la complejidad de los sistemas sociales humanos, cómo sus productos podrían impactar negativamente a la sociedad y cómo incorporar la ética en sus diseños”, señaló el artículo.

“El proceso de comprender y reconocer el contexto social y cultural en el que se implementan las tecnologías de IA, a veces con mucho en juego para la humanidad, requiere paciencia y tiempo”, agregaron Bora y Timis. "Con el aumento de las inversiones en IA, se anima a las empresas de tecnología a identificar la consideración ética relevante para sus productos e implementar soluciones de manera transparente antes de implementarlas".

En teoría, esto podría solucionar los retiros apresurados y las disculpas exageradas cuando los modelos se comportan de manera poco ética. Sin embargo, los investigadores también notaron cómo los responsables de la formulación de políticas deben dar un paso al frente.

"Es sólo familiarizándose con la IA y sus posibles beneficios y riesgos que los responsables de la formulación de políticas pueden redactar una regulación sensata que equilibre el desarrollo de la IA dentro de los límites legales y éticos y aproveche su tremendo potencial", señaló el artículo. "La creación de conocimiento es fundamental tanto para desarrollar regulaciones más inteligentes en lo que respecta a la IA, para permitir que los responsables de la formulación de políticas participen en un diálogo con las empresas de tecnología en pie de igualdad, y juntos establecer un marco de ética y normas en el que la IA pueda innovar de forma segura".

Se está produciendo innovación con respecto a la resolución de sesgos algorítmicos. En el Reino Unido, como se informó en esta publicación en noviembre, el Centro de Ética e Innovación de Datos (CDEI) ha creado una "hoja de ruta" para abordar el problema. El informe del CDEI se centró en la vigilancia, la contratación, los servicios financieros y el gobierno local, y hace recomendaciones transversales que tienen como objetivo ayudar a construir los sistemas adecuados para que los algoritmos mejoren, en lugar de empeorar, la toma de decisiones.

Puede leer el artículo completo de WEF aquí.

¿Está interesado en escuchar a los líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo, y Cyber ​​Security & Cloud Expo World Series, ubicadas en el mismo lugar, con los próximos eventos en Silicon Valley, Londres y Ámsterdam.

Etiquetas: IA ética, ética, Google, principios éticos de Google, wef, foro económico mundial

By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.