Medellín
3 de abril de 2022

Conversaciones para una política ética de inteligencia artificial en Colombia

Santiago Uribe

Aunque los algoritmos que se ejecutan en los programas de IA son eficientes a la hora de procesar miles de variables y computar millones de datos, también son opacos por naturaleza en su funcionamiento.

Un cuadro de Fernando Botero de gente paseando por la calle.

Fernando Botero, La calle, 2013, Óleo sobre lienzo. Galería Gmurzynska

La IA está en todas partes: desde las redes sociales y los servicios de streaming hasta los controles biométricos de inmigración, pasando por las herramientas de diagnóstico médico y las aplicaciones de nuestros smartphones. De hecho, los algoritmos y programas que funcionan con inteligencia artificial (IA) han alcanzado tal capacidad cognitiva que en algunas áreas superan nuestras capacidades humanas (pensemos en jugar al ajedrez o detectar tumores). El uso de estas tecnologías se ha vuelto indispensable, transformando nuestras relaciones con la tecnología y nuestra forma de gobernar y relacionarnos en nuestras ciudades. El potencial de transformación económica, de innovación, de desarrollo y de formas de trabajar es tal que a esta transformación digital se la ha denominado la Cuarta Revolución Industrial. Por ello, no es de extrañar que el mundo mire hacia la IA como una nueva frontera económica con potencial de crecimiento económico para los países. En los últimos años, las principales economías del mundo (Unión Europea, Estados Unidos, China, etc.) han desarrollado estrategias y planes nacionales para fomentar e innovar en IA. Los beneficios potenciales son enormes.

La IA tiene el potencial de transformar la economía, atraer inversiones, generar empleos cualificados, vender servicios a millones de personas y permitir el acceso a la información y a los beneficios de la tecnología. En Colombia, por ejemplo, sistemas de vigilancia biométrica como el reconocimiento facial han mejorado la seguridad en lugares públicos y los servicios de control de inmigración en los aeropuertos. Durante la pandemia de Covid-19, en algunos países se implantaron sistemas de IA con biometría para detectar a las personas con síntomas de Covid. Sin duda, los beneficios son muchos, pero no están exentos de riesgos.

Aunque los algoritmos que funcionan en los programas de IA son eficientes a la hora de procesar miles de variables y computar millones de datos, también son opacos por naturaleza en su funcionamiento. Es decir, es imposible que los usuarios e incluso los programadores comprendan o tengan explicaciones sobre el proceso empleado por el algoritmo para tomar decisiones (¿por qué A y no B?). Por otro lado, las bases de datos utilizadas para alimentar el programa corren el riesgo de ser incompletas y tener sesgos ocultos, por lo que corren el riesgo de replicar y perpetuar sesgos y situaciones discriminatorias existentes entre determinadas poblaciones.

Desde 2019 Colombia cuenta con una política pública de transformación digital e inteligencia artificial que busca crear las condiciones habilitantes para promover la inversión y el desarrollo de las tecnologías digitales y la transformación digital. De igual forma, en 2021 el gobierno desarrolló el Marco Ético para la Inteligencia Artificial que cuenta con recomendaciones y herramientas para garantizar el uso ético de los algoritmos y así mitigar los riesgos asociados a su uso. Además, desde 2021 se estableció la Misión de Expertos en Inteligencia Artificial con el mandato de formular recomendaciones sobre cómo Colombia debe promover e implementar la IA para el futuro del trabajo (empleo) y la protección del medio ambiente.

Pero la inteligencia artificial, en teoría una herramienta infalible y de valor añadido en la economía, no está exenta de riesgos. Entre los daños potenciales causados por las decisiones algorítmicas se incluyen, por ejemplo, las prácticas de contratación discriminatorias y las condenas sesgadas en procesos penales. Los gobiernos y las empresas deben sopesar los beneficios del uso de la IA (por ejemplo, el aumento de la eficiencia y la productividad) frente a los riesgos de institucionalizar permanentemente procesos opacos de toma de decisiones que impidan un desarrollo inclusivo y con conciencia social. A su vez, a los ciudadanos nos corresponde exigir mecanismos institucionales y ciudadanos que fomenten el desarrollo y el uso de las tecnologías de IA con salvaguardias y correctivos que eviten o minimicen los daños a la sociedad.

Todos tenemos un interés legítimo en el uso ético y responsable de esta tecnología y todos somos partes interesadas, así que ¿cómo podemos exigir a los desarrolladores y ejecutores una responsabilidad social que vaya más allá del negocio? Ante esta fuerza potencialmente transformadora, son necesarios un diálogo abierto y debates participativos en los que los responsables de la toma de decisiones tengan en cuenta las preocupaciones de los ciudadanos.

Durante la primera versión de los "Almuerzos Virtuales" organizados por el Instituto Edgelands, pudimos facilitar un espacio de diálogo y participación esencial para discutir estos temas. Uno de nuestros objetivos en Edgelands es crear espacios de diálogo y tender puentes para acercar a la gente a las discusiones que se están dando en los círculos de poder y políticas públicas. Para ello, mantuvimos un diálogo directo y abierto con Sandra Cortesi, directora de la Misión de Expertos. Luego de su intervención donde explicó el mandato y trabajo de la misión, hubo espacio para que sectores de la sociedad civil y universidades dieran a conocer sus posiciones y así nutrir el diálogo y el trabajo de la misión. En Edgelands aspiramos a hacer precisamente eso: fomentar el diálogo, facilitar el intercambio, la participación y el debate sobre los temas que nos afectan.

Las nuevas tecnologías siempre han encontrado resistencia en la sociedad: la máquina de vapor, la electricidad, los ordenadores e Internet fueron rechazados de plano, tachados de moda pasajera, sus riesgos resaltados más que sus beneficios. La desconfianza ante lo desconocido es natural. Es más difícil abordar estas tecnologías con un pensamiento crítico, comprender sus dimensiones, sopesar sus costes y beneficios. Hacerlo en espacios como los que proponemos en Edgelands nos da la posibilidad de influir en la toma de decisiones y garantizar que las tecnologías beneficien y no perjudiquen. En la cacofonía de posturas y argumentos, en Edgelands queremos armonizar y reunir opiniones informadas, basadas en la ciencia, las pruebas y la responsabilidad social.

Referencias

Kim, H., Giacomin, J., & Macredie, R. (2014). A qualitative study of stakeholders' perspectives on the social network service environment.Revista Internacional de Interacción Persona-Ordenador, 30(12), 965-976.

O'Neil, C. (2017). Armas de destrucción matemática: Cómo el big data aumenta la desigualdad y amenaza la democracia. Broadway Books.