Ética en la IA: ¿cómo asegurarse de que sea utilizada de manera justa y responsable?

A medida que los avances en la tecnología han permitido la creación de sistemas más complejos y sofisticados, también han surgido preocupaciones sobre los posibles riesgos de la IA asociados con su uso.

Fue en 2016 cuando la Unión Europea presentó un informe sobre los aspectos éticos de la Inteligencia Artificial, donde se incluyen principios como la transparencia, la privacidad y la protección de datos. Desde entonces se han creado numerosas iniciativas para promover la ética en la IA, incluyendo la creación de comités y grupos de trabajo en empresas líderes de la industria tecnológica.

Y es que el desarrollo y uso de la IA plantea importantes retos éticos que deben ser abordados para asegurar su uso responsable y justo; desafíos que se derivan de la naturaleza misma de esta herramienta que es capaz de tomar decisiones y realizar acciones sin intervención humana directa.

En esta línea destaca la privacidad y la protección de datos al trabajar con la IA, la cual puede recopilar y analizar grandes cantidades de datos personales, lo que puede plantear riesgos para la privacidad y la seguridad de los usuarios.

Para debatir sobre las implicancias de estas tecnologías, Federico dos Reis, CEO de INFORM para LATAM, sostiene que “todos los actores debemos velar porque el uso de la IA sea justo, integrador y responsable, además de no ser utilizada con fines maliciosos. Es más, los sistemas de IA deberían ayudar a los seres humanos en su trabajo, apoyando y mejorando procesos de toma de decisiones en las empresas. La IA podría aumentar las potencialidades humanas, sin embargo, el control debe permanecer precisamente en los seres humanos”, afirma el ejecutivo.

En este mismo orden de ideas y basado en los estándares éticos de la compañía, dos Reis también menciona seis directrices responsables de la IA para tener en cuenta:

  1. Cada compañía debe tener como foco construir sistemas de IA que beneficien a los usuarios y a la sociedad para lograr una IA que sea justa, inclusiva y no discriminatoria, y así evitar los impactos sociales y comerciales negativos de la IA, como la desinformación y prejuicios.
  2. Los sistemas de IA deberían ayudar a los seres humanos en su trabajo, apoyando y mejorando procesos de toma de decisiones en las empresas, es decir, proporcionando herramientas para los usuarios en lugar de crear agentes completamente autónomos.
  3. La IA debe alinearse con los valores y objetivos humanos. En el contexto empresarial, esto significa que los algoritmos deben seguir los objetivos de los usuarios y/u otras partes interesadas, lo que incluye garantizar que se puedan seguir objetivos éticos.
  4. Potenciar la privacidad y la protección de datos y cumplir con la legislación respectiva, según cada país.
  5. Una empresa proveedora de IA debe garantizar que los sistemas cumplan con sus efectos deseados a través de buenas prácticas de ingeniería de software para diseñar, desarrollar y probar algoritmos.
  6. Es fundamental diseñar y desarrollar algoritmos de IA para diferentes mercados, pues el impacto de la IA suele estar delimitado al dominio empresarial.

Finalmente, dos Reis insiste en que la tecnología digital, y en particular la IA, hace tiempo que dejaron de ser un tema sólo para expertos. “Hoy interactuamos diariamente con estas herramientas y cada vez influyen más en nuestro día a día, a veces, sin que nos demos cuenta. Particularmente, las diferentes ramas de la IA, abordadas con responsabilidad y ética, nos traerán cambios positivos y permitirán derribar barreras en diferentes áreas en pos del beneficio de la humanidad”, reafirma el especialista.