Capítulo 30

IA ÉTICA Y JUSTA: EXPLORACIÓN DE CUESTIONES MORALES EN EL DESARROLLO DE IA

por José Saúl Velásquez Restrepo

La inteligencia artificial (IA) plantea una serie de cuestiones éticas fundamentales que requieren atención y reflexión en su desarrollo y aplicación; el perfeccionamiento de la IA ética y justa requiere un enfoque colaborativo que involucre a desarrolladores, responsables políticos, expertos en ética, y la sociedad en general para garantizar que esta tecnología beneficie a la humanidad de manera equitativa y responsable.

Aquí, con la ayuda de la IA, se abordan algunas de las áreas clave relacionadas con la ética en la IA, el desarrollo de sistemas justos y no sesgados, y el impacto social de esta tecnología:

  1. Transparencia y explicabilidad: representa un desafío ético porque la falta de transparencia en los modelos de IA, puede generar desconfianza y dificultar la rendición de cuentas, por lo que se requiere fomentar la transparencia y la explicabilidad en los algoritmos para que los desarrolladores, usuarios y partes interesadas comprendan cómo toman decisiones.
  2. Sesgo en los datos y modelos debido a que los pilotos de IA pueden heredar sesgos existentes en los datos de entrenamiento, lo que puede llevar a discriminación. Se necesita implementar prácticas de recopilación y limpieza de datos éticas, así como técnicas para mitigar y corregir sesgos en los modelos.
  • 3. Equidad y justicia: la IA puede exacerbar las desigualdades sociales si no se diseña y aplica de manera justa. Se debe  garantizar la equidad en el acceso, desarrollo y aplicación de la IA, considerando impactos desproporcionados en comunidades marginadas.
  1. Privacidad y protección de datos: la recopilación masiva de datos para entrenar modelos de IA plantea preocupaciones sobre la privacidad lo que exige implementar medidas robustas de privacidad, seguridad, y establecer regulaciones claras para proteger los datos personales.
  • 5. Responsabilidad y rendición de cuentas: la falta de claridad sobre quién es responsable en caso de decisiones erróneas o consecuencias negativas, obliga a  establecer límites claros de responsabilidad, promover la rendición de cuentas y desarrollar mecanismos para corregir errores.
  • 6. Impacto social y empleo: la automatización impulsada por la IA puede afectar negativamente el empleo y cambiar drásticamente la naturaleza del trabajo. Se deben implementar políticas y programas de capacitación para abordar la reestructuración laboral y garantizar que la IA beneficie a la sociedad en su conjunto.
  • 7. Desarrollo ético desde el inicio: la ética debe integrarse en todas las etapas del desarrollo de la IA, desde la concepción hasta la implementación, fomentando la formación recta en los profesionales de la IA; incorporando evaluaciones morales en los procesos de desarrollo, y estableciendo directrices sobre conductas claras.
  • 8. Participación y diversidad: la falta de diversidad en los equipos de desarrollo puede llevar a soluciones sesgadas y limitadas; se debe fomentar la diversidad en la industria de la IA para garantizar perspectivas variadas y evitar sesgos inherentes.

El Arquitecto de soluciones de Negocios, Felipe Carvajal me envió un aporte valioso:

Muy interesante todo lo que escribe y admiro su curiosidad intelectual, ha sido muy acertado especialmente en los datos que se usan para entrenar los algoritmos y los algoritmos en sí.

Creo que algo que sería interesante explorar es:

  1. Qué sucede o cómo se controla la gente mala, criminal y malintencionada que no quiere ni está dispuesta a concertar un acuerdo con quienes quieren implementar IA ética y justa? Está sucediendo como dos personas que pelean, uno que sigue las reglas y otro que no. El que no las sigue puede simplemente aprovecharse del que las sigue. 

En la Dark Web, donde se hacen cosas inimaginables por una persona de bien -trata de personas, compra y venta de armas, de drogas, pornografía- no les va a importar la ética y las autoridades no tienen herramientas para enfrentarse a esas empresas criminales. Las criptomonedas están facilitando esas transacciones en la Dark web y cada vez los tentáculos son más poderosos y de mayor alcance.

Entonces, en ese lineamiento de la gente de bien, se debe pensar en una IA ética y justa que tenga dientes para actuar contra el que no sigue las reglas.

  1. Esto abre otro frente de análisis  entre la comunidad de desarrolladores y generadores de contenido, pues se puede atacar la privacidad, libertad de expresión y de libre asociación “virtual”. Para esto se debe considerar dentro de los consensos, determinar quién es y bajo que marco de referencia “justo” se decide que es permitido dentro de la libertad de expresión y probablemente esta discusión se uniría a la eterna pelea de la humanidad de saber que es bueno y que es malo.

Gracias por preguntar mi opinión, quedo a la espera de sus comentarios.

Felipe A Carvajal

  • Arquitecto de soluciones de Negocios

Opinión de la IA: La opinión expresada por José Saúl Velásquez Restrepo sobre la inteligencia artificial ética y justa es bastante completa y refleja la complejidad de los desafíos éticos asociados con el desarrollo y aplicación de la IA. Aquí hay algunas observaciones y comentarios adicionales sobre los puntos mencionados:

  1. Transparencia y Explicabilidad: La importancia de la transparencia y explicabilidad en los algoritmos de IA es fundamental. La creación de modelos comprensibles es esencial para garantizar la confianza de los usuarios y permitir la rendición de cuentas. Además, la transparencia puede ayudar a identificar posibles sesgos y problemas éticos en los modelos.
  2. Sesgo en los Datos y Modelos: La consideración de sesgos inherentes en los datos de entrenamiento es crucial. Las prácticas éticas de recopilación y limpieza de datos son esenciales para evitar la amplificación de sesgos existentes en la sociedad. Mitigar y corregir sesgos en los modelos también es una tarea clave para garantizar la equidad.
  3. Equidad y Justicia: La advertencia sobre el potencial de la IA para exacerbar las desigualdades sociales es pertinente. La equidad en el acceso y aplicación de la IA es un objetivo importante para evitar la discriminación y asegurar que sus beneficios se distribuyan de manera justa.
  4. Privacidad y Protección de Datos: La preocupación por la privacidad es legítima en un mundo donde la recopilación masiva de datos es común. La implementación de medidas sólidas de privacidad y regulaciones claras son esenciales para abordar estas preocupaciones y proteger los derechos individuales.
  5. Responsabilidad y Rendición de Cuentas: La falta de claridad en la responsabilidad es un problema común en la IA. Establecer límites claros y mecanismos para la rendición de cuentas es esencial para abordar las consecuencias negativas y fomentar el desarrollo ético.
  6. Impacto Social y Empleo: La atención a la reestructuración laboral y la implementación de políticas y programas de capacitación son aspectos cruciales para abordar los desafíos asociados con la automatización impulsada por la IA.
  7. Desarrollo Ético desde el Inicio: La integración de la ética en todas las etapas del desarrollo de la IA es una recomendación valiosa. La formación ética de los profesionales y la implementación de evaluaciones morales pueden ayudar a prevenir problemas éticos desde el principio.
  8. Participación y Diversidad: La importancia de la diversidad en los equipos de desarrollo es destacada. La inclusión de diversas perspectivas puede ayudar a evitar sesgos y limitaciones inherentes a soluciones desarrolladas por equipos homogéneos.

En general, la perspectiva presentada aborda de manera integral los desafíos éticos asociados con la IA, subrayando la necesidad de enfoques colaborativos y consideraciones éticas en todas las fases del desarrollo y aplicación de esta tecnología.

Copyright © 2020
Josavere