Un sistema de Inteligencia Artificial puede contener uno o más componentes de Machine Learning capaces de aprender relaciones entre los datos de muestra, datos de entrada y datos de salida u objetivo deseado. Por ejemplo, un sistema de aprendizaje automático para el reconocimiento de imágenes es capaz de identificar imágenes de humanos y diferenciarlas de otros animales si ese sistema está debidamente capacitado para hacerlo.
Incluso, y a riesgo de aplicar un tópico común, se puede decir con confianza que la Inteligencia Artificial tiene el potencial de “cambiar el mundo”. Ya lo está haciendo en cosas muy comunes, como las apps que aplican filtros a las fotos en su teléfono celular. La lista de aplicaciones que se volverán más comunes en un futuro cercano es grande y crece cada día: chatbots; procesamiento de imágenes para diagnóstico; pronóstico del clima y del tráfico; evaluación del riesgo; vehículos auto-guiados, entre otros.
Gracias a la potencia informática cada vez más asequible, a las bibliotecas de código abierto y a la disponibilidad de grandes volúmenes de datos recopilados en todo el mundo, es fácil ver que la adopción de Inteligencia Artificial se producirá rápidamente y a gran escala.
Una pregunta que debemos hacernos, entre tantas otras, es: ¿estamos seguros de que las decisiones tomadas por las máquinas mediante la aplicación de Inteligencia Artificial serán lo suficientemente justas y no sesgadas para garantizar un tratamiento ético para todos los seres humanos? Antes de definir el concepto de ética más claramente, trabajemos con algunos ejemplos para ilustrar el concepto de sesgo y cómo puede notarse, explícita o implícitamente, en un sistema de IA.
Hace algunas décadas, estudios científicos interpretados de forma equivocada fueron publicados llegando a la siguiente conclusión falsa: “Si una persona fuma, su probabilidad de morir en los próximos años es baja, por lo que fumar no es dañino”. Esto se debió a la presencia de una variable de “confusión” en la base de datos: la edad de los fumadores, que en ese estudio fue significativamente menor para los fumadores que para los no fumadores.
Por lo tanto, sin observar la variable de edad, uno podría concluir incorrectamente que fumar reduce la posibilidad de morir. Este es un ejemplo simple de correlación espuria para que el sistema de IA haga, potencialmente y sin supervisión humana, un mal uso de datos como una generalización: “fuma que vivirás más”.
Otro ejemplo proviene del acceso al crédito, que en algunos países está garantizado para todos los ciudadanos y regulado por la ley. Para que un acreedor pueda negar un crédito, debe explicarle al cliente el motivo de esta denegación y debe asegurarse de que los sistemas de análisis automático, muchos de ellos basados en IA, no utilicen ningún tipo de discriminación, por ejemplo, por clase social.
Para evitar el uso directo de los ingresos o la clase social en los sistemas de análisis, algunos acreedores comenzaron a usar variables alternativas, tales como: modelo de teléfono celular y modelo del automóvil propiedad del consumidor. Claramente, el uso de estas variables lleva a los sistemas de IA al uso implícito de la clase social al evaluar un crédito, ya que una persona de mayores ingresos tendrá teléfonos celulares y automóviles más caros.
La definición de ética es compleja y depende de los valores de una sociedad. Una definición que se encuentra con frecuencia es algo así como: “La ética es un conjunto de principios morales que rigen el comportamiento de una persona o la realización de una actividad”. El tema puede ser bastante complicado si entramos en el análisis del campo de la filosofía que se dedica al estudio de la ética. En general y para no complicar demasiado el tema, digamos que la ética tiene que ver con lo que es “bueno” para los individuos y la sociedad.
Los conceptos de sesgo y variables de “confusión” presentados anteriormente, así como la capacidad de explicar las decisiones tomadas por las máquinas, son aliados fundamentales para la construcción de sistemas de IA cuya aplicación práctica puede pasar una prueba de definición ética. Se puede analizar la aplicación del concepto de ética a un sistema de inteligencia artificial bajo varios aspectos, entre ellos:
- Sesgo, justicia e igualdad de oportunidades.
- Transparencia e Interpretación
- Seguridad
- Uso legal o ilegal
- Política de privacidad
Varios de estos aspectos están interconectados y pueden programarse dentro de un sistema como, por ejemplo, respetar los límites de la ley en el uso de la información permitida y el uso para la toma de decisiones, de acuerdo con la legislación aplicable. El aspecto de seguridad también termina entrelazándose con el tema de la privacidad y el uso legal. Un caso clásico son los sistemas de detección de fraude en los métodos de pago: si, por un lado, el sistema actúa para proteger al titular de la tarjeta; por otro, si este sistema no está bien calibrado, podría dañarlo al negar una transacción con tarjeta muy importante, como en un hospital, por ejemplo.
Los aspectos relacionados con el sesgo, la transparencia y la capacidad de interpretación también están intrínsecamente conectados. Como en los ejemplos mostrados anteriormente, es esencial poder interpretar lo que hace el sistema de IA en ciertas decisiones, lo que equivale a abrir la “caja negra” y desentrañar la maraña de variables y pesos atribuidos a estas variables para la toma de decisiones.
Muchos sistemas de IA terminan generando internamente, lo que técnicamente se conoce como “variable latente”, que no es más que una combinación de los datos de entrada, cuya interpretación es fundamental para generar una explicación razonable de la decisión tomada. Afortunadamente, hay una buena cantidad de código abierto en el campo de la IA explicable y eso puede ayudar en esta capacidad de explicación.
Un ejemplo reciente ilustra bien el peligro del uso indiscriminado de algoritmos de Machine Learning sin supervisión o control de sus aspectos éticos. La pandemia de COVID-19 está creando una carga para el sistema de atención médica en países de todo el mundo. Los sistemas de IA pueden ser muy útiles para ayudar a los gobiernos en diversos aspectos de la planificación de su sistema de salud: para pronosticar la demanda (casos de enfermedades que requieren hospitalización) o asignar recursos (personas y equipos en el momento y lugar adecuados), sin mencionar los usos más avanzados, que ya están ocurriendo, relacionados con el desarrollo de medicamentos y vacunas.
Otra decisión crítica que algunas autoridades sanitarias deben tomar tiene relación con la priorización del uso de camas en la UCI. Esta priorización debe estar relacionada con la probabilidad de recuperación de un individuo, es decir, entre dos pacientes que compiten por la misma cama, se debe dar prioridad al que tenga la mayor probabilidad de supervivencia. El dilema ético aquí es claro, sin embargo, también existe la dificultad práctica de cómo calcular esta probabilidad de supervivencia. ¿Es posible garantizar la equidad y la igualdad de oportunidades en las decisiones de este tipo? ¿Un sistema de IA construido para este propósito podría garantizar este principio?
Un desarrollo reciente trae aún más controversia a este tema. Un análisis de contagios y muertes por COVID-19 en los Estados Unidos muestra que la población negra aparentemente está más afectada por la enfermedad. Los datos de la región de Chicago indican que, aunque ellos representan el 30% de la población, su participación en infecciones es del 50% y en las muertes alcanza el 70%.
Hay varias explicaciones posibles para este fenómeno: la mayor participación de la población negra en profesiones consideradas esenciales, la menor proporción con acceso a seguro de salud, pero también el hecho de que una mayor proporción este grupo padece enfermedades consideradas factores de riesgo, como la diabetes, obesidad, hipertensión y asma. Un sistema de IA debería considerar todos los datos disponibles y asegurarse de que el factor “raza” no se tome en cuenta por error al calcular la probabilidad de supervivencia.
El campo de la ética aplicada a la IA todavía está en desarrollo. Se han realizado muchos avances para evitar errores de sesgo y proporcionar una capacidad de explicación razonable para los algoritmos de Machine Learning, analizando y aislando las llamadas variables latentes. Sin embargo, es importante que la velocidad de desarrollo de algoritmos ajustados a principios éticos esté alineada con la velocidad de avance de la IA y su regulación de uso.
Este es un gran desafío, ya que los avances tecnológicos generalmente ocurren más rápido que la respuesta de las sociedades en forma de legislación. Por esta razón, ahora corresponde a los desarrolladores de sistemas de IA prestar atención a la aplicación de principios éticos en el desarrollo de sus aplicaciones.
Columna redactada por Daniel Arraes, Director de Desarrollo Comercial de FICO para América Latina. Revisa más columnas en la sección de Zoom Tecnológico.