
Hoy en día, la tecnología de inteligencia artificial (IA) sustenta decisiones que afectan profundamente a todos. Esto trae grandes oportunidades, pero también genera riesgos. Esto ha dado mayor importancia a la práctica de la IA responsable. La IA responsable garantiza que los sistemas de IA y los modelos de aprendizaje automático (ML) sean sólidos, explicables, éticos y auditables.
La IA responsable implica seguir un conjunto de principios y estándares de desarrollo de modelos de IA corporativos para operacionalizar implementaciones de IA que brinden resultados comerciales de alto impacto dentro de límites éticos y legales importantes.
La IA se ha utilizado ampliamente para informar y dar forma a estrategias y servicios en una multitud de sectores, desde la atención sanitaria hasta el comercio minorista, e incluso ha desempeñado un papel en la batalla contra el COVID-19. Pero la adopción masiva y los volúmenes cada vez mayores de IA generada digitalmente están creando nuevos desafíos para las empresas y los gobiernos, y hacen que la IA responsable sea una consideración vital para garantizar no solo la precisión sino también la equidad.
Principio 1: IA robusta
Una IA robusta es una metodología de desarrollo bien definida; un uso adecuado de datos históricos, de entrenamiento y de prueba; una definición sólida del rendimiento; una selección cuidadosa de la arquitectura del modelo; y procesos para la prueba, simulación y gobernanza de la estabilidad del modelo. Es importante que toda la organización de ciencia de datos cumpla con todos estos factores y los aplique como un estándar de IA.
Principio 2: IA explicable
Las redes neuronales y otros métodos de aprendizaje automático pueden encontrar relaciones no lineales complejas en los datos, lo que genera un gran poder predictivo, un componente clave de la IA. Pero si bien las ecuaciones matemáticas de los algoritmos de aprendizaje automático de “caja negra” suelen ser sencillas, derivar una interpretación comprensible para los humanos de la solución que crean suele ser difícil. La explicabilidad del modelo debería ser el objetivo principal de las implementaciones de IA responsables.
La explicabilidad del modelo se centra en la interpretación comprensible para los humanos de las características latentes aprendidas por los modelos de aprendizaje automático y en el momento de la puntuación cuando los clientes se ven afectados por el aprendizaje automático en el sistema general de toma de decisiones de IA.
Una IA explicable debería permitir a los humanos encontrar fácilmente las respuestas a preguntas importantes, entre ellas:
- ¿Se construyó correctamente el modelo de IA?
- ¿Podría una relación inducir sesgo?
- ¿Cuáles son los riesgos de utilizar el modelo de IA?
- ¿Cuándo o bajo qué circunstancias se degrada el modelo de IA?
La última pregunta ilustra el concepto relacionado de la IA humilde, en la que los científicos de datos determinan la idoneidad del rendimiento de un modelo en diferentes situaciones o situaciones en las que no funcionará debido a la baja densidad de ejemplos en los datos de entrenamiento históricos. Necesitamos comprender mejor los modelos de IA porque cuando utilizamos las puntuaciones que produce un modelo, asumimos que la puntuación es igualmente válida para todos los clientes y todos los escenarios de puntuación. A menudo, puede que este no sea el caso, lo que puede llevar fácilmente a que se tomen todo tipo de decisiones importantes basadas en una cobertura de información muy imperfecta en los modelos de IA. La explicabilidad lo es todo.
En entornos cambiantes, en particular, las características latentes deben revisarse continuamente para detectar sesgos. En FICO, hemos desarrollado una técnica de aprendizaje automático denominada características latentes interpretables para ayudar a superar este desafío, aumentando la transparencia y la rendición de cuentas. El uso responsable de la IA incluye saber cuándo un modelo no es eficaz o incluso podría ser perjudicial.
Principio 3: IA ética
El aprendizaje automático descubre relaciones entre los datos para que se ajusten a una función (o meta) objetiva en particular. A menudo, formará indicadores de entradas evitadas, y estos indicadores pueden mostrar sesgos. Desde el punto de vista de un científico de datos, la IA ética se logra tomando precauciones para exponer lo que el modelo de aprendizaje automático subyacente ha aprendido como características latentes y probar si podrían imputar sesgos.
Un proceso de desarrollo riguroso, junto con la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben verificarse continuamente para detectar sesgos en entornos cambiantes.
Los modelos de IA éticos deben probarse y eliminarse los sesgos. Las arquitecturas de aprendizaje automático interpretables permiten extraer las relaciones no lineales que suelen estar ocultas en el funcionamiento interno de la mayoría de los modelos de aprendizaje automático. La participación humana garantiza que exista una supervisión del funcionamiento de estas características latentes, pruebas de sesgo específicas de las características latentes en todos los grupos y una metodología para prohibir los sesgos imputados descubiertos y la reconfiguración de los modelos de aprendizaje automático. Siempre es necesario tener presente que los datos con los que se entrenó el modelo de IA están implícitamente llenos de sesgos sociales.
Considere estas preguntas importantes:
- ¿Cómo está su empresa logrando una IA ética?
- ¿Qué tecnologías de IA están permitidas para su uso en su organización y cómo se probarán para garantizar su idoneidad para el mercado?
- ¿Existe actualmente un seguimiento de cada modelo de IA y, de ser así, qué se está monitoreando?
- ¿Cuáles son los umbrales preestablecidos para indicar cuándo ya no se debe utilizar un modelo de IA?
- ¿Su organización es uniformemente ética con su IA?
- ¿Su empresa coloca algunos modelos bajo el paraguas de la IA responsable (debido a que están regulados y, por lo tanto, son de alto riesgo) mientras que otros simplemente no están diseñados según el estándar de IA responsable? ¿Cómo se establecen esas líneas divisorias?
- ¿Está bien no ser responsable del desarrollo de la IA? Si es así, ¿cuándo?
Al crear modelos de IA éticos, se prueban y eliminan los sesgos y la discriminación, y se deben reevaluar continuamente cuando el modelo está en funcionamiento. Un proceso de desarrollo riguroso, junto con la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben verificarse continuamente para detectar desviaciones de sesgo
Principio 4: IA auditable
La IA auditable significa “construirla bien desde el principio”, de acuerdo con los estándares de desarrollo de modelos de IA definidos por la empresa, que se mostrarán a continuación. Los modelos deben construirse de acuerdo con un estándar de desarrollo de modelos para toda la empresa, con repositorios de código compartidos, arquitecturas de modelos aprobadas, variables sancionadas y estándares establecidos de estabilidad y pruebas de sesgo para los modelos. Esto reduce drásticamente los errores en el desarrollo de modelos que, en última instancia, quedarían expuestos de otra manera en la producción, lo que reduciría el valor comercial previsto e impactaría negativamente en los clientes.
Cuando las condiciones cambian, la IA auditable permite a los científicos de datos determinar cómo responderán las operaciones y determinar si la IA sigue siendo imparcial y confiable, o si se deben ajustar las estrategias que utilizan el modelo. La IA auditable se aplica y codifica a través de una cadena de bloques de gobernanza del desarrollo del modelo de IA construida a través de la construcción del modelo de IA real, que conserva cada detalle sobre el modelo y está disponible de inmediato en el futuro a medida que cambian los entornos de datos. La IA auditable no es un conjunto de “buenas intenciones”, sino un registro inmutable de la adhesión al estándar de desarrollo del modelo de IA, lo que permite a las organizaciones construirlo correctamente, de acuerdo con el estándar, proporcionar una prueba inmutable de seguir el estándar y permitir la producción de activos que cumplan con los requisitos de gobernanza y reglamentarios.
A medida que el mundo empresarial convencional pasa del uso teórico de la IA a la toma de decisiones a escala de producción, la IA auditable es esencial. La IA auditable hace hincapié en el establecimiento (y uso) de un estándar de desarrollo de modelos de IA claramente prescrito y en hacer cumplir que ningún modelo se lance a producción sin cumplir todos los aspectos de ese estándar de desarrollo de modelos y los requisitos.
La IA auditable hace que la IA responsable sea una realidad al crear un registro de auditoría inmutable del estándar de gobernanza de desarrollo documentado de una empresa durante la producción del modelo. Esto evita la necesidad de realizar sondeos aleatorios a posteriori una vez finalizado el desarrollo del modelo. Existen beneficios adicionales: al comprender con precisión cuándo un modelo se descarrila lo antes posible, para fallar rápidamente, las empresas pueden ahorrarse una agonía incalculable, evitando el daño a la reputación y las demandas judiciales que ocurren cuando la IA falla fuera del laboratorio de ciencia de datos.
Un manual para una IA responsable
Está claro que la comunidad empresarial está comprometida con impulsar la transformación a través de la automatización impulsada por la IA. Sin embargo, los líderes superiores y las juntas directivas deben ser conscientes de los riesgos asociados con la tecnología y las mejores prácticas para mitigarlos de manera proactiva. Las decisiones tomadas por algoritmos de IA pueden parecer insensibles y, a veces, incluso descuidadas, ya que el uso de la IA aleja el proceso de toma de decisiones de aquellos a quienes afectan las decisiones.
El equipo de IA de FICO cuenta con décadas de experiencia en el desarrollo de innovación analítica en un entorno altamente regulado. Para ayudar a nuestros clientes, desarrollamos un manual de estrategias para la IA responsable que explora:
- Uso adecuado de datos históricos de entrenamiento y pruebas
- Métricas bien definidas para un rendimiento aceptable
- Selección cuidadosa de la arquitectura del modelo
- Procesos para probar la estabilidad del modelo, interpretación, eliminación de sesgos y gobernanza.
Columna redactada porDirector de análisis de FICO. Conoce más artículos de opinión en Zoom Tecnológico.