El Grupo de los Siete países industrializados, formado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido, acordó un código de conducta para que las empresas desarrollen sistemas avanzados de inteligencia artificial.
El documento del G7 incorpora el código de conducta cuando los gobiernos están tratando de mitigar los riesgos y el posible uso indebido de esta tecnología.
Si bien, la semana pasada se conocía la noticia de que OpenAI, la desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o DALL·E, había formado un equipo de trabajo interno para estudiar y tratar de aplacar los riesgos “catastróficos” que puede entrañar la utilización de estas tecnologías.
Y es que según OpenAI, algunas de esas amenazas representan áreas de máxima preocupación, ya que pueden llegar a ser “químicas, biológicas, radiológicas y nucleares“.
Código de conducta para uso de IA
Los líderes de las economías del Grupo de los Siete (G7), así como la Unión Europea, iniciaron el proceso en mayo en un foro ministerial denominado “Proceso de Hiroshima sobre IA”, integrando en sus acciones un código de conducta.
El código de conducta tiene 11 puntos y “pretende promover una IA segura y fiable en todo el mundo y proporcionará orientación voluntaria para las acciones de las organizaciones que desarrollen los sistemas de IA más avanzados, incluidos los modelos fundacionales y los sistemas generativos de IA más avanzados”, dice el documento del G7.
De hecho, el objetivo del código de conducta es “ayudar a aprovechar los beneficios y hacer frente a los riesgos y retos que plantean estas tecnologías”.
El código de conducta insta a las empresas a tomar las medidas adecuadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, así como a abordar los incidentes y patrones de uso indebido una vez que los productos de IA se han comercializado.
En línea con estas accciones las empresas deberán publicar informes sobre las capacidades, las limitaciones y el uso y mal uso de los sistemas de IA, y también invertir en sólidos controles de seguridad.