Google actualizó su política de privacidad y prohibió el uso de la IA en armamento
¿Cuál es el impacto de prohibir la IA en armamento?

Google ha eliminado una cláusula clave que prohibía el uso de la inteligencia artificial para desarrollar armas o la IA en armamento o aplicado en el sistemas de vigilancia que excedieran las normas internacionales. Este cambio significativo marca un rotundo cambio en los principios que la compañía habría establecido previamente al desarrollo y la implementación de esta tecnología.
Según la información que obtuvo CNN a través de The Wayback Machine, la anterior versión de los principios de ética del gigante tecnológico incluía una lista de aplicaciones que la empresa se comprometía a no desarrollar. Entre ellas se encontraban IA en armamento y cualquier herramienta o artefacto diseñado para causar daño a los seres humanos.
El avance de la IA en armamento, un factor fundamental
Google ha tomado esta decisión teniendo en cuenta la rápida evolución de la inteligencia artificial, impulsado en gran parte por el lanzamiento de herramientas como el chatbot ChatGPT de OpenAI en 2022.
Según detalló CNN, la IA ha avanzado a un ritmo acelerado, mientras que las regulaciones de las mismas para garantizar la transparencia no han seguido la misma línea. Por lo tanto, el gigante tecnológico ha decidido tomar cartas en el asunto sobre todo en la IA en armamento.
James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad de Google, y Demis Hassabis, director ejecutivo y cofundador de Google DeepMind, abordaron el panorama actual de la IA en un blog que se publicó recientemente.
Según explicaron, los marcos regulatorios establecidos por países democráticos han ayudado a Google a comprender la inteligencia artificial, pero también han advertido sobre los riesgos de esta nueva tecnología.
«Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos», señalaron Manyika y Hassabis.
Además, mencionan la importancia de distintos países de tener un control y dominio dentro de un dominio geológico más complejo.
Con esta nueva regulación en IA en armamento, el gigante tecnológico podría ser visto como un intento de mantenerse competitivo en un mercado donde las compañías de distintas partes del mundo compiten para liderar la innovación de la inteligencia artificial. Al mismo tiempo, se generan preguntas sobre cómo las compañías tecnológicas equilibran la innovación con la responsabilidad ética y social en el uso cotidiano de los seres humanos con el uso diario de la IA.
La IA como función principal de la seguridad de las personas
En el documento difundido por Google, explican que con ayuda de la inteligencia artificial, entes gubernamentales y compañías deben garantizar la seguridad de los seres humanos.
«Creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional«.
Además, la nueva actualización permitirá que las empresas recurran al control humano y que la tecnología se emplee en función de los principios «ampliamente aceptados del derecho internacional y los derechos humanos».
En esa misma línea, Google considera que «las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos».