La compañía justifica la modificación como necesaria para proteger los principios de la democracia
Altos ejecutivos de Google defendieron un cambio en su política de ética de IA que permite el uso de su tecnología en aplicaciones militares. Este cambio, afirman, es crucial para la defensa de los principios democráticos.
El cambio en la política de ética de IA de Google tiene implicaciones importantes. Aunque enfocado en seguridad nacional, plantea nuevos riesgos y preocupaciones sobre el uso de IA en aplicaciones nefastas.
Actualización de los Principios de IA
Varias fuentes de noticias, como Bloomberg y BBC News, señalaron que los nuevos Principios de IA de Google omiten mencionar el uso de la tecnología para fines dañinos, incluidos el desarrollo de armas o la vigilancia. Anteriormente, desde 2018, Google se había comprometido a evitar el uso de su IA en formas “probables de causar” daño.
Justificaciones de Google
En un blog, James Manyika, SVP de Investigación en Google, y Demis Hassabis, CEO de Google DeepMind, defendieron el cambio. Reconocieron que las capacidades emergentes de la IA pueden presentar nuevos riesgos, pero subrayaron la necesidad de adaptarse dado que la tecnología se utiliza ahora de manera tan extendida como los teléfonos móviles e internet.
Colaboración y Seguridad Nacional
Los ejecutivos de Google argumentaron que gobiernos, empresas y otras organizaciones deben colaborar para desarrollar principios que promuevan la seguridad nacional. Esta colaboración es vista como esencial frente a los riesgos emergentes y la evolución constante de la IA.
Preocupaciones y Críticas
Expertos citados por Bloomberg advirtieron que los nuevos principios de gobernanza de Google probablemente llevarán a que la IA se utilice de maneras más nefastas. Además, este cambio ocurre en un contexto de endurecimiento de actitudes entre los grandes jugadores tecnológicos, incluyendo la eliminación de programas de verificación de hechos y de diversidad.
Fuente: macrumors.com