Google cambia sus principios IA para eliminar los límites a su uso en armas o vigilancia
Elimina el apartado en el que se prometía que no "diseñaría ni implementaría" herramientas de IA para su uso en armas o en tecnología de vigilancia.
Google, víctima colateral en el capítulo chino de la guerra comercial de Trump
Google actualizó sus guías éticas en el uso de la inteligencia artificial (IA) y excluyó el compromiso de no aplicar esta tecnología en aplicaciones relacionadas con armas o vigilancia que violen normas internacionales o sean contrarias a los derechos.
La redacción anterior de sus Principios IA, disponible hasta la semana pasada y que se puede consultar en Internet Archive, incluía aplicaciones que evitaría utilizar como "tecnologías que causan o es probable que causen daño general", incluidas las armas, en línea con principios internacionales en derechos humanos.
Medios como The Washington Post, que se han puesto en contacto con Google para aclarar esta modificación, no han recibido respuesta por parte de la compañía, aunque ésta publicó poco después un comunicado titulado IA responsable.
Los cambios y la nueva visión de la compañía sobre sus principios de la IA fueron explicados en el blog de la multinacional en un escrito firmado por el jefe de IA de Google y cofundador de Google DeepMind, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika.
Hacia el final de este escrito, ambos hacen referencia a la "actualización de los principios de IA", aunque sin señalar que han eliminado el apartado en el que se prometía que no "diseñaría ni implementaría" herramientas de IA para su uso en armas o en tecnología de vigilancia.
Los nuevos principios de Google
Los directivos han anunciado que sus principios de IA ahora se organizan en tres vertientes. La primera de ellas, la innovación audaz de la IA, en un escenario "donde los beneficios generales superen sustancialmente los riesgos previsibles".
Asimismo, la tecnológica tiene como principio de la IA el desarrollo y despliegue responsables, con la implementación de mecanismos de supervisión humana y el apoyo de una retroalimentación destinada a alinearse con los objetivos de los usuarios bajo "principios ampliamente aceptados del derecho internacional y los derechos humanos".
Con ello, ha dicho que aboga por el proceso colaborativo en la creación de herramientas que permitan a los usuarios obtener beneficio individual y colectivo. Para ello, se ha comprometido a impulsar la innovación en diferentes campos para "fomentar un ecosistema vibrante que empodere a otros para crear herramientas y soluciones innovadoras y contribuir al progreso en el campo".
Google ha señalado finalmente que continuará enfocándose en la investigación y las aplicaciones de IA que se alinean con su misión, su enfoque científico y sus tareas de especialización. Asimismo, ha puntualizado que identifica y evalúa los riesgos de la IA a través de la investigación y las aportaciones de expertos externos.
Un nuevo marco de valores
Google considera que "las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos", indica el documento.
"Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional", agrega.
La nueva actualización incluirá en este sentido disposiciones como que la empresa recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios "ampliamente aceptados del derecho internacional y los derechos humanos".
También te puede interesar