Home Tecnología Google Now cree que está bien usar IA para armas y vigilancia

Google Now cree que está bien usar IA para armas y vigilancia

109
0

Google ha realizado uno de los cambios más sustantivos en su Principios de IA Desde que los publicaron por primera vez en 2018. En un cambio manchado por The Washington Postel gigante de la búsqueda editó el documento para eliminar las promesas que había hecho prometedor que no “diseñaría o implementaría” herramientas de IA para usar en armas o tecnología de vigilancia. Anteriormente, esas pautas incluían una sección titulada “Aplicaciones que no buscaremos”, que no está presente en la versión precise del documento.

En cambio, ahora hay una sección titulada “Desarrollo y despliegue responsables”. Allí, Google cube que implementará “supervisión humana apropiada, diligencia debida y mecanismos de retroalimentación para alinearse con los objetivos del usuario, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos”.

Ese es un compromiso mucho más amplio que los específicos que la compañía hizo tan recientemente como a fines del mes pasado, cuando la versión anterior de sus principios de IA todavía estaba en vivo en su sitio internet. Por ejemplo, en lo que respecta a las armas, la compañía dijo anteriormente que no diseñaría IA para su uso en “armas u otras tecnologías cuyo propósito o implementación principal es causar o facilitar directamente lesiones a las personas”. En cuanto a las herramientas de vigilancia de IA, la compañía dijo que no desarrollaría tecnología que viola “normas aceptadas internacionalmente”.

Una captura de pantalla que muestra la versión anterior de los principios de IA de Google.

Google

Cuando se le pidió comentarios, un portavoz de Google señaló a Engadget a un blog La compañía publicó el jueves. En TI, el CEO de Deepmind, Demis Hassabis y James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad en Google, dicen que la aparición de AI como una “tecnología de uso normal” requería un cambio de política.

“Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deben trabajar juntos para crear IA que proteja a las personas, promueve international Crecimiento y apoya la seguridad nacional “, escribieron los dos. “… guiados por nuestros principios de IA, continuaremos centrándonos en la investigación y las aplicaciones de IA que se alinean con nuestra misión, nuestro enfoque científico y nuestras áreas de especialización, y mantenemos consistentes con los principios ampliamente aceptados del derecho internacional y los derechos humanos, siempre evaluando Trabajo específico evaluando cuidadosamente si los beneficios superan sustancialmente los riesgos potenciales “.

Cuando Google publicó por primera vez sus principios de IA en 2018, lo hizo después del Proyecto Maven. Period un contrato gubernamental controvertido que, si Google hubiera decidido renovarlo, habría visto a la compañía proporcionar software program de IA al Departamento de Defensa para analizar imágenes de drones. Docenas de empleados de Google abandonan la empresa en protesta del contrato, con miles más firmando una petición en oposición. Cuando Google finalmente publicó sus nuevas directrices, el CEO Sundar Pichai le dijo al private que su esperanza period que soportarían “la prueba del tiempo”.

Sin embargo, para 2021, Google comenzó a perseguir contratos militares nuevamente, con lo que, según los informes, period una oferta “agresiva” para el contrato de nubes de capacidad de la nube de guerra conjunta del Pentágono. A principios de este año The Washington Publish informó que los empleados de Google habían trabajado repetidamente con el Ministerio de Defensa de Israel para expandir el uso del gobierno de herramientas de IA.

fuente