banner

Blog

Jun 02, 2023

Le nouveau chef de l'IA de Google Cloud étudie l'IA militaire avec le fondateur de Project Maven

Lorsque la chef de Google Cloud, Diane Greene, a annoncé qu'Andrew Moore remplacerait plus tard cette année Fei-Fei Li à la tête de l'intelligence artificielle pour Google Cloud, elle a mentionné qu'il était doyen de l'école d'informatique de l'Université Carnegie Mellon et qu'il travaillait auparavant chez Google.

Ce que Greene n'a pas mentionné, c'est que Moore est également coprésident d'un groupe de travail sur l'IA créé par le Center for a New American Security (CNAS), un groupe de réflexion étroitement lié à l'armée américaine. Le coprésident de Moore au sein du groupe de travail est Robert Work, un ancien sous-secrétaire à la Défense, que le New York Times a qualifié de "force motrice derrière la création du projet Maven", l'effort de l'armée américaine pour analyser des données, telles que des images de drones, à l'aide de l'IA.

L'implication de Google dans le projet Maven a provoqué un énorme contrecoup au sein de l'entreprise plus tôt cette année, forçant le PDG Sundar Pichai à promettre que Google ne travaillerait jamais sur des armes améliorées par l'IA.

L'embauche de Moore ne manquera pas de relancer le débat sur l'implication de Google dans certains marchés de l'intelligence artificielle - l'un des domaines technologiques les plus en vogue avec un potentiel commercial énorme - et sur la relation que l'entreprise entretient avec l'armée.

Au cours de son mandat chez Carnegie Mellon, Moore a souvent discuté du rôle de l'IA dans les applications défensives et militaires, comme son discours de 2017 sur l'intelligence artificielle et la sécurité mondiale :

"Nous pourrions nous permettre, si nous le voulions et si nous en avions besoin, de surveiller à peu près le monde entier avec des drones autonomes de toutes sortes", a déclaré Moore. "Je ne dis pas que nous voudrions faire cela, mais il n'y a pas de fossé technologique là où je pense que c'est en fait trop difficile à faire. C'est maintenant pratique."

Le CNAS, l'organisation qui a formé le groupe de travail coprésidé par Moore, se concentre sur les questions de sécurité nationale et sa mission déclarée est de "développer des politiques de sécurité et de défense nationales solides, pragmatiques et fondées sur des principes qui promeuvent et protègent les intérêts et les valeurs américaines".

La décision de Google d'embaucher Moore a été accueillie avec mécontentement par au moins un ancien Googleur qui s'est opposé au projet Maven.

"Il est inquiétant de constater après la dissidence interne généralisée contre Maven que Google embaucherait Andrew Moore", a déclaré un ancien employé de Google. "Les Googleurs veulent moins d'alignement avec le complexe militaro-industriel, pas plus. Cette embauche est comme un coup de poing au visage des plus de 4 000 Googleurs qui ont signé la lettre Cancel Maven."

Un porte-parole de Google a refusé de commenter.

Moore, qui est né au Royaume-Uni mais est depuis devenu citoyen américain, a souvent parlé de la nécessité de faire preuve de prudence pour sortir l'IA du laboratoire et l'introduire dans le monde réel. Lorsque le groupe de travail du CNAS a été annoncé en mars, Moore a souligné l'importance de "s'assurer que ces systèmes fonctionnent avec les humains d'une manière qui responsabilise l'humain, ne remplace pas l'humain, et qui garde l'autorité de décision ultime avec l'humain".

Et sur un récent podcast du CNAS, il a décrit ce qu'il a appelé sa vision "conservatrice" de l'IA dans le monde réel : "Même si je savais que, par exemple, le lancement d'une flotte de véhicules autonomes dans une ville réduirait les décès de 50 %, je ne voudrais pas le lancer jusqu'à ce que je tombe sur des preuves formelles d'exactitude, ce qui m'a montré qu'il n'allait absolument pas être impliqué dans des décès inutiles."

Pourtant, il n'a pas hésité à traiter avec le secteur militaire.

La biographie de Carnegie Mellon de Moore mentionne des travaux passés impliquant "la détection et la surveillance des menaces terroristes", et il est répertorié comme contributeur à la recherche factuelle dans un rapport consultatif de recherche navale de septembre 2017 sur "Les systèmes autonomes et sans pilote au sein du département de la Marine".

Lire la suite: Une réunion interne tendue entre le PDG de Google, Sundar Pichai, et les employés s'est déroulée de travers alors que les dirigeants traitaient des rumeurs sur les plans de l'entreprise en Chine

Lors de la conférence de 2017 sur la sécurité mondiale, il a évoqué la possibilité d'intégrer des assistants personnels numériques, tels que ceux utilisés dans les gadgets grand public fabriqués par Google et Amazon, dans des applications militaires. "Il y a une question ouverte quant à savoir si, quand et comment nous pouvons développer des assistants personnels pour les combattants et les commandants afin d'avoir cet ensemble complet d'informations qui aide à éliminer le" brouillard de la guerre ", sans les gêner avec trop d'informations", a-t-il déclaré.

Google a embauché Moore pour superviser les efforts d'IA au sein de Google Cloud, l'unité qui offre les services de cloud computing populaires de Google, tels que le stockage de données, l'informatique et l'apprentissage automatique. Il remplace Li, qui a repris son poste de professeur à Stanford.

Son embauche intervient alors que Google tente de dépasser la controverse qui a éclaté lorsque l'implication de l'entreprise dans Project Maven a été connue.

Plus tôt cette année, lorsqu'il a été annoncé que Google aidait l'armée à analyser des images de drones, des milliers d'employés de Google ont signé une pétition exigeant que la direction mette fin à l'implication de l'entreprise. D'autres ont refusé de travailler sur le projet ou ont divulgué des documents aux journalistes, ce qui s'est avéré embarrassant pour la direction. Une dizaine d'employés ont démissionné en signe de protestation.

En juin, le PDG de Google, Pichai, a semblé céder à leurs demandes. Il a publié une liste de sept principes qui guideraient le développement de l'IA par l'entreprise. Ils incluaient de ne jamais construire d'armes améliorées par l'IA et de s'assurer que l'IA est appliquée à des applications socialement bénéfiques, sûres et ne créeront pas de préjugés injustes. L'entreprise n'a pas exclu de travailler avec les militaires sur des services qui ne violent pas les principes, comme l'e-mail ou le stockage de données par exemple.

Le sentiment de beaucoup de ceux qui s'opposaient à Maven au sein de Google était que l'entreprise ne devrait en aucun cas être impliquée dans l'armée. Et pour au moins certains membres du personnel de Google qui ont participé à la manifestation Maven – ainsi que pour d'anciens employés sympathiques à leur cause – l'embauche de Moore soulèvera des questions sur l'engagement de Google envers ces principes d'IA.

Moore lui-même a reconnu les dangers potentiels de l'IA militarisée.

"Tout comme c'est une bonne chose que nous puissions faire de l'IA si rapidement", a-t-il déclaré lors de la conférence de 2017, l'IA est également une "menace".

"Tout comme l'un de nos étudiants diplômés de génie peut trouver quelque chose rapidement, quelqu'un de moins désirable peut le faire. Et nous devons être prêts pour cela dans ce que nous faisons", a-t-il déclaré.

Articles sur les drones en vedette : - Lois sur les drones et réglementations de la FAA - Utilisations de la technologie des drones - Principaux fabricants de drones et stocks dans lesquels investir - Services de livraison de drones - Comment démarrer une entreprise de drones - Analyse du marché des drones commerciaux - Agriculture intelligente et drones agricoles

Lire la suite

Lire la suite

Lire la suite: Une réunion interne tendue entre le PDG de Google, Sundar Pichai, et les employés s'est déroulée de travers alors que les dirigeants traitaient des rumeurs sur les plans de l'entreprise en Chine
PARTAGER