Le directeur du renseignement national publie six principes pour l’IA éthique

Le directeur du renseignement national publie six principes pour l’IA éthique



Les agences de renseignement américaines ont publié six principes pour l’utilisation éthique de l’IA, mettant l’accent sur la transparence, l’équité et la sécurité. (GETTY IMAGES)

Par AI Trends Staff

Cette semaine, le Bureau du directeur du renseignement national (ODNI) a publié le premier d’un ensemble de principes en évolution pour l’utilisation éthique de l’IA. Les six principes, allant de la confidentialité à la transparence en passant par la cybersécurité, ont été décrits comme la version 1.0 et ont été approuvés par John Ratcliffe, directeur du renseignement national.

Les six principes sont positionnés comme un guide pour les 17 agences de renseignement du pays, en particulier pour les aider à travailler avec des entreprises privées engagées pour aider le gouvernement à construire des systèmes intégrant l’IA, selon un compte rendu dans Breaking Defense. Les principes des agences de renseignement complètent les principes d’IA adoptés par le Pentagone plus tôt cette année.

«Ces principes d’éthique de l’IA ne diminuent pas notre capacité à réaliser notre mission de sécurité nationale», a déclaré Ben Huebner, chef du Bureau des libertés civiles, de la confidentialité et de la transparence chez ODNI. «Au contraire, ils nous aident à nous assurer que notre IA ou l’utilisation de l’intelligence artificielle fournissent des renseignements impartiaux, objectifs et exploitables que les décideurs politiques exigent que c’est fondamentalement notre mission.»

Ben Huebner, chef du Bureau des libertés civiles, de la vie privée et de la transparence, ODNI

Les commentaires sur le principe de l’intelligence artificielle de la communauté du renseignement sont les bienvenus, disent ses responsables. «Nous accueillons absolument les commentaires et les réactions du public à ce sujet», a déclaré Huebner, notant qu’il y aura un moyen de recueillir des commentaires du public sur Intel.gov. «Il ne fait aucun doute qu’il y a des aspects de ce que nous faisons qui sont et restent confidentiels. Je pense cependant que ce que nous pouvons faire, c’est parler en termes généraux de certaines choses que nous faisons.

Dean Souleles, conseiller technologique en chef pour ODNI, a déclaré que «la science de l’IA n’est pas encore achevée à 100%», mais les documents d’éthique donnent aux responsables du renseignement une feuille de route actuelle sur la meilleure façon d’utiliser cette technologie émergente.

«Il est trop tôt pour définir une longue liste de choses à faire et à ne pas faire. Nous devons comprendre comment cette technologie fonctionne, nous devons passer notre temps dans le cadre et les lignes directrices que nous publions pour nous assurer que nous respectons les lignes directrices. Mais c’est un train très, très rapide avec cette technologie », a déclaré Souleles, dans un compte rendu dans Réseau d’information fédéral.

Les commentaires sont les bienvenus

La communauté du renseignement s’attend à publier des mises à jour de ses documents d’IA au fur et à mesure que la technologie évolue et qu’elle répond aux questions. L’une des questions examinées par les agences de renseignement est: quel est le rôle de «l’humain dans la boucle», dans le langage du DoD. Par exemple, si une application voix-texte a été formée à un dialecte d’une région du monde, même s’il s’agit de la même langue, quelle est sa précision? «C’est quelque chose que je dois savoir», a déclaré Huebner.

Le retour d’information aux agences de renseignement sur leurs principes d’IA proviendra probablement d’exemples dans le secteur privé. «Nous pensons qu’il y a un grand chevauchement entre ce dont la communauté du renseignement a besoin et, franchement, ce dont le secteur privé a besoin sur lequel nous pouvons et devrions travailler ensemble», a déclaré Souleles.

Dean Souleles, conseiller technologique en chef, ODNI

Par exemple, en essayant d’identifier la source d’une menace, des exemples provenant des entreprises pourraient être utiles à la communauté du renseignement, ce qui est à la fois rassurant et inquiétant.

«Il y a de nombreux domaines dont nous allons pouvoir parler à l’avenir, où il y a des chevauchements qui n’exposent pas nos sources et méthodes classifiées», a déclaré Souleles, «parce que beaucoup, beaucoup, beaucoup de ces choses sont des problèmes vraiment courants. « 

Une préoccupation majeure de l’IA, peu importe qui la développe, est le biais dans les algorithmes, selon un compte rendu dans C4Isrnet. Le cadre suggère des étapes à suivre par les praticiens pour découvrir les biais indésirables qui peuvent entrer dans les algorithmes tout au long du cycle de vie d’un programme d’IA.

«L’important pour les analystes du renseignement est de comprendre les sources des données dont nous disposons, les biais inhérents à ces données, puis de pouvoir tirer leurs conclusions en se basant sur la compréhension de cela», a déclaré Souleles. «Et ce n’est pas substantiellement différent de la mission principale du renseignement. Nous faisons toujours face à l’incertitude. »

Voici les six principes, dans les propres mots du document:

Respectez la loi et agissez avec intégrité. Nous utiliserons l’IA d’une manière qui respecte la dignité humaine, les droits et les libertés. Notre utilisation de l’IA sera pleinement conforme aux autorités légales applicables et aux politiques et procédures qui protègent la vie privée, les droits civils et les libertés civiles.

Transparent et responsable. Nous fournirons une transparence appropriée au public et à nos clients concernant nos méthodes, applications et utilisations d’IA dans les limites de la sécurité, de la technologie et de la divulgation par la loi et la politique, et conformément aux principes de transparence du renseignement pour l’IC. Nous développerons et utiliserons des mécanismes pour identifier les responsabilités et rendre compte de l’utilisation de l’IA et de ses résultats.

Objectif et équitable. Conformément à notre engagement à fournir des renseignements objectifs, nous prendrons des mesures positives pour identifier et atténuer les préjugés.

Développement et utilisation centrés sur l’humain. Nous développerons et utiliserons l’IA pour augmenter notre sécurité nationale et renforcer nos partenariats de confiance en tempérant les conseils technologiques avec l’application du jugement humain, en particulier lorsqu’une action a le potentiel de priver des individus de droits constitutionnels ou d’interférer avec leur libre exercice des libertés civiles.

Sûr et résilient. Nous développerons et utiliserons les meilleures pratiques pour maximiser la fiabilité, la sécurité et la précision de la conception, du développement et de l’utilisation de l’IA. Nous utiliserons les meilleures pratiques de sécurité pour renforcer la résilience et minimiser le potentiel d’influence contradictoire.

Informé par la science et la technologie. Nous appliquerons la rigueur dans notre développement et notre utilisation de l’IA en nous engageant activement à la fois dans l’IC et avec les communautés scientifiques et technologiques plus larges pour utiliser les progrès de la recherche et les meilleures pratiques du secteur public et privé.

Lisez les articles sources dans Breaking Defense, Federal News Network et C4Isrnet. Lisez les principes d’IA de la communauté du renseignement sur Intel.gov.

Jean-Michel

Ingénieur informatique de métier, passionné par l'informatique et le gaming et oui il n'y a pas que les jeunes qui peuvent aimer le gaming ... :)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *