A l’heure où les progrès de l’intelligence artificielle se révèlent être de plus en plus rapides – comme l’a montré cette année la victoire de Google dans le domaine du jeu de Go, alors que quelques mois plus tôt on pensait cette victoire encore lointaine -, Alphabet, Amazon, Facebook, IBM et Microsoft se sont rencontrés pour discuter de l’impact de l’intelligence artificielle dans le domaine du travail, des transports et de la guerre. Reste que rien n’a percé de ces discussions hormis l’intention : veiller à ce que la recherche en IA se concentre sur le bénéfice aux personnes, pas le contraire (des discussions industrielles « discrètes »… peu transparentes ou démocratiques, qui rappellent celles qui ont eu lieu récemment sur la question de la reconnaissance faciale).
Parallèllement, un groupe de travail réuni par l’université de Stanford sous la houlette d’Eric Horvitz, chercheur chez Microsoft, vient de publier un premier rapport sur le sujet visant à établir pour l’industrie un cadre pour le développement de ces technologies, à l’heure où les régulateurs s’y intéressent de plus en plus.
Le rapport intitulé « L’intelligence artificielle et la vie en 2030 » estime que réglementer l’IA en général serait une approche erronée, car il n’y a pas de définition claire de l’IA et que les risques sont très différents selon le domaine où celle-ci travaille.
Le rapport s’attache à définir l’IA et à regarder les tendances par grands domaines comme le transport, la santé, l’éducation, le loisir… Il termine par des recommandations en matière de politique publique qui proposent que :
- les politiques publiques améliorent leur expertise de ces technologies ;
- qu’elles suppriment les obstacles à la recherche dans les domaines de l’équité, la sécurité, la vie privée et l’impact social de l’IA ;
- augmente le financement des études interdisciplinaires sur les impacts sociaux de l’IA.
La lecture du rapport donne surtout l’impression que l’industrie cherche à éloigner l’impact réglementaire qui la menace, et ce alors que les politiques publiques s’intéressent de plus en plus à ces sujets.
Récemment, Christopher Hart, de l’autorité de régulation des transports américaine, expliquait dans la Technology Review que le gouvernement fédéral devait édicter des règles et des normes de sécurité pour les voitures autonomes. Mais comme le remarque Ryan Calo, qui plaidait pour la création d’une agence fédérale pour répondre aux défis politiques de l’IA, il est probable qu’il soit difficile de traduire les discussions éthiques théoriques en règles pratiques dans la conception des systèmes. Veut-on déployer des véhicules qui empêcheront certainement de nombreux accidents, mais qui seront aussi capables de faire des erreurs mortelles qu’aucun humain ne ferait, comme de prendre la décision de renverser une poussette plutôt qu’un caddie sans savoir la différence entre l’un et l’autre.
Markoff évoque également des discussions entre le Media Lab du MIT et Linked-in pour le développement d’un projet explorant les effets sociaux et économiques de l’intelligence artificielle. Le MIT a récemment lancé une « machine morale », une plateforme permettant d’évaluer l’acceptabilité des choix que pourraient avoir à prendre les voitures autonomes. Une manière de prendre le pouls de ce que nous jugeons moral ou pas, face à des questions décisionnelles de plus en plus complexes.
Hubert Guillaud
Article publié sur le site : http://www.internetactu.net/a-lire-ailleurs/vers-une-ethique-pour-lintelligence-artificielle/