Google liste cinq problèmes de sécurité pour l’IA

Éviter des problèmes de sécurité

On en parlait il y a quelques jours, l’introduction de l’intelligence artificielle dans le quotidien de l’Homme pourrait entrainer des dérives et une certaine forme d’acquisition d’autonomie dû au machine learning. Si Google travaille bel et bien sur un processus visant à disposer d’un arrêt d’urgence de la machine, le géant américain a récemment publié un article scientifique listant les cinq principaux problèmes de sécurité que posent l’intelligence artificielle.

deepmind-ga

Si bien trop souvent la science-fiction a illustré l’évolution de la machine sous la forme d’une entité puissante et au dessus de l’Homme, certains films tel que Her sorti en 2013 de Spike Jonze ont plutôt abordé cette problématique comme l’abandon de l’Homme par la machine. Quoiqu’il en soit, Google semble privilégier la première hypothèse et dresse une liste de problèmes que pourrait rencontrer l’Homme si l’intelligence artificielle reposant sur du machine-learning n’était pas en adéquation avec ce qu’il se passe dans le monde réel.

  • Avoiding Negative Side Effects : il s’agit probablement ici du problème le plus commun. À savoir éviter les effets secondaires négatifs. Dans la réalité, cela se traduit par la faculté de la machine à prendre en compte les nuisances externes. Par exemple, un robot nettoyeur pourrait percuter ce qui se trouve sur son passage alors qu’il n’a fait que respecter une règle pour atteindre son objectif le plus rapidement possible. La solution serait, afin d’éviter ce désagrément, d’infliger des pénalités à l’IA qui lui permettrait de pondérer et ré-évaluer son futur déplacement.
  • Avoiding Reward Hacking : l’accomplissement de l’objectif est pour la machine la récompense ultime. Mais il ne faut pas que cela devienne un jeu pour elle et qu’elle triche ou saute des étapes pour y parvenir. Pour rester sur l’exemple précédent, le robot pourrait simplement cacher la poussière sous le tapis et considérer la tâche comme réussie. L’idée serait ici d’empêcher le programme de comprendre parfaitement comment obtenir la récompense.
  • Scalable Oversight : plus l’objectif à atteindre est complexe et plus la machine doit valider des étapes. Ce qui implique la validation de ces dernières auprès de l’humain. Afin d’éviter cela, il faudrait simplifier au maximum les étapes liées à une mission. Par exemple : pour nettoyer et ranger la cuisine, la machine pourrait demander que faire de la casserole posée sur le feu. L’idée est donc d’aller à l’essentiel sans que la machine n’aie systématiquement besoin de déranger l’humain.
  • Safe Exploration : quel est le degré d’autonomie que l’on peut accorder à l’intelligence artificielle ? De quelle liberté doit-elle disposer pour apprendre de son environnement ? L’apprentissage par la machine passe par la mise en place de patterns de données qui selon le résultat échec/succès, lui permet d’acquérir de la compétence. Pour autant, il ne doit pas se mettre en danger, comme par exemple passer une éponge humide dans une prise au risque d’être court-circuité. L’idée serait donc de former l’intelligence artificielle dans des environnements simulés dans lesquels les actions dangereuses n’auraient pas de conséquences directes sur elle.
  • Robustness to Distributional Shift : le dernier problème est relatif à la faculté à s’adapter à des changements. Par exemple, si le robot apprend à laver un sol d’usine, il ne doit pas utiliser la même méthode/produits pour laver le sol d’un bureau.

Bien sur, dans ces cinq points soulevés par Google, la plupart des solutions est présente avec des moyens techniques que nous disposons déjà. Toutefois il est important d’aborder ces aspects et surtout les prendre en compte avant que le développement de l’intelligence artificielle ne gagne trop en puissance.

Via : futura-sciences