Réflexions sur l’éthique de l’intelligence artificielle
Nous n'avons pas à nous inquiéter de voir des robots armés terroriser les villes américaines, mais il y a de sérieux problèmes éthiques et sociétaux auxquels nous devons faire face rapidement - parce que la prochaine vague de puissance de calcul arrive, avec le potentiel de modifier radicalement - et d'améliorer - l'expérience humaine.
Grâce à la capacité sans fil à haut débit et aux progrès rapides de l'apprentissage machine, de nouvelles applications de l'intelligence artificielle sont créées chaque jour. Pour les technologues, il s'agit d'une nouvelle frontière passionnante. Mais pour le reste d'entre nous, nous avons raison de poser quelques questions. Pour profiter pleinement des avantages de l'intelligence artificielle, il faut que les gens lui fassent confiance.
Les gouvernements du monde entier ont commencé à explorer ces questions. Les États-Unis ont récemment dévoilé un ensemble de principes réglementaires pour l'IA lors du salon annuel de l'électronique grand public à Las Vegas. Et Michael Kratsios, directeur de la technologie aux États-Unis, a parlé sur la scène du CES de l'importance d'établir la confiance dans l'IA. Mais qu'est-ce que cela signifie réellement ?
L'IA est déjà là d'une manière que beaucoup ne réalisent même pas, de la façon dont nous recevons nos nouvelles, à la façon dont nous combattons les cyberattaques, à la façon dont les caméras des téléphones portables affinent notre identité. À terme, l'IA permettra des percées médicales qui sauveront des vies, une agriculture plus durable et la circulation autonome des personnes et des produits. Mais pour y parvenir, nous devons d'abord nous attaquer à d'importants problèmes de société liés aux préjugés, à la transparence et aux énormes quantités de données qui alimentent l'IA. Les citoyens doivent pouvoir être sûrs que l'IA est mise en œuvre de manière appropriée dans tous ces domaines.
Alors que les entreprises de recherche et de médias sociaux sont confrontées à un " techlash " dans le monde entier, nous devrions tirer les leçons du débat actuel sur la protection de la vie privée et nous attaquer à ces questions en amont, avant que l'IA ne soit pleinement enracinée.
Nous devons adopter un ensemble de normes de comportement élevées qui favorisent la confiance et garantissent que l'éthique est intégrée au cœur de la technologie, de la même manière que la sécurité et la confidentialité des données sont aujourd'hui au cœur de notre ingénierie.
Toute définition de normes dans ce domaine doit être ancrée dans la compréhension du fait que les données sont le moteur de l'IA. L'apport continu d'informations est ce qui alimente l'apprentissage machine, et les outils d'IA les plus puissants en exigent des quantités massives. Cela soulève bien sûr des questions sur la façon dont ces données sont recueillies, utilisées et sauvegardées.
L'une des questions les plus difficiles que nous devons aborder est de savoir comment surmonter les biais, en particulier ceux qui sont involontaires. Examinons une application potentielle de l'IA : la justice pénale. En éliminant les préjugés qui contribuent aux disparités raciales et démographiques, nous pouvons créer des systèmes qui produisent des normes de détermination de la peine plus uniformes. Cependant, la programmation d'un tel système nécessite encore la pondération d'innombrables facteurs pour déterminer les résultats appropriés. C'est un humain qui doit programmer l'IA, et la vision du monde d'une personne déterminera la façon dont elle programmera les machines pour apprendre. Ce n'est qu'une des raisons pour lesquelles les entreprises qui développent l'IA doivent tenir compte de la diversité de la main-d'œuvre et mettre en place des pratiques exemplaires et un contrôle des préjugés intentionnels et inhérents.
Cela nous ramène à la transparence.
Un ordinateur peut prendre une décision très complexe en un instant, mais aurons-nous la certitude qu'il en prend une juste ?
Qu'une machine détermine une peine d'emprisonnement, approuve un prêt ou décide qui est admis dans un collège, comment expliquer comment ces choix ont été faits ? Et comment nous assurer que les facteurs qui ont servi à élaborer cet algorithme sont compréhensibles pour le citoyen moyen ?
Si nous voulons donner aux machines la capacité de prendre des décisions qui changent la vie, nous devons mettre en place des structures qui permettent de tirer le rideau et de révéler les décisions qui se cachent derrière les résultats, en assurant la transparence et en rassurant.
La réalité est que si le secteur privé ne s'occupe pas de ces questions maintenant, un gouvernement finira par le faire. Mais avec le rythme rapide de l'innovation en matière d'apprentissage machine, la réglementation aura toujours du mal à suivre le rythme. C'est pourquoi les entreprises et les organismes sans but lucratif doivent prendre les devants en établissant des normes élevées qui favorisent la confiance et en s'assurant que leur personnel suit une formation professionnelle obligatoire dans le domaine de l'éthique de l'IA. Il est essentiel que toute personne travaillant dans ce domaine dispose d'une base solide sur ces questions à enjeux élevés.
Nous sommes loin d'être des machines qui apprennent comme le font les humains, mais l'IA contribue déjà à la société. Et sous toutes ses formes, l'IA a le potentiel d'augmenter positivement l'expérience humaine et de contribuer à un niveau de prospérité et de productivité sans précédent. Mais le développement et l'adoption de l'IA doivent être bien faits, et ils doivent être construits sur une base de confiance.