Surmonter trois des plus grandes difficultés pour établir une meilleure relation de confiance entre les humains et les machines intelligentes

Eh bien, pour commencer, les machines devraient cesser de prétendre être aussi intelligentes.

– Kathryn Hume

Après tout ce qui a été dit sur l'intelligence artificielle (IA) qui vole nos emplois et qui planifie régner sur le monde entier, que faudra-t-il pour établir de meilleures relations de confiance entre les humains et les machines intelligentes?

En moins de dix ans, l'IA a émergé des profondeurs de la science-fiction pour s'enraciner dans notre vie quotidienne en automatisant tout, des applications de services bancaires en ligne aux véhicules autonomes qui circulent dans les ateliers des usines.

L'ascension de l'IA, qui est le fruit de la convergence de plusieurs technologies exponentielles (l'informatique en nuage, des capteurs peu coûteux, des algorithmes de pointe, les mégadonnées et une importante puissance de calcul), est vraiment remarquable – et nous n'avons qu'effleuré la surface.

Néanmoins, malgré son optimisme au sujet de l'IA, vous n'entendrez pas Kathryn Hume dire que l'intelligence artificielle est plus intelligente que les humains – du moins pas encore. « Prenons par exemple la communication. Oui, nos émotions peuvent nous freiner, mais nous communiquons aussi sur tant de niveaux à la fois, de façons que les ordinateurs n'atteindront pas avant longtemps. Je dirais que le léger toucher d'une infirmière ou le regard bienveillant jeté à un collègue dans le doute constituent des formes de communication beaucoup plus efficaces que ce qui peut être réalisé avec l'IA. Et qu'en est-il du coup de foudre? »

Mme Hume, vice-présidente, Produits et stratégie chez l'entreprise torontoise integrate.ai (en anglais seulement), saisit bien ce que sont les systèmes d'IA et ce qu'ils ne sont pas en les désignant comme de « merveilleux exemples de compétence sans compréhension qui démontrent ce qui semble être un comportement intelligent, mais qui sont dictés par de purs processus d'optimisation plutôt que par des contraintes établies ».

Bien que l'IA se soit déjà montrée efficace dans un large éventail d'applications allant du diagnostic de maladies à la négociation de titres, et plus important encore, en nous aidant à choisir quelle série regarder sur Netflix, la relation entre le public en général et les machines intelligentes ne repose pas sur des bases solides.

Voici trois conseils pour aider les machines intelligentes à améliorer leur relation avec les humains.

  1. Être plus ouverte avec nous

    Le dilemme de la « boîte noire » fait référence à la mesure dans laquelle certains systèmes d'apprentissage machine, en particulier les systèmes d'apprentissage profond, sont très mauvais pour expliquer comment ils prennent des décisions. Contrairement à la programmation fondée sur les règles, nous ne pouvons pas simplement passer en revue les lignes de code pour comprendre les actions d'une machine. Et c'est ce qui amène les gens à se sentir mal à l'aise.

    « Nous avons de la difficulté à faire confiance aux décisions prises par ces systèmes parce que nous voulons connaître leur raisonnement et la cause qui motive les actions », dit Mme Hume. « Nous pensons à la responsabilité du point de vue de la capacité d'agir et de l'intention, et nous imposons ces idées à ces systèmes. »

    « Pour nous, l'idéal serait de faire progresser nos notions et nos conceptions à l'égard de la manière de rendre nos systèmes responsables, ainsi que de renforcer nos instincts et nos réflexes à traiter des probabilités de façon à ce que nous puissions évaluer correctement l'incertitude qui se cache derrière les résultats des systèmes probabilistes. Toutefois, cela semble être un défi de taille, et non un objectif qui sera pratiquement atteint prochainement. Pour le moment, je crois que les concepteurs doivent faire plus d'efforts pour faire en sorte que les machines semblent stupides, et non intelligentes, de manière à ce que les gens continuent de tomber dans le piège de croire qu'ils font affaire avec une entité qui pense et se sent comme eux. »

  2. Nous traiter (et traiter tout le monde) de manière équitable

    « L'apprentissage machine utilise des "vecteurs" – ou des chaînes de numéros – pour coder l'information sur les ensembles de données, y compris l'information sur la façon dont deux mots se rapportent à un seul pour créer un sens ou la façon dont les pixels sur une photo s'alignent les uns à la suite des autres pour créer les images qui dégagent de la beauté à nos yeux », déclare Mme Hume. « Si cet ensemble de données comporte des traces de préjugés quant à la race ou au genre, ces traces se propageront dans la représentation du vecteur et, lorsque nous l'utiliserons dans d'autres paramètres, il appliquera les traces de son passé. » En d'autres mots, les systèmes d'IA sont d'excellents générateurs de préjugés, car ils trouvent des similarités entre les personnes et les mettent en correspondance dans des groupes, et parfois ces groupes ont des conséquences sociales de nature délicate. Par exemple, auparavant, les applications utilisant l'IA décidaient qui méritait une carte de crédit, des assurances, un prêt, ou même un emploi.

    Heureusement, les chercheurs du secteur, notamment Richard Zemel et Toni Pitassi de l'Institut Vecteur, dirigeant la recherche sur ce qu'ils appellent les « codeurs automatiques variationnels équitables » qui, selon Mme Hume, est le jargon technique pour désigner les systèmes d'IA structurés de façon à conserver le plus de pouvoir prédictif possible, tout en bloquant les renseignements sur les attributs délicats sur le plan social, comme le genre ou la race.

    « C'est un défi statistique épineux », admet Mme Hume.

  3. Nous donner de l'espace

    Et, bien sûr, les gens s'inquiètent de leur vie privée et de la manière dont les organismes pourraient utiliser leurs données de façons qui pourraient avoir des répercussions négatives sur leur vie.

    Tout en étant grandement convaincue que les organismes doivent faire ce qui est le meilleur pour la population, Mme Hume s'inquiète également que la réglementation stricte puisse étouffer l'innovation.

    « Les organismes devraient utiliser un ensemble de principes pour régir l'utilisation équitable de l'IA afin qu'ils puissent innover et tirer parti de l'incroyable potentiel qu'offre l'apprentissage machine, tout en faisant ce qui est le mieux pour la population. Les entreprises en démarrage et les technologues doivent collaborer étroitement avec la communauté politique afin de s'assurer que les décisions réglementaires portent sur les bons risques. »

    « L'innovation combinée à la technologie est tellement une puissante force créatrice », indique Mme Hume. « Elle peut donner un sens, tout comme l'art le fait. Nous devrions favoriser cette combinaison. »

Secteur/sous-secteur : 

13 février 2018

Partager

  • LinkedIn
  • Twitter
  • Facebook

Commentaire : Cette page a-t-elle été utile?

Parlez-en à un conseiller commercial


Demande d’entretien

Inscrivez-vous à notre bulletin


Ouvrez-en un maintenant

Inscrivez-vous à
notre bulletin

Le formulaire est à des fins commerciales.

Retour en haut de la page