Brève introduction au monde de l’intelligence artificielle

, par Grischa Alexander Beißner, traduit par Julien Piron

Toutes les versions de cet article : [Deutsch] [français]

Brève introduction au monde de l'intelligence artificielle
Dans le livre « Avogadro Corp » de William Hertling, une intelligence artificielle faible, initialement conçue pour un programme avancé de gestion de courriels, acquiert une autonomie complète. Loin des Skynet de Terminator et des Cylons, décidés à exterminer l’humanité et dont le récit est ancré dans un avenir lointain, l’action se déroule ici à notre époque. Photo : Unsplash / Rock’n Roll Monkey / Unsplash License

Après les élections européennes de mai, les nouveaux eurodéputés devront se positionner sur une question importante : l’intelligence artificielle (IA). C’est pourquoi nous lançons aujourd’hui un dossier thématique abordant les perspectives et défis de cette technologie.

Le cadre des discussions sur l’IA est balisé, d’un côté, par les avancés économiques et, de l’autre, par les prévisions apocalyptiques de monstres sacrés des technologies et des sciences tels Stephen Hawking, Bill Gates ainsi que Elon Musk. Mais, au fond, qu’est-ce que l’intelligence artificielle ? Quelles sont ses applications et quelle est aujourd’hui son influence sur notre quotidien ? Avant de pouvoir aborder les dangers et perspectives de l’IA, il faut savoir ce que recouvre exactement cette discipline.

Les machines sont-elles capables de penser ? C’est la question que s’est posée le créateur du premier ordinateur, Alan Turing, en 1950. Les experts du domaine estiment qu’il faudra encore vingt à quarante ans avant la première IA forte, capable de penser, d’agir et de communiquer comme un humain. Toutefois, en attendant l’apparition de la première machine à même de remplacer l’intelligence humaine voire de la surpasser, tous les systèmes actuels ont recours à l’IA dite faible. En d’autres termes, ils partagent de fait la caractéristique d’avoir été conçus uniquement pour la résolution d’un problème ou d’une tâche spécifique. S’ils peuvent surpasser les capacités humaines dans leur domaine d’application, ils ne sont pas véritablement doués d’une intelligence humaine ou de la faculté d’être conscients de leurs actes.

Qu’est-ce que l’intelligence artificielle ?

Lorsque l’on parle d’intelligence artificielle, ou d’apprentissage machine, on entend par là un algorithme, qui interprète des données pour en dégager des schémas et élaborer des règles. En d’autres termes, l’algorithme apprend par l’exemple plutôt que par des règles préétablies par un agent extérieur. Dans tous les cas, la machine reste néanmoins liée aux directives inscrites dans son algorithme. Dès lors, la machine n’est pas dotée d’une intelligence au sens humain du terme. Il s’agit davantage d’un processus cognitif dirigé très complexe, qui ne cesse de s’optimiser. Toutefois, les ordinateurs apprennent comme les humains par l’exercice et la répétition. Plus un algorithme est exposé à des exemples, plus son modèle sera précis.

La variante d’apprentissage machine la plus performante mais aussi complexe à ce jour est l’apprentissage profond. Elle est notamment utilisée pour la reconnaissance d’images. L’apprentissage profond s’inspire des neurones humains, qui s’organisent en couches pour former ce que l’on appelle des réseaux neuronaux. L’information est traitée par ces couches de neurones pour former un processus de reconnaissance. On peut se représenter ce processus comme suit : la machine avance par étape pour analyser une donnée. Par exemple, pour une image, la première couche de neurones identifie d’abord les lignes verticales et horizontales et passe l’information à la couche suivante. Finalement, la dernière effectue l’analyse des plus petits détails. La machine est alors capable de donner un résultat en sortie qui correspond à l’aboutissement de sa « réflexion ».

Pour être efficace, l’apprentissage profond nécessite des millions de processus de ce type ainsi qu’une quantité astronomique d’informations en entrée. Tout cela requiert d’importantes ressources de calcul et un volume considérable de données. À titre d’exemple, Google emploie un exobyte de données pour son fonctionnement : il faudrait environ 30 millions d’ordinateurs personnels pour stocker toutes ces données.

L’intelligence artificielle fait déjà partie de notre quotidien depuis longtemps

Elle reconnait des caractères et des visages, nous suggère de nouvelles séries sur Netflix, nous présente de la publicité personnalisée sur Facebook, traduit, transcrit la parole. Elle équipe également des lunettes pour malvoyants capables de reconnaitre des personnes, panneaux routiers et situations (dangereuses) et d’avertir à temps leurs utilisateurs. Aujourd’hui déjà, il est presque impossible de faire la différence entre certains robots logiciels et un agent humain à l’écrit et même au téléphone.

Cette technologie au potentiel presque infini a déjà fondamentalement modifié notre mode de vie, notre approche de l’apprentissage et notre manière de travailler et promet de nombreux autres changements à l’avenir. Il est déjà devenu presque inconcevable de la supprimer de notre quotidien. Chaque fois que nous effectuons une recherche sur Google, cliquons sur un lien ou utilisons une application, nous faisons appel à l’IA et alimentons la quantité de données disponibles dans le monde. Les dizaines des traces que nous laissons en ligne chaque jour contribuent à l’accroissement de la masse de données que des entreprises récupèrent pour les traiter et les utiliser comme base de leur système d’IA. Et pourtant, beaucoup continuent d’ignorer qu’ils travaillent déjà avec de l’intelligence artificielle voire qu’ils interagissent avec elle.

À l’avenir, l’intelligence artificielle se révèlera non seulement incontournable pour les véhicules autonomes, mais elle pourrait également prendre le relai sur les avocats dans un cinquième de leurs activités. Elle sera également particulièrement utilisée pour les diagnostics visuels. Aujourd’hui déjà, les logiciels IA offrent un meilleur taux de reconnaissance du cancer de la peau que les médecins et sont capables d’identifier les parasites sur des plantes.

Qu’est-ce qui explique toutes les mises en garde ?

Jusqu’à présent, l’IA reste incapable de reconnaitre du sens et d’être consciente de son existence. La machine sait fournir et reconnaitre des termes à partir de définitions, mais elle ne comprend pas ses résultats et n’a pas conscience de son existence ou de ce qu’elle fait. Ce sont simplement des processus extrêmement complexes qui ne cessent de s’améliorer. Toutefois, un problème se pose : pendant l’exécution de ses algorithmes, l’IA devient pour ainsi dire une boite noire, un processus opaque, même pour les programmeurs. Les données à l’entrée et à la sortie sont connues, mais il est impossible de savoir quelles données et quels paramètres influencent l’IA ni de savoir quel poids elle accorde à ces paramètres ou même quelles connexions et quels recoupements elle opère.

Imaginons un programme de reconnaissance d’images qui confond un husky avec un loup. Pour arriver à ce résultat, le programme n’aurait pas pris en compte l’ossature, les yeux, les oreilles ou la tête du chien, mais la neige autour de celui-ci. La raison : la plupart des images de loups qu’il aurait jusque-là rencontrées auraient été prises dans la neige.

Le biais numérique reste plus problématique que CARL 500, du moins pour l’instant...

Outre les erreurs de conception lors de la programmation, le problème le plus complexe en IA est que la performance des algorithmes varie en fonction des données sur lesquelles ils se basent. Or même les programmeurs rencontrent fréquemment des difficultés pour discerner les bonnes des mauvaises données. Le « biais digital », en d’autres termes le phénomène d’apprentissage de préjugés par la machine, représente un sujet complexe. Un exemple fréquemment cité est celui de COMPAS, un programme américain d’IA qui calcule la probabilité de récidive de chaque condamné. Une étude menée par ProPublica révèle l’apparition rapide d’un biais raciste dans le logiciel. De fait, les condamnés de couleurs se voyaient accorder une probabilité de récidive plus élevée que ceux de peau plus claire, et ce en dépit d’antécédents judiciaires totalement différents.

Bien que la banque de données ne contient pas d’information sur la couleur de peau des prévenus, un homme de couleur se voit, par exemple, attribuer un « risque moyen de récidive » pour un fait unique de vol mineur, là où un homme de peau claire déjà condamné pour trafic de drogue, violence domestique ainsi que coups et blessures graves reçoit un risque « faible » après avoir commis à nouveau un vol aggravé. Son utilisation pose un sérieux problème. En effet, des juges d’applications des peines se référaient à COMPAS dans leurs décisions de remise en liberté anticipée.

In fine, il s’est avéré que l’algorithme avait pu se forger un biais raciste sur simple base du code postal. Aux États-Unis, les personnes de couleurs se retrouvent, de fait, souvent dans les mêmes quartiers.

L’IA est encore « limitée »

Le sujet de l’IA semble abstrait à bien des égards, jusqu’à ce que l’on se dise qu’un tel algorithme potentiellement défectueux peut décider de l’octroi d’un crédit ou l’invitation à un entretien d’embauche sur la base de l’examen préalable du dossier par l’IA.

Accepter l’évolution actuelle de l’IA aveuglément et sans faire preuve de sens critique, c’est prendre le risque de cristalliser les inégalités existantes. Un programme d’IA conçu pour évaluer la qualification de candidats pour un poste au conseil d’administration d’une entreprise, s’il se basait principalement sur la composition de ce conseil d’administration dominé par les hommes blancs d’un certain âge, proposerait automatiquement des hommes blancs d’un certain âge, à moins d’avoir agi contre ce biais. Cette tâche se révèle souvent ardue, comme le prouve l’exemple précédant avec le code postal. Dans le domaine militaire, un algorithme sujet à un tel biais ou à toute autre erreur du même acabit pourrait se révéler encore plus dangereux s’il devait décider de l’opportunité pour une machine d’ouvrir le feu sur un homme.

L’IA pourrait s’avérer problématique pour nous, et ce bien avant qu’elle n’acquière une conscience et ne décide que nous représentons une forme de vie inutile ou dangereuse pour la planète. Ce ne serait pas parce que l’IA est mauvaise, mais parce que nous l’aurons suivie aveuglément, et peut-être même parce que nous ne sommes pas assez intelligents pour produire une IA véritablement intelligente. En conclusion, nous façonnons une intelligence artificielle à notre image.

Vos commentaires

modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé.

Qui êtes-vous ?

Pour afficher votre trombine avec votre message, enregistrez-la d’abord sur gravatar.com (gratuit et indolore) et n’oubliez pas d’indiquer votre adresse e-mail ici.

Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom