TEST 15 JOURS

L’IA : réalités et croyances

Ingénieur de l'Ecole des Mines de Paris et responsable de projets IA au sein d'un grand groupe bancaire français, Axel Cypel est l'auteur du livre "Au coeur de l'intelligence artificielle" (De Boeck Supérieur, 2020). Dans une tribune exclusive pour mind Fintech, il partage ses convictions sur ce qu'est l'IA aujourd'hui en entreprise, ses bénéfices mais aussi ses limites.

Par Contribution externe. Publié le 11 mai 2021 à 11h03 - Mis à jour le 12 mai 2021 à 10h21
Axel Cypel

Intelligence artificielle… Vocable doublement subversif, vocable forgé pour créer l’émerveillement, alors que sa réalité opérationnelle — la mise en oeuvre d’algorithmes pour créer des modèles, dont l’apprentissage machine n’est qu’un sous-ensemble —, apparaîtrait comme nettement moins vendeuse. Mais vocable efficace allant jusqu’à la percée, presqu’inquiétante, de la communication grand public lorsqu’au Journal de 20 heures on vous explique que l’on va croiser des fichiers entre eux en utilisant des algorithmes (un bon vieux tableau croisé dynamique, finalement) qui prennent le nom d’IA…

Or, faire de l’IA, très concrètement, lorsque l’on ne fait pas de la recherche théorique, c’est finalement faire entrer la Science des données dans l’entreprise. La science s’écarte du marketing (même si elle en a parfois besoin pour se développer !). Quant aux données, certes, il faut d’abord en avoir, puis avoir pris conscience de la valeur de ce capital immatériel. J’apprécie particulièrement cette idée de faire rentrer, par le vecteur de l’IA, plus d’ingénierie — plus de rationalité, peut-être aussi —, dans des entreprises qui ne font pas nécessairement partie du secteur secondaire et quelle que soit leur taille.

D’un point de vue opérationnel, ce que l’IA permet de faire c’est essentiellement :

— du tri : par exemple, reconnaître des documents au format image parmi d’autres, repérer ceux qui ont certaines propriétés (ex. : présence d’une signature manuscrite ?) ; catégoriser des e-mails selon leur teneur, leur tonalité, leurs intentions ; ségréguer finement des profils pour faire de la segmentation marketing…

— de l’extraction d’informations : soit certains contenus de ces contenants (ex : du texte à partir d’images, mais aussi à partir de sons) ou encore des corrélations difficilement exploitables avec des instruments plus frugaux.

— de la prédiction : que ce soit grâce à la faculté apprise de reconnaître un caractère parmi tant d’autres (cf. cas 1), soit par l’usage du modèle dégagé par apprentissage sur les données pour anticiper une grandeur particulièrement intéressante qui vous aidera à prendre de meilleures décisions.

Globalement, l’IA est capable de discriminer, au sens mathématique du terme, c’est-à-dire tracer automatiquement des séparations entre les variables à partir de corrélations. Même la rêvée voiture autonome, qui sera un jour conduite par une IA, ne fera que cela : reconnaître des piétons, des bas-côtés, des configurations et optimiser une trajectoire. Si l’analyse des images est une pratique qui s’est bien répandue, le potentiel sur le texte semble encore plus vaste. Tout comme la traduction automatique s’est largement améliorée, des modèles prometteurs de traitement automatique du langage naturel se développent. Ils autoriseront des traitements automatiques de plus en plus fins sur du texte avec, en ligne de mire, non seulement sa “compréhension” (j’insiste sur les guillemets), mais aussi une certaine forme de génération automatique. Alléchant, n’est-ce pas ? Mais que se cache-t-il vraiment derrière ces promesses ?

L’IA en entreprise est souvent utilisée comme levier d’efficacité opérationnelle, autrement dit pour faire gagner du temps et de l’argent, soit en traitant automatiquement ce qui n’avait guère d’espoir de l’être manuellement pour des raisons de volumétrie (ex : des millions de documents à reconnaître… pour demain), soit en allant apporter des moyens d’actions supplémentaires (ex : lutte contre la fraude), ou encore en prenant pour elles des tâches répétitives, rébarbatives, nécessaires, mais sans véritable valeur ajoutée. Voilà qui conjure le spectre d’une IA qui vous prendrait votre travail !

S’il ne faut pas nier les avancées en IA et le potentiel de révolution qu’elle porte, il serait sans doute plus dangereux encore de détourner le regard de ses nombreuses limites. Nous avons le choix : limitations mathématiques (celles de la science statistique), limitations en qualité des données (les fameux biais d’apprentissage viennent de là), limitations d’ordre “éthique” (la Société souhaite-t-elle vraiment tel ou tel usage ?)…

Selon moi, trois croyances, dorénavant à combattre, ont favorisé l’émergence de l’IA : la première c’est que les données peuvent parler toutes seules, autrement dit, que l’on va pouvoir en sortir, en extirper la vérité à partir de simples algorithmes d’optimisation, sans autre forme non pas de procès mais d’interprétation. On ancre cette croyance dans l’esprit des gens, et après on leur dit qu’ils n’ont plus de secret pour vous, puisque leur comportement peut être inféré à partir des traces qu’ils laissent. La seconde c’est que les corrélations du passé vont vous ouvrir la compréhension du futur, ce qui se réalise en : les corrélations que j’ai perçues entre vous et des gens qui vous ressemblent jusqu’à présent déterminent vos actions de demain. La troisième, c’est de croire que l’IA raisonne, alors qu’en vérité elle ne fait que reproduire la résultante d’un raisonnement humain, qui lui reste à jamais étranger. Rappelons que lorsqu’une IA trie des images, le modèle appris a été élaboré à partir d’un tri préalablement effectué par une labélisation humaine. Rien n’est dit de la manière dont l’homme a fait le tri. L’IA est efficace, mais ne vous fournit pas d’explication pour comprendre le phénomène qu’elle a vocation à traiter.

Alors, comment ne pas se faire avoir ? Il faut bien se souvenir que l’IA est affaire de modélisation et qu’il existe une différence intrinsèque entre la réalité et sa transcription dans tout formalisme, en l’occurrence un formalisme mathématique et numérique. Rappelons aussi que les données sont une transcription formelle de la réalité et une transcription fatalement biaisée, qui plus est : les données sont une construction. Un modèle créé à base d’apprentissage machine peut se révéler efficace en prédiction ou en catégorisation (s’il a été bien construit), mais n’expliquera pas le phénomène qu’il est censé prédire ou réaliser. Ce type de modèle n’est pas une théorie et ne dit rien d’une interprétation du monde. C’est là que réside le piège de l’intelligence artificielle : une chausse-trappe de la pensée en même temps qu’une illusion commercialement juteuse.

Comme toutes les autres industries, celle des services financiers n’est pas en reste, qu’il s’agisse des acteurs historiques ou des nombreuses start-up désireuses de s’insérer dans la chaîne de valeur. A toutes, l’IA promet des sources d’efficience opérationnelle, voire la possibilité de créer de nouveaux services simplifiés pour le consommateur final. L’erreur serait de croire qu’elle peut le faire toute seule. Ceux qui ont véritablement compris quel parti tirer de l’intelligence artificielle savent qu’elle ne les dispense pas d’exercer leur intelligence tout court ! Savoir ce que l’on veut et se fixer des objectifs réalistes me semblent être les deux garde-fous à même de conduire les projets d’IA — s’il est démontré que c’est une solution adaptée — au succès qu’ils méritent.

L’IA met à la disposition des entreprises des techniques de modélisation quantitative à même d’améliorer leur processus. Il serait toutefois illusoire de croire ces techniques infaillibles, autonomes (un leurre pourtant bien présent dans l’esprit de nombreux décideurs) et encore moins qu’elles seraient susceptibles de remplacer une conception réfléchie. Je ne m’étendrais pas sur les prérequis et les pièges de la conception des IA… Il y a des livres pour cela !

Toutes les ressources liées à cet article
Les Personnalités

Besoin d’informations complémentaires ?

Contactez

le service d’études à la demande de mind