L’Intelligence Artificielle doit être éthique et basée sur des algorithmes à la fois transparents et compréhensibles. En se concentrant sur ces aspects, l’Europe limitera le risque de responsabilité de ses entreprises et leur offrira un avantage compétitif précieux. Toutes les entreprises européennes devraient être en mesure de maîtriser l’IA pour être sur un pied d’égalité. Une règlementation de l’IA au niveau gouvernemental est nécessaire car les sociétés ne s’autoréguleront pas.

L’Intelligence Artificielle est prête pour un déploiement massif. Les prévisions indiquent qu’elle contribuera à hauteur de $15,7 billions à l’économie globale à l’horizon 2030 (d’après PwC). Toutefois, si les entreprises adoptent cette technologie prometteuse à large échelle, celle-ci se doit de revêtir un caractère éthique. Toutes les entreprises européennes doivent en maîtriser la portée, pas seulement celles qui détiennent un nombre important de données. Ce sont les messages phares du deuxième volet de l’évènement ERA Reaching New Heights qui s’est tenu à Bruxelles.

“L’IA accélère fortement le processus décisionnel et permet de faire des prévisions avec une précision surhumaine”, a déclaré Rachel Alexander, CEO et fondatrice d’Omina Technologies. Selon elle, notre société entre maintenant dans la phase d’implémentation de l’IA, après des décennies d’exploration et de R&D. “Aujourd’hui, l’IA a fortement augmenté nos possibilités, grâce aux progrès de la puissance informatique ainsi qu’aux Big Data. L’IA est enfin utilisable dans de nombreuses sociétés parmi un éventail varié de secteurs. Toutefois, seulement 7% environ d’entreprises très performantes font usage de l’IA à son stade le plus avancé.”

Malgré ses avantages, l’IA n’est pas aussi intelligente que certains pourraient l’imaginer et bien souvent, elle nécessite une intervention humaine. Rachel Alexander a illustré son propos en donnant l’exemple des rayons X en milieu hospitalier, utilisés pour diagnostiquer les cancers chez les patients. Dans ce cas précis, la solution idéale est ‘l’intelligence augmentée’, qui combine les capacités analytiques de l’IA (la machine) avec l’expertise des médecins (l’humain).

L’IA arrive à surpasser les performances des logiciels de base grâce à sa capacité d’apprentissage de modèles extraits de données, ce qui souligne l’importance croissante des Big Data. Par exemple, une société européenne active dans les maisons intelligentes pour les personnes âgées s’appuie maintenant sur un logiciel basé sur l’IA. Ce dernier décèle les comportements inhabituels, comme la porte d’un frigo restée ouverte des heures durant, et crée des signaux d’alerte personnalisés.

L’urgence de l’éthique en IA

“L’IA devient hélas une sorte de course aux armements globale”, a constaté Rachel Alexander. La Chine se positionne loin devant l’Europe et les Etats-Unis, en termes d’investissements en capital-risque et de nombre de brevets déposés en IA. “Pourtant, peu d’interlocuteurs abordent le sujet de l’IA éthique”, a-t-elle déclaré, tout en mettant en garde contre les dangers d’une technologie dépourvue du garde-fou de la supervision humaine. “L’IA évolue en apprenant des données qu’elle observe, mais le résultat escompté n’est pas toujours au rendez-vous.” Un exemple tristement célèbre est celui de cette firme américaine qui a récemment permis à l’IA de gérer sa politique de recrutement et de licenciement, ce qui a résulté en un biais défavorable à l’égard des personnes en surpoids.

Quand l’IA prend de telles décisions mauvaises et préjudiciables, en se comportant à l’instar d’une technologie “black box”, il y a un risque de responsabilité au niveau de l’entreprise, particulièrement en matière de protection de la vie privée. “Les utilisateurs de l’IA doivent être en mesure de comprendre pourquoi cette technologie entérine ce type de décisions”, a expliqué Rachel Alexander. D’où l’importance de développer une IA “décodable”, c’est-à-dire basée sur des algorithmes tant compréhensibles que transparents au fil de leur évolution.

Rachel Alexander a souligné que la nécessité d’une intelligence artificielle éthique, son fer de lance depuis la création de sa société en 2016, bénéficie aujourd’hui d’une attention plus importante. Ainsi, l’Union Européenne a formalisé sept conditions de fiabilité de l’IA, qui couvrent des domaines tels que la supervision humaine, la fiabilité et la sécurité techniques, ainsi que le respect de la vie privée et la gouvernance des données.

De la genèse de lignes directrices pour l’IA à la promulgation d’une loi

Bien que ces conditions nécessitent d’être affinées avant d’être inscrites dans le cadre législatif, elles constituent un point de départ utile, « parce que les entreprises n’adopteront pas l’IA si elles n’ont pas toute confiance en cette technologie ». Des lignes directrices de ce type permettront aussi aux gouvernements de règlementer l’IA non éthique, comme le vol de données personnelles il y a quelques années chez Cambridge Analytica dans le but de manipuler les intentions de vote et le choix des électeurs. Rachel Alexander a également fait l’éloge d’initiatives concrètes essentielles, ayant pour objectif de résoudre les problèmes de données personnelles et de gouvernance liés à l’IA. Elle a ainsi cité le RGPD au niveau européen et l’Acte de Protection des Informations (POPI Act) en Afrique du Sud.

“Une règlementation de l’intelligence artificielle au niveau gouvernemental est nécessaire car il est clair que les sociétés ne s’autoréguleront pas d’elles-mêmes,” a ajouté Rachel Alexander. Elle a souligné que l’Europe a une opportunité de se démarquer, si elle continue à s’engager pour une IA éthique. Outre la création d’un climat de confiance dans toutes les institutions de l’Union Européenne et dans les entreprises qui utilisent cette technologie, cet engagement leur offrira un avantage compétitif ailleurs dans le monde.

“Je suis convaincue que l’IA éthique devrait être à la disposition de toutes les entreprises, quelle que soit leur taille, et que son usage devrait être étendu à un maximum de départements. En Europe tout particulièrement, cela permettrait de définir des règles du jeu équitables”, a remarqué Rachel Alexander. Elle a reconnu que de nombreuses sociétés réalisent actuellement des petits pas dans cette direction sans en appréhender la valeur à ce stade. A contrario, les produits de sa société sont tous centrés autour de l’IA éthique. Il s’agit par exemple de l’accompagnement d’autres sociétés dans le déploiement de leurs produits en IA ou encore de l’évaluation du retour sur investissement de l’IA.

À la question de savoir quels sont les ingrédients de la recette miracle de l’IA en business, Rachel Alexander a conclu en répondant : “aligner l’usage de l’IA dans votre entreprise à votre stratégie, utiliser des données parfaitement nettoyées et profiter du rendement impressionnant de cette technologie ainsi que de son déploiement aisé. ”