L'Intelligence Artificielle : une opportunité ou un risque pour les valeurs universelles ?


par Olivier Ezratty, consultant et auteur. Table ronde animée par Jean-Christophe Fromantin, Anne-Sophie Bordry CEO MedicisWeb / Tetramos et Christophe AulnetteChairman, Dathena

L'Intelligence Artificielle : une opportunité ou un risque pour les valeurs universelles ?

 

L’intelligence artificielle : une histoire déjà longue

L’intelligence artificielle est un vaste champ technologique et scientifique. Sa caractéristique historique est d’être née quasi simultanément avec l’informatique, d’en être un sous-domaine qui a vécu discrètement, parallèlement et a émergé brutalement il y a quelques années au point d’acquérir la même importance.

Le champ scientifique a démarré dans les années 40-50 avec les premiers concepts de réseaux de neurones mentionnés en 1943. En 1950, Alan Turing mathématicien anglais à l’origine des ordinateurs qui ont décodé les codes Enigma, décrit un concept - appelé plus tard le test de Turing - d’une machine que l’on peut confondre avec l'homme dans un dialogue homme-machine. L’expression « intelligence artificielle » a été inventée le 31 aout 1955 par John McCarthy, associé à trois autres chercheurs dans une publication qui annonce la création de cette nouvelle discipline scientifique « qui réunit l'ensemble des techniques pour permettre de reproduire tout ou parties des caractéristiques de l'intelligence humaine, dans une machine ».  L’idée peut paraitre particulièrement ambitieuse à une époque où les ordinateurs fonctionnent avec des lampes ! Dès l’été 1956, l’équipe organise ce que l’on appellerait aujourd’hui un Hackathon, pour mener à bien ce projet. Les huit semaines que dure cet événement se révèlent bien évidemment insuffisantes, mais permettent de jeter les bases de quelques briques qui vont structurer la discipline. Parmi elles, les recherches sur le raisonnement, la compréhension et maitrise du langage ou de la vision artificielle.

Ces travaux sont largement financés par les ministères de la Défense des pays occidentaux, Etats-Unis et Angleterre en particulier, et vont subir les fluctuations de ces financements qui se traduiront par des hauts et des bas dans les progrès de l’intelligence artificielle, avec parfois des conséquences heureuses pour d’autres domaines. La fin des années 70 est marquée par une coupe dans les crédits alloués par l’armée américaine ; les chercheurs se tournent alors vers des projets liés aux interfaces utilisateurs, à la souris, aux interfaces graphiques donnant naissance au McIntosh®, aux PCs, à Windows®. 

 Une accélération récente des progrès, associée à des défis éthiques majeurs.

Depuis 4 à 5 ans l'IA connait un nouvel élan, lié à l’émergence conjointe de progrès dans plusieurs domaines tels que l'augmentation de la puissance des machines, l'abondance des données pour entrainer les systèmes, et le mélange d'internet et de la mobilité, générateur lui aussi d’un volume important de données. Tout ceci, simultanément et associé à des progrès scientifiques algorithmiques, a permis un grand essor de la discipline.

L'IA se structure autour de deux grandes branches techniques : l’IA connexionniste et l’IA symbolique. La première s'appuie sur des méthodes probabilistes ou statistiques pour déduire un résultat d’un grand nombre de données. C’est par exemple un moyen pour reconnaitre des images. On alimente des systèmes avec un grand nombre d'images qui chacune vont avoir « un label » (une étiquette ndlr) et au bout d'un certain temps, le système entrainé par ces images va être capable de les reconnaitre. Cette approche peut aussi permettre d’identifier des comportements ou des profils, par exemple en alimentant une base de données avec les profils des fraudeurs du fisc « étiquetés » comme tels. A partir de la masse de données disponibles le système va pouvoir détecter des schémas qui permettent d’identifier les individus aux comportements frauduleux… toutefois de manière approximative avec des faux positifs et des faux négatifs générés par le système.

Une deuxième branche de l'IA est l'IA symbolique qui s'appuie sur le raisonnement, la logique, « si...alors » avec des règles et des faits qui permettent de déduire de nouveaux faits.

Ces deux branches correspondent à la manière dont fonctionne naturellement notre intelligence. On peut concevoir que les hommes préhistoriques qui s’alimentaient de végétaux et fruits sauvages ont testé et observé que la consommation de certaines baies entrainait la mort ou la maladie. Ils ont ainsi fait une corrélation puis ont déduit une règle qui s’est inscrite dans le savoir et la connaissance humaine structurée. L’IA conjugue d'un côté des règles connues, existantes, qui viennent de notre savoir accumulé dans la durée et de l'autre des règles observées par l'analyse des données.  On peut utiliser aussi les termes d'intelligence déductive et d'intelligence inductive et, tout comme notre mode de fonctionnement, l’IA est le cumul des deux : d’un côté l’analyse des données et de l’autre l’exploitation des règles existantes.

La quasi-totalité des logiciels consomme, crée ou capte des données : capteur de température dans un appartement, capteur de comportement dans un site web, capteur dans les véhicules, etc. Ces capteurs génèrent des données, auxquelles on peut donner des attributs, des caractéristiques et qui peuvent ainsi être utilisées à des fins très diverses.

Une des applications de l’IA est notamment le marketing et le rêve pour des grandes sociétés d’identifier les clients qui vont acheter un produit donné. Les sociétés alimentent de gigantesques bases de données relatives à leurs clients, et essaient de trouver des corrélations entre ces données et les comportements d’achat.

Toutefois l’IA ne sait trouver que des corrélations, qu’à tout point de vue, y compris philosophique, il est important de ne pas confondre avec la causalité ; le raisonnement humain, la philosophie, la science doivent garder le souci d’expliquer et non seulement d’observer et de généraliser sans chercher à comprendre.

 

Le défi du choix et de la qualité des données pour alimenter une IA éthique, fiable.

Les systèmes dits probabilistes, qui vont faire des prédictions, cibler des gens, modifier des opinions comme on a pu l’observer avec l’affaire Cambridge Analytica, ou analyser des radiographies pour détecter des pathologies, présentent le risque, parfois effrayant, de générer des erreurs directement liées aux données analysées. L’IA connexionniste, peut soit répercuter dans les systèmes des erreurs humaines liées aux données, soit amplifier des biais de la réalité.

Une des conséquences de l’utilisation des données du passé ou du présent pour faire des prédictions sur le futur est que « l’on cherche à aller de l’avant en regardant sans arrêt dans le rétroviseur » souligne Olivier Ezratty. « L'abus de l'IA dans ces modèles statistiques consiste à conduire un véhicule dont le rétroviseur a la taille du parebrise et empêche de voir les obstacles au-devant, au risque de produire un accident. Il faut donc une taille raisonnable de rétroviseur, pas trop grande et toujours garder l'homme dans la boucle de décision, éviter de tout déléguer à la machine ».

Un autre phénomène qu’induit cette approche probabiliste est la reproduction de biais du passé insatisfaisants.  Amazon avait conçu un système de premier tri des CV des candidats pour des métiers techniques à partir de mots clés et de caractéristiques du CV. Il s’est avéré que le système défavorisait les femmes qui dans les pays occidentaux ne représentent que 5 à 10% des employés dans ces métiers. Il y avait donc 95% d’hommes dans la base d’entrainement et le système s’appuyant sur des probabilités, mathématiquement, favorisait les hommes au détriment des femmes au lieu au contraire de chercher à promouvoir leur candidature. 

Donc dans tous les cas où l’on utilise des données du passé ou du présent porteuses de biais, les systèmes vont répercuter ces biais en automatisant des choix à partir de données qui ne sont pas satisfaisantes.

Ainsi si la population qui sert de référence aux systèmes n’est pas l’incarnation de la population dans son ensemble, les systèmes vont reproduire ces biais, qui au-delà de l’équilibre homme-femme, peuvent toucher la diversité sociale, ethnique, etc.

Toutefois, ceci est corrigible ! Il faut premièrement veiller à ce que les concepteurs et développeurs de systèmes soient représentatifs de la société et en reflètent la diversité, ce qui n’est pas le cas aujourd’hui et prendra du temps à corriger. La deuxième exigence est d’avoir une vision sociétale, de refuser les déséquilibres de genre ou autres que l’on peut trouver dans les bases et modifier les biais qui seraient inacceptables. 

Une illustration, de reproduction inacceptable de biais est celle d’un système conçu aux Etats-Unis pour détecter les risques de récidives de criminalité à partir d’une photo. 85% de la population carcérale étant noire, un homme noir avait beaucoup plus de chance d’être identifié comme criminel. Testé sur les membres noirs du Congrès, le système identifiait 35% de criminels potentiels !

 

L’intelligence humaine a une polyvalence que n’atteint pas l’IA.

La variété des exemples dans lesquels l’IA s’exprime peut induire le sentiment d’une grande polyvalence qui pourrait rivaliser avec l’intelligence humaine. Dans les deux cas il y a pluralité, mais elle est très différente. L’intelligence humaine est par nature plurielle : intelligence manuelle, intelligence verbale, mathématique, intelligence émotionnelle extrêmement diverse, etc. L’homme mis dans de bonnes conditions peut être relativement polyvalent. L’IA n’est pas une intelligence, mais un ensemble de solutions qui utilisent des bribes d'IA qui font des choses diverses et variées, disparates. Ces solutions vont imiter vaguement une fraction de l'intelligence humaine, et plutôt la simuler que l’imiter à l'identique.

Les « chatbots » ces agents conversationnels, illustrent ceci. En apparence on leur parle, ils répondent...En réalité ils ne comprennent rien et traduisent des mots en chiffres, calculent des distances entre des chiffres et trouvent vaguement une réponse. Mais ils n'ont rien compris à la symbolique qu'il y a derrière les paroles formulées. Pour un humain l’évocation d’un « petit chat » va générer une vision multimodale, émotionnelle d’une petite bête mignonne qui miaule, liée à la richesse de nos sens et à la richesse de notre interaction avec le monde vivant. Là où un système inerte ne voit que des chiffres nous percevons une interaction avec la nature beaucoup plus riche.

D'un point de vue médiatique quand la presse titre "une IA a fait quelque chose de magique, d’extraordinaire... » ou « une IA a créé un tableau et est donc créative », la réalité, très laborieuse, est que "des ingénieurs et des non-ingénieurs ont travaillé pour créer un système, qui à force de tests et de temps, a produit un résultat satisfaisant qui a été annoncé ! ».  Pour les tableaux, un logiciel a généré de nombreux modèles en mélangeant des styles variés, un homme a sélectionné celui qui était esthétiquement le plus abouti et jeté les autres.

Pour l'instant la majorité des IA sur le marché sont très spécialisées et restent un assemblage empirique de petites briques qui simulent des fragments de l’intelligence humaine qui est beaucoup plus polyvalente.  

 L’IA : opportunité ou menace pour nos valeurs universelles ?

Comme pour toutes les technologies, les OGM, le nucléaire, les drones…l’IA est à la fois un risque et une opportunité. La question est de savoir comment les acteurs économiques et publics font les choix avisés qui orientent l'usage de la technologie vers le bien commun. L’IA n’a rien de magique, elle est un produit compliqué créé par des humains. « Le fait de projeter nos défauts sur quelque chose qui est extérieur à l'humanité est une erreur » souligne Olivier Ezratty. Dans l’IA, l’homme joue un rôle beaucoup plus important qu’il n’y parait. Une défaillance d’une IA est le reflet d’une défaillance humaine, qu’il faut comprendre, traiter, prévenir en veillant à la diversité des équipes, en instaurant un principe de précaution dans certains cas, des tests, des audits, etc.

 Pour relativiser les craintes que génère l'IA on peut rappeler que les ordinateurs sont, depuis longtemps, bien plus puissants que nous sur des éléments qui historiquement relèvent de l'intelligence humaine. Pour le calcul, caractéristique de l’intelligence humaine, depuis 1972 dans le monde occidental, les calculatrices sont bien plus rapides et précises que nous ! Le tableur, avec ces centaines de lignes et colonnes est aussi bien plus rapide qu’un être humain. Malgré les erreurs parfois graves qu’il peut véhiculer suite à de mauvaises manipulations humaines, il ne nous fait pas peur !

La mémoire verbale, autre caractéristique de l'intelligence humaine, reste très limitée par rapport à celle des machines : Wikipedia® affiche 14 terra octets, alors que notre mémoire verbale est d’un giga octet.

Depuis très longtemps les machines nous battent en de nombreux points, mais ne suscitent pas de craintes. Michel Serre, dans une notion inventée en 2005 qu’il appelait l'exo darwinisme mentionnait la tendance de l’Homme à externaliser des fonctions corporelles. Il considérait que depuis l'invention de la roue, l'Homme a délégué d'abord sa puissance mécanique à des machines avec l'agriculture et petit à petit délègue aussi des fonctions du cerveau. Aujourd’hui on peut se demander si on ne délègue pas trop ! On a délégué aux machines le calcul mental, une partie de la mémoire, en remplaçant la mémoire brute où on apprend des textes par cœur par la mémoire des liens entre les idées … On a pris l'habitude de demander à internet de répondre à de nombreuses questions courantes que l’on mémorisait il y a juste quelques années. Les conducteurs de taxis qui historiquement avaient la carte de Paris en tête, utilisent maintenant Wase® pour le moindre déplacement… Nos numéros de téléphone sont dans nos appareils et ont disparu de notre mémoire.

 Education et développement : les émotions, le travail manuel ont un rôle central et sont irremplaçables

Plusieurs expériences ou application de l’IA à l’éducation éblouissent ou jettent un froid dans le dos.  Mettre un casque à des enfants en classe pour mesurer leur attention par un électroencéphalogramme, ou analyser les émotions via d’autres technologies en vue d’adopter des mesures correctrices sur l’élève ou le professeur paraissent particulièrement intrusives et dangereuses.

Très fragmentée dans ses contenus et de par la diversité des sujets, des langues et des pédagogies, l’éducation dans sa forme classique dans des salles de classe n’offre pas un terrain très propice au développement de l’IA contrairement aux domaines très homogènes tels que la banque, les assurances.

L’IA peut toutefois trouver une utilisation dans l’enseignement à distance en analysant les réactions de l’élève face aux contenus dispensés par un MOOC, en les répétant ou les adaptant au besoin et ainsi essayer d’en améliorer l’impact.

Le recul de 6 à 7 ans acquis sur l’utilisation des MOOC montre une mémorisation moins bonne des apprentissages que lors d’un cours avec un vrai professeur. Cette observation souligne la dimension multifactorielle et émotionnelle de la mémoire. La froideur de l’IA et du numérique ne remplaceront pas les émotions transmises par les meilleurs professeurs, mais ouvrent des voies pour atteindre des populations éloignées des salles de classe.

L’usage des claviers ne peut aussi remplacer l’apprentissage et l’usage de l’écriture manuelle, trace la plus évidente des fonctions intellectuelles de l’humanité. 

Pour leur bon développement nos cerveaux ne peuvent s’alimenter uniquement de numérique – lecture, écriture, interactions sur internet et les réseaux sociaux - et ont besoin d’activités manuelles et d’émotions en interaction avec « de vrais gens ». « Si l’on mesurait la dopamine et la sérotonine, les émotions générées par ce moment, elles sont mille fois supérieures à celles que l’on peut avoir sur des réseaux sociaux ! » évoque Olivier Ezratty, « les logiques mercantilistes des GAFA encouragent les jeunes à passer trop de temps sur les réseaux sociaux. Il est nécessaire d’avoir des émotions humaines, de regarder dans les yeux des autres, d’échanger et de maitriser les trois éléments que sont l’intellectuel, le manuel et l’émotionnel ».

IA et santé : des perspectives très riches en veillant à garder l’humain au centre

l’IA ouvre la voie à des bénéfices majeurs dans la santé mais est aussi porteuse de peurs et de risques face aux nombreux enjeux éthiques, humains et techniques qu’elle suscite.

Des systèmes d’IA démontrent déjà des capacités à détecter des pathologies, aider au traitement de maladies ou même trouver des nouveaux médicaments. En cancérologie, immunologie, cardiologie, l’IA offre un potentiel extraordinaire. Une start-up à partir d’un électrocardiogramme arrive à détecter jusqu’à 150 pathologies différentes ! Une performance qui à la fois éblouit et interpelle. La première exigence est la fiabilité. Une IA n’étant bonne que par la qualité des données, l’origine des données doit être le reflet de la population et donc être française ou transposable. Une telle application doit pouvoir aussi être labellisée, auditée avec une comparaison au taux d’erreur humain. Notre tolérance à l'erreur de la machine est bien inférieure à celle que nous avons vis-à-vis de l'erreur humaine ; mais si sans atteindre l’exactitude absolue, in fine, le système génère 10 fois moins d’erreurs que l’homme, le bénéfice sera pour tous.

Ces règles fixées, la raison pour laquelle le système est plus fiable que l’homme est uniquement humaine. Un système d’IA en radiologie ou en cardiologie est en fait le cumul du savoir de plusieurs dizaines de radiologues ou cardiologues qui ont labellisé les images et généré un système plus fiable qu’un seul médecin. Mais cette fiabilité accrue du système n’est que le reflet de celle du collectif de médecins, qui s’ils étaient dans une salle pour juger d’une radio ou d’un électrocardiogramme apporteraient le même supplément de fiabilité qu’un seul.

Est-ce un risque pour les cardiologues ou les radiologues ? Non ! Comme les pathologies évoluent en permanence le médecin aura toujours une valeur ajoutée et le risque de le voir disparaître n’est pas d’actualité !

Si l’outil se révèle fiable, sans faux négatifs, il pourra être utilisé par des médecins généralistes, en médecine de brousse ou dans les déserts médicaux et ainsi élargir l'accès aux soins par un meilleur diagnostic des pathologies. L’impact pour la société sera positif et ce, sans affecter le besoin en médecins spécialistes.

A côté de ces enjeux techniques, les enjeux éthiques portent notamment sur l’utilisation des données, le respect des données individuelles, et sur la nécessité de garantir qu’à aucun moment le machine ne se substitue au professionnel de santé pour une décision, même si celui-ci s’aide de logiciel pour interpréter les données...

A ceci s’ajoute la dimension juridique de la responsabilité du médecin dans son diagnostic. En médecine, comme dans le cas des véhicules autonomes une IA n’a pas de responsabilité.

Aujourd’hui, les règles d’utilisation de l’IA dans la santé sont d’étendre l'accès aux soins, « de garder l’humain dans la boucle », et d’éviter « le syndrome Wase® » chez les médecins : une confiance aveugle dans une machine qui apporte dans une immense majorité des cas une indication juste, mais sur laquelle il faut sans cesse garder un esprit critique. L’enjeu sociétal est majeur car le professionnel doit garder la compétence et la maitrise. 

 Imposer des garde-fous et donner à l’Europe une place dans le développement d’une IA éthique, qui trouve sa place entre les modèles dominants américains et chinois

« Il y a de nombreux domaines où l’on a peur et où l’on ne devrait pas. Il faut organiser des garde-fous mais permettre aux technologies de se déployer là où elles sont utiles » souligne Olivier Ezratty. « Si on entraine un système avec de la bêtise humaine, du racisme, le système sera bête et raciste ; c’est l’effet rétroviseur que j’évoquais qui reproduit ou amplifie une situation qui n’est pas satisfaisante ». Pour éviter ces effets, la première solution est d’éliminer ou de limiter le miroir et la deuxième réside dans l’éducation.  Dans un monde qui évolue et change sans cesse, l’éducation tout au long de la vie, et avec elle la prévention sont des enjeux majeurs pour toutes les populations. Pour ce qui est de « la taille du rétroviseur », il relève de décisions prises par les créateurs d’IA, souvent des entreprises privées qui s’appuient sur de la recherche publique et dont les choix ne doivent pas être guidés que par des raisons mercantiles. « L’AI for good » s’inscrit dans cette démarche ainsi que la régulation dont il faut trouver les contours justes pour qu’elle puisse contenir et punir les dérives sans bloquer l’innovation. Le RGPD (Règlement Général sur la Protection des Données), est l’outil mis en place en Europe pour protéger ses citoyens. Son accusation de limiter le développement des entreprises européennes est exagérée. Diverses techniques de cryptographie ou d’anonymisation des données permettent le respect du RGPD et le développement de l’IA. Toutefois cette approche, reste limitée à l’Europe et parait avoir peu de chances de s’étendre au monde. Les entreprises américaines - qui doivent toutefois respecter le RGPD en Europe - ont une puissance bien supérieure aux sociétés européennes ; les chinois, dans un système politique très pyramidal, qui privilégie l’équilibre collectif au bonheur individuel, n’ont que faire du respect de la vie privée. Ils multiplient les caméras de surveillance, l’analyse des comportements ou distribuent des crédits sociaux, dans un système encore expérimental, mis en place par un certain nombre de collectivités publiques chinoises face à l'émergence de la criminalité financière ou de la corruption liées au développement du capitalisme.

Aujourd’hui avec une attitude très décomplexée face au progrès, la Chine est le seul pays à avoir résisté aux grandes entreprises américaines. Elle en a au début largement utilisé leurs logiciels pour mieux développer sa propre industrie. En 20 ans, alors que l’ambition paraissait illusoire, ont été créés Baidu® (un équivalent de Google®), Renren® (le Facebook® chinois), Wechat®…Le volume de données généré du fait de la taille du marché et la capacité des entreprises chinoises à les utiliser en s’affranchissant de nos règles éthiques permet de développer une puissance très conséquente dans ces domaines.

Avec des acteurs américains supra nationaux, Google®, Facebook®, l’Europe peut se trouver dans une situation de dépendance vis-à-vis des Etats-Unis qui n’est toutefois pas nouvelle. En micro-informatique, deux français Gernelle et Truong ont inventé le micro-ordinateur, mais c’est IBM et Apple qui ont inondé le marché avant les constructeurs taiwanais et chinois. L’Europe a ainsi « raté » la micro-informatique et internet. Pourrait-elle avec un minimum de gouvernance commune faire émerger des sociétés leaders d’une nouvelle vague technologique ? L’informatique quantique pourrait être cette opportunité, mais dans l’immédiat les règles empiriques issues de l’observation de l’écosystème des industries du numérique montrent la difficulté pour des sociétés européennes de s’imposer au niveau mondial.

Dans une industrie numérique favorisée par les économies d’échelle, l’accès rapide au marché américain est nécessaire aux entreprises européennes pour espérer atteindre des positions de leader mondial.

Une caractéristique des industries du numérique et qu'elles bénéficient plus que toutes les autres industries existantes des économies d'échelle. Dans le monde de l'internet, des industries de logiciel, de processeurs, etc. les dépenses de R&D sont importantes, mais la fabrication et la diffusion du produit en masse sont peu onéreuses favorisant les plus gros marchés homogènes qui sont les Etats-Unis et la Chine. Depuis la fin de la deuxième guerre mondiale les Etats-Unis ont un marché plus important que celui de la France, du Royaume-Uni et de l’Allemagne, avec une seule langue, sont perméables à l’innovation et bénéficient d’un système financier favorable. Les chinois, de leur côté, ont une masse de 850 millions d'internautes environ, un PIB par habitant qui grandit régulièrement, même s'il n’atteint que 25 à 30% de celui des Etats-Unis et une industrie florissante. Par contre « ils ont mis des barbelés autour du pays d’où il difficile d’entrer ou de sortir, et peu d'acteurs de l'internet chinois sont devenus leaders hors de Chine ou de ses pays voisins (Malaisie, Indonésie…) ». Les éléments culturels sont un obstacle à l’expansion et notamment l’omniprésence du commerce dans les moteurs de recherche, ou des propositions d’agrégation de service qui obéissent à des habitudes propres. L’Europe est entre ces deux grands marchés et n’a pas intégré au niveau des décideurs politiques ou des entrepreneurs le rôle majeur des économies d’échelle. Un produit créé en France, au Royaume-Unis ou en Suède ne peut croitre rapidement sur un marché intérieur trop petit. La seule solution pour créer des leaders est que nos pépites technologiques s'exportent aux Etats-Unis le plus rapidement possible pour accéder à une taille de marché importante. Cette approche peut paraitre contre-intuitive mais est un des élément, associé à un patrimoine technologique solide, qui a permis de créer nos rares leaders mondiaux.  Dès 1983, Dassault Système a eu comme premier client Boeing, IBM comme prestataire et a pu se développer pour être aujourd’hui le leader mondial de la conception assistée par ordinateur, avec plus de 20000 salariés et une R&D de 4000 chercheurs à Vélizy-Villacoublay.  Business Objects, crée en 1990 par un ingénieur et un diplômé d’HEC (Liautaud et Payre) s’est installé au bout d'un an et demi aux Etats-Unis, et en 1994 était le premier éditeur européen à être coté au Nasdaq. Aujourd’hui, plus petit, Talend créé par des ingénieurs français avec une R&D en France et côté au Nasdaq est leader mondial d'un sous marché de la base de données. Tous ont en commun d'être allés aux Etats-Unis très rapidement, sans attendre de conquérir l’Europe pays par pays.  C'est la démarche adoptée avec succès par les finlandais ou les israélien. Toutefois, le contexte actuel de guerre économique avec les Etats-Unis est en train de développer un protectionnisme (durées de visas plus courtes notamment) qui freine l’installation des entrepreneurs européens. Face à ces protectionnismes américains et chinois, que peut faire l’Europe ? « Elle ne doit pas se tromper de bataille et chercher à créer des entreprises européennes et non un marché européen » souligne Olivier Ezratty. « Les réussites comme Airbus ou Amadeus ont montré que l’union fait la force, en aidant des entreprises européennes à réunir des compétences venant de plusieurs pays ou en faisant en sorte que la mobilité des compétences entre pays soit optimisée ». L’écosystème de la french tech et des start-ups a réussi à être plus accueillant pour les entrepreneurs étrangers et cette démarche doit se poursuivre en ayant notamment des anglophones dans les équipes de direction pour dès le départ concevoir un produit international qui va s’exporter plus facilement. Cette approche outre le fait qu’elle a démontré son succès est plus réaliste que la création d’un marché européen qui fait face aux obstacles linguistiques, à la complexité des multiples acteurs qui opèrent dans les télécoms, banques, etc. ou aux diverses législations.

L’accès de nos entreprises européennes au marché américain peut s’appuyer aussi sur des méthodes indirectes telle la diplomatie, dans des contextes plus larges de négociations bilatérales qui incluent l’agriculture, la santé… Notre vie numérique doit être protégée autant que notre vie biologique. 

Valoriser la diversité européenne, en faire un atout et non un frein.

Entre les puissances américaine et chinoise l’Europe ne doit pas oublier sa richesse industrielle dans de nombreux métiers et la richesse des données que possèdent les grands acteurs français ou européens. EDF, Enedis, Sanofi, nos banques, nos assurances et même l’artisanat industriel possèdent des connaissances métier, des données que les GAFA n’ont pas, et qu’ils peuvent exploiter pour être plus performants. Le risque qui pointe toutefois est d’avoir besoin des compétences des GAFA pour le cloud, pour héberger ces données avec de possibles filtrages par la NSA aux Etats-Unis ou des risques de non maitrise des données hébergées à distance. L'autre élément qui peut jouer un rôle, positif dans l'émergence d'acteurs européens de poids est l’alliance d’acteurs de même secteur pour peser plus lourd face aux GAFA. Créer un GIE des assureurs européens pour rassembler et sanctuariser des données, pour améliorer l'analyse du risque par exemple, ou encore encourager des professions telles que les notaires, experts comptables à se fédérer et créer des Entreprises de Service Numérique pour collecter les données des uns et des autres et enrichir les outils de gestions prédictives de la comptabilité ou de détection de fraude...Comprendre que l'union fait la force et que la désunion fera la force des autres. Tout ce qui va fragmenter l'Europe, politiquement ou économiquement est un énorme danger à de nombreux points de vue et pas qu’à cause du numérique...

Des moyens qui paraissent limités pour éviter une ultra-domination des GAFA

Alors qu’au XXe siècle, des sociétés telles que DuPont ou ATT qui avaient atteint une puissance et des positions jugées trop dominantes par les politiques ont été démantelées cette issue parait peu probable pour les GAFA, malgré des situations qui peuvent soulever au moins autant de questions ou d’inquiétudes que celles des géants industriels de l’époque.

Les raisons sont multiples : un patrimoine beaucoup plus intellectuel pour les GAFA que pour les géants industriels ou une difficulté à définir les contours d’un démantèlement. Pour Google par exemple, si on isolait le moteur de recherche du reste de l’entreprise il resterait dominant.

Mais un des éléments majeurs est surement l’absence de volonté ou l’incapacité des Etats ou de la gouvernance mondiale à agir face à ces puissances supranationales.

L’ébranlement de ces mastodontes ne paraît pouvoir résider que dans l’émergence de nouvelles vagues technologiques ou dans un mouvement sismique sociétal qui les rejetterait. Les moins de 20 ans ont tendance à utiliser des réseaux sociaux différents, sans toutefois avoir touché significativement la domination des GAFA, ce d’autant plus que certains de ces nouveaux réseaux (Instagram®, Whatsapp®) ont été rachetés par Facebook®. Mais l’on ne peut exclure un mouvement de fond d’une jeunesse militante.

Pour le moment la régulation, sous une pression politique plus ou moins affichée parait être l’outil les plus adapté et le plus efficace, bien que soumis au puissant lobby de ces mastodontes et limité dans son impact. Le RGPD permet de protéger la vie privée des gens mais paradoxalement il n’a rien changé à la position dominante des GAFA qui ont tous les moyens financiers, techniques, juridiques pour appliquer les législations alors qu’elles seront une barrière à l’entrée pour des petits acteurs. L’enjeu est de créer des systèmes de régulation qui mettent en place des principes de précaution, évitent qu'il y ait trop de concentration de valeur à certains endroits. Le référencement dans les magasins d’applications que sont Apple Store® et Googleplay®, la visibilité des publicités dans Facebook® sont des éléments extrêmement importants tant au niveau politique qu’économique et doivent être scrutés et régulés si besoin, car c’est dans ces domaines que les grands acteurs américains peuvent abuser de leur position dominante.

 L’intelligence artificielle, peut-elle rentrer en concurrence avec l’intelligence humaine ?

L'IA et les nouvelles technologies dans leur ensemble vont transformer de nombreux métiers parfois brutalement, mais le plus souvent plus lentement que prévu. Une étude faite par des universitaires d'Oxford en 2013, prévoyait qu’en 10 ans 47% des emplois disparaitraient à cause de l'IA. Nous sommes à 60% du parcours et cette tendance est loin d’être observée. Des emplois ont effectivement disparu en raison d’évolutions technologiques, différentes de l’IA, qui permettent notamment un transfert du travail du fournisseur vers le client.  Les caisses- automatiques transfèrent aux clients le travail du caissier et la facture électronique va éliminer la double écriture qu’effectuaient les experts comptables. Ces mécanismes de migration de valeur entre métiers ou entre clients et fournisseurs sont à prévoir dans les années futures sous l’influence de l’automatisation, et dans certains cas de l’IA, avec un impact et des conséquences très difficiles à évaluer à l’avance. Des transformations vont réduire la charge de travail de certains métiers, comme les cardiologues, mais en parallèle élargir « le marché » du diagnostic des pathologies amenant un résultat neutre ou positif d’un point de vue économique.

Depuis toujours notre monde connait des mutations mais celle que nous vivons actuellement est singulière par sa rapidité. Est-ce que la nature, la raison, l’ensemble de l’écosystème saura s’adapter et résister aux vitesses des transformations qui nous touchent ? Nos esprits critiques doivent rester vigilants et être sans cesse stimulés pour faire de ces outils associés aux activités manuelles, aux relations sociales, aux émotions sincères et vraies, des outils de développement et non d’aliénation. Enfin il faut veiller à ne pas succomber à notre propre renoncement. Dans les domaines politiques, éducatifs, économiques, etc. dès que nous renonçons, ces outils occupent l'espace, amplifient des modèles financiers jusqu’à une crise financière, ou renforcent des modèles étatiques aux disciplines dures comme en Chine.

A nous de faire en sorte que ces outils amplifient un modèle de diversité générateur de créativité. Il y a beaucoup de raisons d'espérer que l'IA soit un vecteur de progrès plutôt que de destruction. Tout dépend de nous et non de l’IA qui n’existe pas comme une intelligence. 

 

Synthèse rédigée par Mireille Bertrand

Votre adresse de messagerie est uniquement utilisée pour vous envoyer les lettres d'information des Ateliers de l'Universel.
Vous pouvez à tout moment utiliser le lien de désabonnement intégré dans la newsletter.

Information

Ce site utilise des cookies pour enregistrer des informations sur votre ordinateur. Parmi ces informations, certaines sont essentielles au bon fonctionnement de notre site. D'autres nous aident à optimiser la visite des utilisateurs. En utilisant ce site, vous acceptez d'utiliser ces cookies. Consultez notre politique de confidentialité pour en savoir plus.