Aller la navigation | Aller au contenu

DANS L'ACTUALITÉ

Benoit Le Blanc

Une stratégie nationale pour l’intelligence artificielle

Article

Texte intégral

1Après l’informatisation des entreprises dans les années 1980, les mises en réseaux de leurs systèmes d’information dans les années 2000, on en serait à la mise en intelligence des données à l’aube de 2020. Cette dernière vague monte de manière très rapide et préoccupante, mettant en avant des concepts scientifiques très vite renouvelés : « Big Data » il y a cinq ans, « Data Science » il y a trois ans et « Artificial Intelligence » depuis un an.

2La situation actuelle de l’intelligence artificielle (IA) tient tout à la fois d’un socle de recherches académiques pertinent, d’un foisonnement de réalisations témoignant de la maturité de certaines technologies, et d’un enthousiasme de tous les acteurs, chercheurs, enseignants, entrepreneurs, politiques et financeurs qui travaillent dans ce domaine. Pour un plus large public, l’intelligence artificielle recouvre aussi toutes les utopies et les fantasmes suscités par le croisement des deux termes « technologie » et « intelligence ». Finalement, toute cette effervescence autour de l’IA n’est pas sans rappeler la bulle « internet » du début des années 2000 : des levées de fonds de plus en plus importantes et des annonces de plus en plus spectaculaires vers un public toujours plus avide de nouveautés.

3Pourtant les bases de l’intelligence artificielle sont au moins aussi anciennes que celles de l’informatique. Les premiers grands principes de l’IA sont contemporains des premiers calculateurs mis au point durant la seconde guerre mondiale. Dans son article « Computing Machinery and Intelligence », publié en 1950, Alan Turing explique que la puissance des calculateurs mécaniques amènera tôt ou tard à se poser la question du statut de l’intelligente pour les machines (Turing 1950). Évidemment, dans ce texte Turing ne parlait ni d’intelligence artificielle, ni d’ordinateur. Et pour cause : ces deux termes ne firent leur apparition que quelques années plus tard. Pour l’IA ce fut à l’occasion des rencontres scientifiques qui se déroulèrent au Dartmouth College, à l’été 1956 ; l’expression « Intelligence artificielle » y fut préférée à celle de « raisonnement automatique » pour désigner ce domaine naissant (Crevier 1993). Selon les ambitions de l’époque, « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit si précisément qu’il est possible de construire une machine pour le simuler ». De son côté, « ordinateur » a été proposé en France en 1955 pour traduire le terme anglais « computer ». Les médias parlaient alors de « cerveaux électroniques » et le terme de calculateur a désigné pendant tout le programme américain de la conquête spatiale, aussi bien les humains affectés aux calculs de trajectoires que les machines qui commençaient à les assister dans cette tâche.

4Quoi qu’il en soit, Turing exposa dès 1950 ce qu’était le fonctionnement conceptuel d’un ordinateur (la fameuse « machine de Turing »), la manière dont une machine pourrait bluffer un humain par ses réponses (le fameux « test de Turing » ou « jeu de l’imitation ») et surtout les neuf objections que ne manqueraient pas de faire les gens, selon lui, pour refuser le statut d’intelligence à une machine : « Dieu ne le permettra jamais… », « Je préférerais ne pas le savoir… », « Telle ou telle question ne peut pas être abordée par des calculs sur des variables discrètes… », « La conscience n’est pas basée sur du calcul… », « Une machine aura toujours telle ou telle incapacité… », « Les machines ne réalisent que ce pourquoi elles sont programmées… », « La continuité du système nerveux ne peut pas être reproduite par des machines à états discrets… », « Les comportements humains sont potentiellement infinis… », « Les capacités extrasensorielles ne sont pas modélisables… ». Mis à part la neuvième objection qu’il avoue être imparable (si toutefois l’humain serait doté de telles capacités !), Turing réfute de façon argumentée les huit autres objections (Le Blanc 2014).

5Ce débat « Une machine peut-elle bluffer un humain ? » a par la suite été reformulé dans la question « La sémantique peut-elle se réduire à un agencement syntaxique ? » de J. Searle et même celle de P. Churchland « Connaîtra-t-on un jour les lois qui gouvernent la sémantique ? ». Toujours est-il que à côté de cette recherche visant à doter les machines de facultés liées à la pensée (ce que l’on désigne par l’IA forte), toute une branche de recherche s’est constituée autour des algorithmes que l’on peut concevoir pour faire réaliser à des machines des tâches qui chez l’humain demandent une certaine intelligence (IA faible). Faute de pouvoir fabriquer une véritable conscience artificielle, les ingénieurs simulent l’intelligence : la machine semble agir comme si elle était intelligente.

6Évidemment les résultats de cette mécanisation de l’intelligence sont de plus en plus surprenants à tel point que les pouvoirs publics s’interrogent et que les entrepreneurs sentent le bon filon. Qui n’a pas rêvé d’un ordinateur ou d’un assistant personnel préparant votre travail, rangeant et organisant vos documents, ou même anticipant vos besoins en fonction de votre planning ? La question actuelle n’est donc pas de savoir si cela est possible, mais de jauger combien vous êtes prêts à payer pour tendre vers de tels services. Les applications actuelles semblent n’avoir plus qu’une seule limite, celle de l’imagination des entrepreneurs. Pourtant la technologie sur laquelle repose l’engouement actuel de l’IA date des années… 1980.

7Les réseaux de neurones composent une forme d’opérateur de reconnaissance de formes stables, acquis à partir d’une très grande base d’exemples que l’on souhaite voir reconnus par le système et auxquels sera rapproché tout nouvel état présenté au système. Pensés dès les années 40, les réseaux de neurones butèrent longtemps sur la capacité à modéliser des phénomènes non linéaires. Ce point fut résolu par les travaux du groupe de Rumelhart & McClelland (1988). Les réseaux de neurones reviennent aujourd’hui sur le devant de la scène, car leur combinaison avec des nouveaux types de capteurs (caméras, GPS, Internet des objets) combinés aux puissances de calcul graphique actuelles donne des résultats spectaculaires en termes de reconnaissance des formes (par exemple l’identification de visages sur des flux vidéos). Tout ceci ouvre des perspectives dont se saisissent les entrepreneurs : “The business plans of the next 10,000 startups are easy to forecast : take X and add AI” disait Kevin Kelly dans le magazine Wired en 2014.

8Tant aux USA, qu’au Japon ou en France, les pouvoirs publics se sont tous emparés du sujet. En France l’OPECST (office parlementaire) a mené une large étude (février 2016 - mars 2017) et produit un rapport en faveur d’une « intelligence artificielle maîtrisée, utile et démystifiée ». Du côté du gouvernement, ce sont les cabinets des Secrétariats d’État chargés du Numérique et de l’Innovation (SENUM) et de l’Enseignement Supérieur et de la Recherche (SESR) qui ont mené le programme #FranceIA (janvier 2017 - mars 2017). Plus de 50 personnes ont été auditionnées par l’OPECST et plus de 550 participants ont contribué aux 17 groupes de travail de #FranceIA. Ces travaux ont réuni toutes les grandes familles de la communauté IA française et ont fédéré les nombreuses initiatives émergentes en France, d’une part pour définir un plan d’actions nationales et y associer des financements, notamment via le Programme d’Investissements d’Avenir, d’autre part pour animer le débat public et mettre en avant le potentiel de la France.

9Grâce à ces travaux, on voit se dessiner trois forces autour de l’IA.

10Premièrement des actions liées à la recherche, la formation et à la mise en place de plateformes communes de travail académique. Sur ce domaine les atouts de la France tiennent à la force de ses équipes de recherche, tant dans toute l’étendue des champs du cœur de l’IA (apprentissage machine, traitement du langage naturel, interactions humains-machines, robotique, logiques, raisonnement, etc.) que dans l’association que peuvent en faire les chercheurs avec d’autres disciplines (mathématiques, sciences de la cognition, sciences de l’homme, sciences de la société, sciences biologiques, etc.).

11Deuxièmement, des actions de transfert et d’innovation qui se poursuivent et s’amplifient, à la fois dans des écosystèmes structurés en filières industrielles, et dans des actions transverses de certification, d’expérimentation à grande échelle, d’accompagnement des start-ups. Pour cela, on peut se féliciter du tissu entrepreneurial et de la dynamique d’innovation que l’on retrouve partout en France, notamment dans les métropoles irriguées par le programme « French Tech ».

12Troisièmement, un travail qui s’accomplit sur l’impact de l’intelligence artificielle dans la société (autour de la mission confiée à la CNIL sur l’éthique et les algorithmes) et sur les emplois (avec une étude de France Stratégie). Les questions de législation, d’éthique et plus généralement d’interdisciplinarité autour de l’IA et des SHS (Sciences de l’Homme et Sciences de la Société) constituent un atout majeur de la France et sur ce point beaucoup de pays nous regardent.

13En six mois la France a su mobiliser chercheurs et entrepreneurs pour établir un bilan précis des forces et des faiblesses du pays dans le domaine de l’IA. Du côté des forces on trouve des personnes de talent, des idées et de l’innovation. Du côté des faiblesses on trouve une frilosité des pouvoirs publics et une absence des grands groupes industriels. Au final, une cinquantaine de recommandations viennent appuyer un inventaire dont le nouveau gouvernement doit se saisir pour établir une stratégie, c’est-à-dire faire des choix pour concentrer les efforts et fédérer les énergies. Il peut ressortir de cela, soit des actions vers des filières thématiques comme celles des véhicules autonomes, des agents conversationnels ou des assistants décisionnels, soit des actions vers des domaines scientifiques à explorer plus particulièrement comme le traitement de la langue, l’apprentissage machine ou l’informatique bio-inspirée. Quoi qu’il en soit ces actions seront interdisciplinaires et leurs supports mobiliseront recherche, formation et transfert vers l’entreprise. Pour fournir de l’intelligence aux machines, il reste encore une bonne dose de travail humain à produire.

Bibliographie

Rapport de l’OPECST, « Pour une IA maîtrisée, utile et démystifiée » : http://www.senat.fr/notice-rapport/2016/r16-464-1-notice.html http://www.senat.fr/notice-rapport/2016/r16-464-2-notice.html

Rapports #FranceIA : https://www.economie.gouv.fr/France-IA-intelligence-artificielle http://www.enseignementsup-recherche.gouv.fr/cid114739/rapport-strategie-france-i.a.- pour-le-developpement-des-technologies-d-intelligence-artificielle.html

(Turing 1950)

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59 (236), 433-460.

(Crevier 1993)

Crevier, D. (1993). À la recherche de l’intelligence artificielle. flammarion.

(Le Blanc 2014)

Le Blanc, B. (2014). Alan Turing : les machines à calculer et l’intelligence. Hermès, La Revue, (1), 123-126.

(Rumelhart et al. 1988)

Rumelhart, D. E., McClelland, J. L., & PDP Research Group. (1988). Parallel distributed processing (Vol. 1, pp. 443-453). IEEE.

Pour citer ce document

Benoit Le Blanc, «Une stratégie nationale pour l’intelligence artificielle», Les Cahiers de la SFSIC [En ligne], Collection, 14-Varia, DANS L'ACTUALITÉ,mis à jour le : 05/04/2020,URL : http://cahiers.sfsic.org/sfsic/index.php?id=209.

Quelques mots à propos de : Benoit Le Blanc

ENSC-Bordeaux INP1 (École nationale supérieure de cognitique), INP, IMS-UMR5218