![]() |
Cet article s’inscrit dans une série de 4 articles dont le prochain traitera des avantages, des limites, des éventuels dangers de l’IA et de la manière de l’utiliser rationnellement sans risque d’assujettissement.
**
Nous avons montré dans deux articles précédents comment concrètement les logiciels d’ IA peuvent répondre à des questions relativement complexes.
L’intelligence artificielle face à une possible existence d’intelligence extraterrestre. https://www.gauchemip.org/spip.php?...
L’identité nationale à la lumière de l’intelligence artificielle. https://www.gauchemip.org/spip.php?... E
Nous poursuivons donc notre chemin.
1 – Historique de l’intelligence artificielle sur le plan théorique et pratique.
Les étapes marquantes du développement de l’intelligence artificielle (IA) montrent comment ce domaine a évolué, des premières idées conceptuelles à nos systèmes modernes. Voici une vue d’ensemble en soulignant les grandes étapes, y compris l’apparition des systèmes experts.
Nous commençons d’abord par la naissance du concept de neurones en intelligence artificielle.
En intelligence artificielle, un neurone artificiel est une unité de calcul inspirée du neurone biologique, utilisée dans les réseaux de neurones artificiels (RNA). Il constitue l’élément de base des architectures de deep learning.
Définition et Nature Algorithmique
Un neurone artificiel est une fonction mathématique et algorithmique qui reçoit plusieurs entrées pondérées, applique une transformation (souvent une somme pondérée suivie d’une fonction d’activation) et produit une sorti qui, à son tour, peut être pondéré e. Sa nature est essentiellement algorithmique et statistique, bien que son inspiration soit biologique.
Dans un réseau, la sortie d’un neurone constitue une entrée d’un autre neurone et ainsi de suite.
La notion de neurone artificiel en intelligence artificielle a été introduite en 1943 par Warren McCulloch et Walter Pitts dans leur article fondateur "A Logical Calculus of Ideas Immanent in Nervous Activity".
Dans cet article, ils ont modélisé un neurone biologique sous forme d’un neurone formel, une unité simple capable d’effectuer une somme pondérée de ses entrées et de produire une sortie binaire en fonction d’un seuil. Ce modèle a jeté les bases des réseaux de neurones artificiels et de l’apprentissage machine.
Les débuts de l’IA (1943-1960)
1943 : Warren McCulloch et Walter Pitts introduisent la notion de neurone artificiel avec leur modèle formel de neurone binaire, jetant les bases des réseaux neuronaux artificiels.
1951 : Christopher Strachey développe un programme de jeu de dames, l’un des premiers programmes d’IA.
1956 : La Conférence de Dartmouth marque le début officiel de l’IA comme discipline académique, avec des figures comme John McCarthy et Marvin Minsky.
1957 : Frank Rosenblatt conçoit le perceptron, un modèle de neurone artificiel capable d’apprentissage.
1958 : John McCarthy crée le langage de programmation LISP, adapté aux systèmes d’IA.
1961 : Introduction du premier robot industriel, Unimate, sur une chaîne de production.
Progrès et limites (1965-1980)
1965 : J. Alan Robinson développe des algorithmes de résolution pour la logique automatisée.
1966 : Joseph Weizenbaum crée ELIZA, un programme de traitement du langage simulant une psychothérapeute.
1969 : La correspondance de Curry-Howard établit un lien entre la logique formelle et la programmation.
1970 : Shakey est le premier robot capable de raisonner sur ses actions.
1972 : PROLOG, langage de programmation logique, est développé par Alain Colmerauer et Robert Kowalski.
1974-1980 : Premier "hiver de l’IA" en raison d’attentes démesurées et d’un manque de progrès.
1976 : La preuve du théorème des quatre couleurs est assistée par ordinateur.
1980 : Réapparition de l’IA avec les systèmes experts (MYCIN, DENDRAL, XCON).
Renaissance et avènement du machine learning (1981-2000)
1981 : Le Japon lance le "Fifth Generation Project" pour créer des systèmes informatiques avancés.
1982 : John Hopfield redynamise les réseaux neuronaux avec son modèle basé sur l’énergie.
1986 : La rétropropagation du gradient est popularisée par Rumelhart, Hinton et Williams.
1987 : Second "hiver de l’IA" avec l’échec des systèmes experts commerciaux.
1990 : Popularisation des algorithmes génétiques inspirés de l’évolution biologique.
1997 : Deep Blue bat Garry Kasparov aux échecs.
1999 : Sony développe AIBO, un robot chien.
L’ère du deep learning et de l’IA grand public (2001-2020)
2006 : Geoffrey Hinton relance l’apprentissage profond (deep learning).
2011 : IBM Watson remporte Jeopardy ! contre des champions humains.
2012 : AlexNet gagne la compétition ImageNet, popularisant les réseaux neuronaux convolutifs.
2014 : Eugene Goostman passe partiellement le test de Turing.
2015 : AlphaGo bat les meilleurs joueurs de Go.
2016 : Progrès des voitures autonomes avec Tesla et Waymo.
2017 : Google présente Transformer, modèle à la base de ChatGPT.
2018 : OpenAI dévoile GPT-2, améliorant le traitement du langage naturel.
2019 : AlphaFold de DeepMind résout des problèmes de pliage de protéines.
2020 : GPT-3 repousse les limites de la génération de texte par IA.
L’IA moderne et son impact sociétal (2021-2025)
2021 : OpenAI présente Codex, capable de générer du code informatique.
2022 : ChatGPT et DALL-E popularisent l’IA générative à grande échelle.
2023 : Fusion de l’IA et de la santé pour des diagnostics précis.
2024 : Apparition de lois encadrant l’usage de l’IA.
2025 : Premiers développements en IA quantique et émergence de l’IA émotionnelle.
Futur proche : vers l’intelligence artificielle générale (AGI)
Le débat continue sur la création d’une IA capable de résoudre tout type de problème, avec des enjeux éthiques et technologiques majeurs.
Cette chronologie illustre l’évolution de l’IA, des premiers modèles théoriques aux applications actuelles, en passant par les hivers de l’IA et les grandes avancées du deep learning.
**
2 – Un cas particulier important : L’aide à la décision juridique et à la décision politique.
Les logiciels d’IA pour les juristes sont de plus en plus sophistiqués et couvrent un large éventail d’activités juridiques, telles que l’analyse de cas, la rédaction de contrats, ou encore la prédiction des décisions judiciaires. Voici quelques exemples.
Logiciels d’analyse de cas et de jurisprudence :
LexisNexis (Lexis+ ou Lexis Analytics) : Fournit des outils d’IA pour analyser rapidement des bases de données juridiques, trouver des précédents et estimer les chances de succès d’un dossier.
Thomson Reuters (Westlaw Edge) : Intègre une IA pour analyser les jurisprudences, anticiper les aléas jurisprudentiels pour estimer les chances de succès devant les tribunaux.
LegalRobot : Fournit des conseils juridiques automatisés en fonction des lois et décisions antérieures.
Automatisation et gestion des processus juridiques :
DoNotPay : Une IA qui aide les particuliers et entreprises à gérer des procédures simples comme contester une amende ou déposer des réclamations.
Casetext : Aide les avocats à trouver rapidement des documents et des arguments juridiques pertinents.
Ces outils permettent de gagner du temps, d’améliorer la précision et, dans certains cas, de réduire les coûts associés aux services juridiques.
*
Dans le domaine politique, les outils d’IA commencent à émerger pour aider à la prise de décision stratégique ou à l’élaboration des politiques. Voici quelques exemples d’applications actuelles :
Analyse des données publiques et des tendances sociales :
Civis Analytics : Utilisé pour analyser les opinions publiques, prévoir les résultats électoraux et évaluer l’impact potentiel de certaines politiques.
Pol.is : Une plateforme d’IA participative qui analyse les contributions citoyennes pour comprendre les opinions et les consensus sur des sujets complexes.
Modélisation et simulation des politiques publiques :
PolicyBrain : Simule l’impact de certaines politiques sur les finances publiques ou l’économie d’un pays en fonction de différents scénarios.
AI4Policy : Utilise l’IA pour fournir des recommandations sur l’élaboration de lois en fonction de données économiques, sociales et environnementales.
Détection et gestion de la désinformation :
Des outils comme Factmata ou NewsGuard utilisent l’IA pour analyser la fiabilité des informations dans les débats publics et aider les décideurs à naviguer dans un environnement médiatique complexe.
Optimisation des campagnes électorales :
Deep Root Analytics ou Cambridge Analytica (avant sa dissolution) ont utilisé des algorithmes pour cibler des électeurs en fonction de leurs comportements en ligne et élaborer des messages politiques sur mesure.
Prédiction des comportements politiques :
L’IA peut analyser des bases de données massives (sondages, réseaux sociaux, etc.) pour prédire des comportements électoraux ou l’impact de décisions spécifiques.
Limites et enjeux éthiques
Dans les deux domaines (juridique et politique), l’usage de l’IA pose des questions éthiques et pratiques :
Transparence : Comment s’assurer que les décisions de l’IA sont compréhensibles et justifiées ?
Biais algorithmiques : Les outils d’IA sont susceptibles d’hériter des biais des données sur lesquelles ils sont entraînés.
Confidentialité et protection des données : Notamment dans le cadre de données sensibles, comme celles des affaires juridiques ou des sondages politiques.
Ces outils, bien qu’utiles, sont souvent considérés comme des compléments aux experts humains et non comme des substituts. La décision finale reste généralement entre les mains des professionnels.
Mais qu’en sera-t-il dans 10 ans ?
N’oublions pas que dans le domaine du trading haute fréquence, ce sont des logiciels d’IA qui décident déjà à la place de l’humain.
Voir par exemple le livre de Jean François Gayraud, le capitalisme criminel. (Odile Jabob)
**
3 – Surveillance et contrôle des citoyens avec l’IA
Voici un bilan structuré des différentes techniques de contrôle ou de surveillance des citoyens par l’intelligence artificielle, en mettant en avant leurs applications, les outils utilisés, leurs implications potentielles et les enjeux éthiques associés.
1. Vidéosurveillance augmentée et reconnaissance faciale
Utilisation :
Analyse des flux vidéo pour détecter des comportements suspects ou identifier des individus en temps réel.
Reconnaissance faciale pour identifier des personnes recherchées, surveiller des foules ou vérifier l’identité dans des lieux publics.
Détection de mouvements anormaux ou regroupements inhabituels grâce à des algorithmes d’analyse de comportement.
Outils :
Caméras intelligentes connectées à des bases de données biométriques.
IA capables de matcher des visages captés dans des espaces publics avec des fichiers d’identité (police, bases privées).
Implications :
Positif : aide à la sécurité publique, prévention du crime et du terrorisme.
Négatif : atteinte aux libertés individuelles, erreurs d’identification (biais algorithmiques), surveillance de masse.
Exemples :
Débats sur l’expérimentation en France dans des espaces publics comme les gares ou les aéroports.
Voici un état des lieux sur cette question sur le plan règlementaire en France :
1. o Décret Alicem (2019) : Le décret n° 2019-452 du 13 mai 2019 a permis la mise en place de l’application Alicem (Authentification en Ligne Certifiée sur Mobile), qui utilise la reconnaissance faciale pour accéder à des services publics en ligne. Ce décret a été controversé et attaqué par des associations comme La Quadrature du Net, mais il constitue un premier usage officiel par l’État.
o Proposition de loi du Sénat (2023) : Le 12 juin 2023, le Sénat a adopté en première lecture une proposition de loi portée par les sénateurs Marc-Philippe Daubresse (LR) et Arnaud de Belenet (centriste). Ce texte autorise une expérimentation de la reconnaissance faciale dans l’espace public pour une durée de trois ans, limitée à des cas graves (terrorisme, criminalité organisée, enlèvements d’enfants). Cependant, cette proposition n’a pas encore été adoptée par l’Assemblée nationale ni transformée en loi définitive à ce jour (février 2025).
o Loi JO 2024 (2023) : La loi n° 2023-380 du 19 mai 2023, relative aux Jeux Olympiques et Paralympiques de 2024, a introduit l’article 7 autorisant l’expérimentation de la vidéosurveillance algorithmique (VSA) jusqu’au 30 juin 2025. Bien que cette loi n’autorise pas explicitement la reconnaissance faciale en temps réel, elle ouvre la voie à des technologies de surveillance avancées, et des débats ont eu lieu sur son possible élargissement.
2. Projet récent dans les transports (2025) : Selon des informations relayées sur les réseaux sociaux en février 2025, un article 9 bis inséré dans une proposition de loi sur les transports pourrait réautoriser pour trois ans l’usage de la reconnaissance faciale via caméras et drones autour des stades, des rues environnantes et dans les transports. Cependant, à la date actuelle (17 février 2025), cela reste une proposition en cours de discussion et non une loi ou un décret promulgué.
Utilisation :
Constitution de bases de données sur les citoyens incluant :
Opinions politiques et religieuses et philosophique.
Participations à des manifestations ou des activités militantes.
Habitudes personnelles ou interactions sociales.
Outils :
Analyse des réseaux sociaux et des publications personnelles.
Algorithmes d’analyse sémantique pour profiler les individus en fonction de leurs opinions.
Implications :
Positif : possible lutte contre le racisme ou les comportements illégaux en ligne.
Négatif : menace pour la vie privée, discrimination (par exemple, exclusion de certains groupes), dérive autoritaire.
Exemple en France :
Le décret du 2 décembre 2020 qui autorisait le fichage des opinions politiques, religieuses et des données de santé pour certains objectifs, notamment la sécurité.
Voir article du monde du 7/12/2020 https://www.lemonde.fr/pixels/artic...
Utilisation :
Modération automatique des contenus pour :
Supprimer les discours haineux, la désinformation ou les contenus illégaux.
Identifier des mouvements sociaux ou des discussions sensibles.
Outils :
Algorithmes de détection de contenu (texte, image, vidéo).
Surveillance des interactions entre utilisateurs (likes, partages, commentaires).
Implications :
Positif : lutte contre les fake news, harcèlement ou terrorisme.
Négatif : censure des opinions minoritaires, contrôle excessif des débats démocratiques.
Exemple :
Les plateformes comme Facebook ou Twitter utilisent des IA pour modérer en temps réel les contenus.
Utilisation :
Attribution d’un score basé sur les comportements des citoyens (ex. respect des lois, interactions sociales, opinions politiques). Contrôle des accès à des droits ou services publics (prêts bancaires, mobilité, emplois).
Outils :
IA analysant les données collectées via les plateformes numériques, caméras et historiques d’achats.
Intégration avec des systèmes d’État ou des entreprises privées.
Implications :
Positif : incitation au respect des lois ou à des comportements vertueux (écologie, sécurité).
Négatif : discrimination systémique, surveillance constante, suppression des libertés.
Exemple :
Utilisation :
Détection des comportements potentiellement déviants ou suspects avant qu’un crime ne soit commis (modèle "Minority Report").
Anticipation de troubles sociaux ou mouvements de protestation.
Outils :
Modèles prédictifs basés sur des historiques de données criminelles, sociales ou économiques.
Algorithmes de machine learning.
Implications :
Positif : prévention de crimes ou troubles majeurs.
Négatif : profilage excessif, risque d’accuser à tort des personnes.
Exemples :
PredPol, un logiciel utilisé par certaines polices aux États-Unis pour prédire les zones où des crimes pourraient se produire.
Utilisation :
Collecte massive de données via :
Suivi des sites visités, recherches effectuées, et activités sur internet.
Surveillance des communications privées (emails, SMS, appels).
Outils :
Exploitation des métadonnées numériques via des outils comme PRISM (NSA) ou Pegasus.
IA d’analyse des modèles d’utilisation.
Implications :
Positif : lutte contre les cyberattaques, protection des infrastructures critiques.
Négatif : intrusion dans la vie privée, surveillance des opposants politiques.
Enjeux éthiques et juridiques
Proportionnalité : Jusqu’où les États peuvent-ils aller pour garantir la sécurité sans porter atteinte aux droits fondamentaux ?
Transparence : Les citoyens ont-ils accès aux données collectées sur eux ou à la logique des algorithmes utilisés ?
Biais algorithmiques : Les IA de surveillance risquent de reproduire ou d’amplifier des discriminations existantes.
Encadrement juridique : Des lois (comme le RGPD en Europe) existent pour encadrer ces usages, mais leur application reste souvent floue.
En résumé, si l’IA offre des outils puissants pour renforcer la sécurité et l’efficacité des services publics, son utilisation dans la surveillance des citoyens soulève des défis majeurs en matière de respect de la vie privée, de libertés individuelles et de gouvernance démocratique.
Un contrôle citoyen et législatif est particulièrement nécessaire dans ce domaine.
**
4 – La recherche en intelligence artificielle en France
La France dispose d’un réseau étendu de centres de recherche en intelligence artificielle (IA), répartis entre instituts nationaux, laboratoires affiliés à des organismes tels que le CNRS et le CEA, ainsi que des unités au sein d’universités prestigieuses. Voici une présentation des principaux acteurs dans ce domaine :
Inria (Institut national de recherche en informatique et en automatique) : Fondé en 1967, Inria est un acteur majeur de la recherche en informatique et en IA en France. Il compte plusieurs centres répartis sur le territoire, notamment à Paris, Grenoble, Bordeaux, Lille, Nancy, Rennes, Saclay et Sophia Antipolis. Inria est reconnu pour ses contributions significatives en apprentissage automatique, traitement du langage naturel et robotique. INRIA.FR
Laboratoires affiliés au CNRS :
Laboratoire d’Informatique de Paris 6 (LIP6) : Situé à Paris et affilié à Sorbonne Université, le LIP6 est l’un des plus grands laboratoires d’informatique en France. Ses recherches couvrent des domaines tels que l’apprentissage automatique, la robotique et les systèmes intelligents.
Laboratoire d’Informatique de Grenoble (LIG) : Basé à Grenoble, le LIG est reconnu pour ses travaux en systèmes intelligents, interaction homme-machine et traitement de l’information.
Laboratoire d’Informatique, de Robotique et de Microélectronique de Montpellier (LIRMM) : Ce laboratoire mène des recherches interdisciplinaires en informatique, robotique et microélectronique, avec un accent sur l’IA et ses applications.
Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS-CNRS) : Situé à Toulouse, le LAAS-CNRS est reconnu pour ses recherches en automatique, informatique, micro et nanosystèmes, et robotique, intégrant des approches en intelligence artificielle.
Laboratoires affiliés au CEA :
CEA List : Basé à Paris-Saclay et à Grenoble, le CEA List est spécialisé dans les systèmes numériques intelligents. Ses programmes de R&D sont centrés sur l’industrie du futur, le jumeau numérique, l’intelligence artificielle et la confiance numérique.
LIST.CEA.FR Instituts Interdisciplinaires d’Intelligence Artificielle (3IA) :
Dans le cadre de la stratégie nationale pour l’IA, la France a créé des Instituts Interdisciplinaires d’Intelligence Artificielle pour renforcer la recherche, la formation et l’innovation en IA :
3IA Côte d’Azur : Situé à Nice, cet institut se concentre sur l’IA appliquée à la santé et au développement des territoires.
MIAI Grenoble Alpes : Basé à Grenoble, il met l’accent sur l’IA pour l’humain et l’environnement.
PRAIRIE : Localisé à Paris, cet institut se focalise sur l’IA pour la santé, les transports et l’environnement.
ANITI : Situé à Toulouse, il se concentre sur l’IA pour les transports, la santé et l’environnement.
INSTITUTS-3IA.FR
Hi ! PARIS : Créé en 2020 par HEC Paris et l’Institut Polytechnique de Paris, ce centre se consacre à la recherche et à l’innovation en IA et en science des données, avec un focus sur les applications pour les entreprises et la société.
Institut des Systèmes Intelligents et de Robotique (ISIR) : Affilié à Sorbonne Université et au CNRS, l’ISIR est spécialisé dans la robotique, l’intelligence artificielle et la manipulation d’objets, avec des recherches sur les algorithmes de perception, l’apprentissage par renforcement et la modélisation du mouvement.
Ces institutions, parmi d’autres, illustrent la vitalité et la diversité de la recherche en intelligence artificielle en France, couvrant un large éventail de domaines et d’applications.
**
5 – Quelques documents d’information sur l’intelligence artificielle.
Présentation et titre des cinq conférences du collège de France : https://www.college-de-france.fr/fr...
Initiation à l’apprentissage profond : au cœur de l’IA par Benoît Sagot. https://www.college-de-france.fr/fr...
Quelle confiance peut-on avoir en un logiciel d’IA ? Les erreurs, etc. par Xavier Leroy https://www.college-de-france.fr/fr...
*Impact de l’IA sur la croissance et l’emploi. Encadrement juridique du développement de l’IA.
Conférence du collège de France
L’IA et ses défis (Partie 1) - Philippe Aghion (économiste) et Suzanne Vergnolle (juriste)
L’IA et ses défis (Partie 1) - Philippe Aghion (économiste) et Suzanne Vergnolle (juriste)
https://www.youtube.com/watch?v=Upg...
Vers quelle société nous mène l’IA et ses filtres ? Par Jean-François Bonnefon
https://www.inria.fr/fr/hybrider-si...
*
Lettre service – public.fr 11 85 du 13 février 2025
Intelligence artificielle (IA) : lancement de la 3e étape de la stratégie nationale Publié le 11 février 2025
La première phase de la stratégie nationale pour l’IA a consisté à renforcer les capacités de la recherche scientifique, la deuxième phase à la diffuser à travers l’économie. Il s’agit désormais de diffuser l’IA plus largement dans toute la société, tout en évitant une nouvelle fracture numérique.
Le gouvernement a présenté le troisième volet de sa stratégie pour l’IA, à l’issue d’un comité interministériel de l’intelligence artificielle, présidé par le Premier ministre François Bayrou, le 6 février 2025.
Une IA au service des politiques publiques et de l’efficacité administrative
Selon les termes du dossier de presse, concernant les agents publics : "un plan de déploiement d’outils d’IA générative va permettre à chaque agent de bénéficier d’assistants IA capables de leur faire gagner du temps et de l’efficacité dans leurs tâches administratives quotidiennes."
Les premiers ministères concernés par ce déploiement seront ceux chargés de :
la santé, où une expérimentation inédite va notamment être menée pour évaluer l’impact médico-économique de l’utilisation de l’IA dans l’aide à l’interprétation des électrocardiogrammes ;
la justice, où des cas d’usage prioritaires vont être travaillés comme l’interprétariat et la traduction, la retranscription, le résumé de documents ou de dossiers ou l’appui à la recherche d’informations ;
l’éducation, où des actions consisteront d’une part, à former les élèves et les enseignants et soutenir la communauté éducative et d’autre part à utiliser l’IA pour simplifier les tâches administratives des agents (production de rapports, synthèse d’indicateurs par exemple).
L’automatisation des tâches de transcription multilingue et de traduction, mise en place au sein du ministère de l’Europe et des affaires étrangères, va être déployée en interministériel.
La Direction générale de la sécurité civile et de la gestion des crises (ministère de l’intérieur) a lancé un projet visant à identifier au plus tôt les départs de feu - grâce à une analyse automatique et en temps réel par vues aériennes - et permettant d’anticiper leur évolution et d’engager les moyens adéquats pour être le plus efficient possible.
IA dans les services publics : comment mieux protéger les droits des usagers ?
Quels sont les atouts de la France en matière d’IA ?
D’après le dossier de presse du gouvernement, la troisième étape de la stratégie pour l’IA consiste notamment à renforcer l’attractivité du territoire pour :
implanter des infrastructures dédiées à l’IA, grâce à une production d’électricité "décarbonée, abondante et stable" et 35 sites prêts à accueillir des data centers ;
accueillir les talents internationaux, grâce à des visas spécifiques et à des postes de professeurs d’université ou de directeurs de recherche.
Par ailleurs, la France continue de renforcer son autonomie stratégique avec trois supercalculateurs publics :
Jean Zay (Centre national de la recherche scientifique - CNRS) ;
Adastra (Centre informatique national de l’enseignement supérieur - CINES) ;
Alice Recoque (Commissariat à l’énergie atomique - CEA). Intelligence artificielle : quelles conséquences dans les entreprises ? ( 20 janvier 2025)
Lire la suite en utilisant l’URL :
https://www.vie-publique.fr/en-bref...
**
Rapport d’information du Sénat sur l’intelligence artificielle générative et les métiers du droit. Décembre 2024
https://www.senat.fr/notice-rapport...
*
https://www.vie-publique.fr/questio...
*
Les meilleures spécialistes français en intelligence artificielle.
La France compte plusieurs experts de renommée mondiale en intelligence artificielle (IA). Voici une liste de quelques-uns des plus éminents spécialistes français dans ce domaine :
Yann LeCun Pionnier du deep learning, il est le directeur scientifique de l’IA chez Meta (anciennement Facebook) et professeur à l’Université de New York. Lauréat du prix Turing en 2018, il est reconnu pour ses travaux sur les réseaux de neurones convolutifs.
François Chollet Créateur de la bibliothèque de deep learning Keras, il a été ingénieur chez Google et est l’auteur du livre ’Deep Learning with Python’. Ses recherches portent sur la vision par ordinateur et l’apprentissage automatique.
Isabelle Guyon Professeure à l’Université Paris-Saclay, elle est co-inventrice des machines à vecteurs de support (SVM) et a contribué de manière significative à la sélection de variables en machine learning.
Laurence Devillers Professeure à l’Université Paris-Sorbonne et chercheuse au CNRS, elle se spécialise dans les interactions homme-machine, la détection des émotions et l’éthique de l’IA.
Luc Julia Co-créateur de l’assistant vocal Siri d’Apple, il est actuellement directeur scientifique chez Renault. Il est également l’auteur du livre ’L’intelligence artificielle n’existe pas’.
*
6 – De l’enseignement programmé à l’enseignement intelligent assisté par ordinateur avec utilisation de l’IA
Voici une chronologie synthétique des principales étapes de l’enseignement assisté par ordinateur (EAO) :
Années 1950-1960 : L’ancêtre – L’enseignement programmé
Inspiré des travaux de B. F. Skinner sur le behaviorisme.
Présentation séquentielle de contenus avec évaluation immédiate des réponses.
Systèmes emblématiques : PLATO (Programmed Logic for Automated Teaching Operations) et TICCIT.
Années 1970-1980 : L’essor de l’EAO et les langages auteurs
Introduction de langages auteurs permettant aux enseignants de concevoir eux-mêmes leurs séquences d’apprentissage (ex. TUTOR pour PLATO, Toolbook, HyperCard).
Premiers tutoriels et exercices interactifs intégrés dans les formations professionnelles.
Années 1980-1990 : Enseignement intelligent assisté par ordinateur (EIAO)
Intégration de l’intelligence artificielle pour adapter l’enseignement au profil de l’apprenant.
Développement de systèmes tutoriels intelligents (ex. SCHOLAR, GUIDON).
Introduction d’outils d’apprentissage basés sur l’hypertexte et l’hypermédia.
Années 2000 : Apprentissage en ligne et plateformes numériques
Généralisation des Learning Management Systems (LMS) comme Moodle, Blackboard.
Émergence des MOOC (Massive Open Online Courses).
Intégration du multimédia (vidéos, simulations, jeux éducatifs).
Années 2010-2020 : IA et personnalisation de l’apprentissage
Développement des chatbots pédagogiques et tuteurs virtuels.
Analyse des données d’apprentissage (learning analytics) pour adapter les parcours.
Essor de la réalité virtuelle et augmentée dans l’éducation.
On assiste aujourd’hui à une convergence entre IA, apprentissage adaptatif et technologies immersives pour des expériences pédagogiques de plus en plus personnalisées et interactives.
*
Où en est l’enseignement intelligent assisté par ordinateur avec utilisation de l’IA aujourd’hui ?
L’enseignement intelligent assisté par ordinateur (EIAO) s’appuie sur l’intelligence artificielle (IA) et d’autres technologies pour personnaliser l’apprentissage et améliorer l’enseignement. Voici quelques exemples de didacticiels "intelligents" dans l’enseignement général et professionnel :
Enseignement général
Duolingo – Utilise l’IA pour adapter les leçons de langues en fonction du niveau et des erreurs de l’apprenant.
Khan Academy – Offre des exercices et des cours interactifs en mathématiques, sciences et autres matières avec un suivi personnalisé.
Smartick – Plateforme de mathématiques pour enfants qui ajuste automatiquement les exercices en fonction des performances de l’élève.
Century Tech – Utilise l’IA pour adapter les contenus en mathématiques, sciences et anglais aux besoins spécifiques de chaque élève.
ALEKS (Assessment and Learning in Knowledge Spaces) – Système adaptatif utilisé pour l’apprentissage des mathématiques et des sciences.
Enseignement professionnel et technique
Labster – Simulations de laboratoires virtuels pour les étudiants en sciences et santé.
Coursera & edX – Plateformes proposant des cours professionnels en ligne avec adaptation en fonction des résultats et des interactions.
Skillsoft – Solution de formation en entreprise qui adapte les parcours d’apprentissage selon les besoins des employés.
AutoCAD Tutoriels IA – Outils d’apprentissage interactifs pour les logiciels professionnels comme AutoCAD, utilisés dans l’ingénierie et le design.
IBM SkillsBuild – Programme de formation en IA et technologies numériques adapté aux demandeurs d’emploi et aux étudiants.
Ces outils exploitent l’IA et les données pour adapter les contenus aux apprenants, améliorer l’engagement et optimiser la rétention des connaissances.
*
7 – les différentes formes d’intelligence artificielle
Les différentes espèces ou formes d’intelligence artificielle : système expert, réseaux neuronaux, apprentissage profond, etc.
Voici un aperçu des différentes espèces ou formes d’intelligence artificielle (IA) :
Systèmes Experts (ou Systèmes à Base de Connaissances) :
Description : Ces systèmes imitent le processus de décision des experts humains dans un domaine spécifique. Ils utilisent des règles et des faits pour résoudre des problèmes complexes.
Exemple : Un système de diagnostic médical qui aide à identifier des maladies basées sur des symptômes.
Réseaux Neuronaux (Neural Networks) :
Description : Inspirés par le fonctionnement du cerveau humain, ces systèmes sont composés de nœuds interconnectés qui traitent l’information de manière distribuée. Ils excellent dans la reconnaissance de motifs.
Exemple : La reconnaissance de l’écriture manuscrite ou la classification d’images.
Apprentissage Automatique (Machine Learning) :
Description : Un sous-ensemble de l’IA où les algorithmes apprennent à partir des données. Ils peuvent s’améliorer avec l’expérience sans être explicitement programmés pour chaque tâche.
Types :
Supervisé : Les modèles sont entraînés avec des données étiquetées. Non supervisé : Les modèles doivent trouver des structures dans des données non étiquetées.
Apprentissage par renforcement : Les modèles apprennent à prendre des décisions en interagissant avec un environnement.
Apprentissage Profond (Deep Learning) :
Description : Une sous-catégorie de l’apprentissage automatique qui utilise des réseaux neuronaux avec plusieurs couches (d’où le terme "profond"). Ces réseaux sont particulièrement efficaces pour traiter de grandes quantités de données complexes.
Exemple : Les réseaux de neurones convolutifs (CNN) pour la vision par ordinateur ou les réseaux de neurones récurrents (RNN) pour le traitement du langage naturel.
IA Réactive vs IA à Mémoire (Reactive AI vs Memory-based AI) :
IA Réactive : Ne possède pas de mémoire ou de capacité à utiliser des expériences passées, elle réagit uniquement aux situations présentes.
IA à Mémoire : Peut utiliser des expériences passées pour influencer les décisions futures.
IA Limité vs IA Forte (Narrow AI vs Strong AI ou AGI - Artificial General Intelligence) :
IA Limité : Conçue pour une tâche spécifique, elle excelle dans ce domaine mais ne peut pas s’adapter à d’autres.
IA Forte : Théoriquement capable de comprendre, apprendre et appliquer l’intelligence à n’importe quelle tâche humaine, mais c’est encore au stade spéculatif.
Algorithmes Évolutionnaires :
Description : Ces algorithmes sont inspirés par le processus de l’évolution biologique, utilisant des techniques comme la sélection naturelle, la mutation, et le croisement pour résoudre des problèmes d’optimisation.
Systèmes Multi-Agents :
Description : Des systèmes où plusieurs agents (IA) interagissent dans un environnement, négocient, ou collaborent pour atteindre des objectifs.
Chaque forme d’IA a ses applications spécifiques et ses avantages en fonction du type de problème à résoudre.
**
8 – Les citoyens face au développement de l’intelligence artificielle.
Plusieurs mouvements citoyens, syndicaux et associatifs se mobilisent pour alerter sur les dangers potentiels de l’intelligence artificielle (IA) et proposer des cadres éthiques pour son développement.
Mouvements d’alerte et de proposition :
Pause IA : Cette organisation internationale, créée en 2023, milite pour une suspension temporaire des recherches sur les IA les plus avancées, invoquant des risques existentiels tels que la création d’IA incontrôlables ou l’utilisation malveillante de ces technologies. En septembre 2024, Pause IA a critiqué l’optimisme des autorités françaises concernant l’IA et a appelé à une prise de conscience accrue des dangers potentiels.
Sciences Citoyennes : Cette association française œuvre pour une science responsable et démocratique. Elle a signé, avec 630 autres organisations de la société civile, une lettre ouverte alertant les gouvernements sur les risques liés à l’IA, notamment en matière de surveillance et de respect des droits fondamentaux.
SCIENCESCITOYENNES.ORG
Future of Life Institute (FLI) : Think tank américain à l’origine d’une pétition en 2023 appelant à une "pause" dans les recherches sur les systèmes d’IA les plus avancés, le FLI s’inquiète des risques potentiels de l’IA pour l’humanité.
Associations de vigilance :
La Quadrature du Net : Association française de défense des droits et libertés des citoyens sur Internet, elle surveille de près les développements de l’IA, notamment en ce qui concerne la surveillance de masse et l’utilisation des données personnelles.
Amnesty International : Organisation internationale de défense des droits humains, elle a publié en novembre 2024 un rapport mettant en évidence les dérives potentielles de l’utilisation de l’IA dans les systèmes de protection sociale, soulignant les risques de discrimination et de violation de la vie privée.
Ces organisations, parmi d’autres, jouent un rôle crucial dans la sensibilisation du public et des décideurs aux enjeux éthiques, sociaux et politiques liés au développement et à l’utilisation de l’intelligence artificielle.
Débats et préoccupations autour de l’IA en France
La Défenseure des droits appelle à la vigilance sur l’usage des algorithmes par les services publics
Tribune collective publiée le 6 février 2025. Voir le site de la ligue des droits de l’homme :
https://www.ldh-france.org/6-fevrie...
*
9 – La consommation énergétique de l’intelligence artificielle.
L’impact énergétique de l’utilisation de l’intelligence artificielle (IA) est une question de plus en plus étudiée. L’entraînement et l’inférence des modèles d’IA, en particulier ceux basés sur l’apprentissage profond (deep learning), consomment une quantité importante d’énergie. Voici comment on peut méthodiquement évaluer cet impact :
1. Identifier les sources de consommation énergétique
L’impact énergétique de l’IA se répartit en plusieurs étapes :
L’entraînement des modèles : Les grands modèles (comme GPT-4) nécessitent des mois de calcul sur des milliers de GPU ou TPU dans des centres de données.
L’inférence (utilisation des modèles après entraînement) : Moins gourmand que l’entraînement, mais significatif à grande échelle.
Le stockage et la gestion des données : Nécessite des serveurs qui consomment de l’électricité en continu.
L’infrastructure (réseaux et centres de données) : Inclut la climatisation et la maintenance des serveurs.
2. Mesurer la consommation énergétique
Plusieurs approches permettent d’évaluer la consommation d’énergie d’un modèle d’IA :
Utilisation des outils spécifiques : Certains frameworks (comme EnergyUsage ou CodeCarbon) permettent d’estimer la consommation énergétique lors de l’entraînement et de l’inférence.
Suivi des données des fournisseurs de cloud : AWS, Google Cloud et Microsoft Azure fournissent des estimations d’empreinte carbone.
Évaluation du PUE (Power Usage Effectiveness) des centres de données : Il s’agit d’un indicateur mesurant l’efficacité énergétique.
3. Calculer l’empreinte carbone associée
La conversion de la consommation énergétique en empreinte carbone dépend de la source d’électricité utilisée :
Facteur d’émission : Variable selon le mix énergétique du pays ou du centre de données.
Émissions globales = Consommation énergétique (en kWh) × Facteur d’émission (kgCO₂/kWh).
4. Comparer avec d’autres usages
Pour donner un ordre de grandeur :
L’entraînement de GPT-3 aurait consommé environ 1 287 MWh, soit l’équivalent de plusieurs centaines de vols transatlantiques en émissions de CO₂.
Une simple requête sur un modèle peut consommer quelques joules à plusieurs watts-seconde, multipliée par des milliards d’utilisations.
5. Réduire l’impact énergétique
Optimisation des algorithmes (modèles plus petits, distillation de modèles). Utilisation de matériel plus efficace (TPU plus économes, GPU de nouvelle génération).
Utilisation d’énergies renouvelables pour alimenter les centres de données.
En combinant ces approches, on peut mieux comprendre et maîtriser l’impact environnemental de l’IA.
Un certain nombre de personnes et d’associations dénoncent, à juste titre, la consommation importante de l’IA en énergie. Mais se pose-t-elle la même question, par exemple, lorsqu’elles utilisent leur Smartphone, leur ordinateur et visionnent plus ou moins abondamment des vidéos sur YouTube ?
A-t-on une idée de la consommation énergétique liée à l’usage de YouTube sur les ordinateurs, les Smartphones, les tablettes. Cela pourrait mettre en perspective la consommation énergétique de l’intelligence artificielle. Je parle évidemment de l’utilisation de YouTube sans utilisation simultanée de l’intelligence artificielle.
Il existe plusieurs études et estimations sur la consommation énergétique liée à l’usage de YouTube sur différents appareils. Ces chiffres permettent effectivement de comparer l’impact énergétique du streaming vidéo avec celui de l’intelligence artificielle.
Consommation énergétique de YouTube selon le type d’appareil : Les chiffres varient en fonction de la qualité de la vidéo, du type de réseau utilisé (Wi-Fi, 4G, 5G) et de l’efficacité énergétique de l’appareil. Voici quelques estimations
Ordinateur portable :
Environ 50 Wh pour une heure de streaming en 1080p.
Cela inclut la consommation de l’écran, du processeur et du réseau Wi-Fi. Smartphone :
Environ 2 à 5 Wh par heure en Wi-Fi, un peu plus en 4G/5G.
Les smartphones consomment moins d’énergie que les ordinateurs, mais les réseaux mobiles (4G/5G) ont une empreinte énergétique élevée.
Tablette :
Autour de 8 à 12 Wh par heure en fonction de la luminosité de
Consommation moyenne horaire pour les télévisions connectées utilisant YouTube
• TV LED (50 pouces, Full HD) → 0,1 kWh • TV OLED (55 pouces, 4K) → 0,15 kWh • TV LED haut de gamme (65 pouces, 4K) → 0,2 kWh
la consommation horaire moyenne, tous supports confondus, est estimée à 0,188 KW H en France pour une heure de streaming.
La consommation énergétique par heure pour l’IA dépend du nombre de requêtes par heure.
Essayons de comparer la consommation énergétique de l’IA a celle de youtube.
Pour comparer la consommation énergétique horaire entre le streaming YouTube et l’utilisation de l’intelligence artificielle (IA) par un consommateur, examinons les données disponibles.
Streaming YouTube : Comme mentionné précédemment, une heure de streaming vidéo sur YouTube consomme environ 0,18 à 0,188 kWh.
Utilisation de l’IA : La consommation énergétique liée à l’utilisation de l’IA dépend principalement du nombre de requêtes effectuées et de l’énergie consommée par chaque requête.
• Consommation par requête : Une requête sur un modèle d’IA générative, tel que ChatGPT, consomme environ 2,9 wattheures (Wh) d’électricité, soit 0,0029 kWh.
• Nombre de requêtes par heure : Le nombre de requêtes qu’un utilisateur peut effectuer en une heure varie considérablement en fonction de l’usage. Par exemple, un utilisateur intensif pourrait soumettre une requête par minute, soit 60 requêtes par heure. D’autres pourraient en soumettre beaucoup moins.
Calcul de la consommation horaire :
• Pour 60 requêtes par heure : 0,0029 kWh/requête × 60 requêtes = 0,174 kWh
• Pour 30 requêtes par heure : 0,0029 kWh/requête × 30 requêtes = 0,087 kWh
• Pour 10 requêtes par heure : 0,0029 kWh/requête × 10 requêtes = 0,029 kWh
Ainsi, un utilisateur effectuant environ 60 requêtes IA par heure consommerait une quantité d’énergie comparable à une heure de streaming YouTube.
Cependant, avec un nombre de requêtes inférieur, la consommation énergétique de l’IA serait proportionnellement plus faible.
Indiquons que 42 millions de Français de plus de 15 ans utilisent YouTube chaque jour avec une durée moyenne d’utilisation de 41 minutes.
Selon les sources, entre 2 % et 12 % des Français utilisent régulièrement l’intelligence artificielle sachant que 39 % l’ont utilisé occasionnellement.
La durite d’utilisation par requête est d’une durée comprise entre 6 et 7 minutes.
Il est donc clair que la consommation d’énergie pour l’utilisation de YouTube est largement supérieure, pour l’instant, à celle de l’utilisation de l’intelligence artificielle.
Conclusion : si l’on veut parler valablement de la consommation énergétique et de l’énergie grise, il faut examiner l’ensemble de la production et de l’utilisation des technologies numériques : data Centers, multitude de sites et de plate-forme Internet ; téléviseur et ordinateur connecté avec, en outre, les supports nomades (téléphones portables, Smartphone,…). Il faudrait aussi faire la part de l’utilisation par les entreprises, les administrations et les particuliers.
La consommation énergétique de l’ IA ne doit pas être isolée de son contexte général de l’espace numérique.
**
10 – L’intelligence artificielle et les sociétés multinationales.
Plusieurs grandes entreprises nationales et multinationales développent activement l’intelligence artificielle (IA) à des fins commerciales, industrielles, militaires et de recherche. Parmi les plus influentes, on retrouve :
Google (Alphabet - DeepMind, Google AI, Google Cloud AI) : Développe des IA avancées comme AlphaFold (biologie), Gemini (modèle IA multimodal), et divers outils basés sur le machine learning (TensorFlow, Bard/Gemini). Microsoft (Azure AI, OpenAI partnership) : Investisseur majeur dans OpenAI (ChatGPT, DALL·E), développe des outils IA pour entreprises et gouvernements.
Meta (Facebook AI Research - FAIR) : Travaille sur l’IA conversationnelle, la vision par ordinateur et les modèles de langage (LLaMA).
Amazon (AWS AI, Alexa AI) : Propose des services d’IA via AWS et développe des IA vocales comme Alexa.
Apple (Siri, IA embarquée) : Focalisé sur l’IA embarquée dans ses produits (reconnaissance faciale, traitement du langage naturel).
NVIDIA (puces IA, plateformes IA) : Leader dans le matériel IA (GPU), développe aussi des plateformes logicielles pour l’IA.
OpenAI : Développe des modèles IA avancés comme GPT-4, DALL·E et Codex.
Anthropic : Fondé par d’anciens membres d’OpenAI, spécialisé dans des IA sûres et alignées (Claude AI).
Cohere, Hugging Face, Stability AI : Acteurs émergents spécialisés en IA open-source et NLP.
Palantir Technologies
Fondation : Créée en 2003 aux États-Unis par Peter Thiel et d’autres entrepreneurs.
Spécialisation : Développement de logiciels d’analyse de données massives et d’IA appliquée aux renseignements, à la défense et aux entreprises.
Produits clés :
Palantir Gotham : Utilisé par des agences gouvernementales (CIA, FBI, armées) pour l’analyse de renseignements.
Palantir Foundry : Plateforme d’IA et d’analyse pour les entreprises privées.
Compte parmi ses principaux investisseurs institutionnels des sociétés telles que The Vanguard Group et BlackRock. Au 30 septembre 2024, The Vanguard Group détenait environ 9,4 % des actions de Palantir, tandis que BlackRock en possédait environ 4,7 %.
En plus de ces investisseurs institutionnels, les cofondateurs de Palantir détiennent également des parts significatives de l’entreprise. Peter Thiel, l’un des cofondateurs, possédait environ 7,2 % des actions de la société au début de l’année 2024.
L’actionnariat de Palantir est donc diversifié.
**
Hervé DeBonrivage
Date | Nom | Message |