Salut salut,
J’espère que tu vas bien.
C’est le début d’une série en deux parties pour démystifier l’IA !

Aujourd’hui, première partie, on va se focaliser sur les briques élémentaires pour bien la comprendre.
Histoire de l’IA
L’IA dans la culture populaire
Ça fait de longues années qu’on fantasme et qu’on se pose des questions sur des machines qui deviendraient aussi intelligentes que l’homme, voire plus.
Ce qui est intéressant c’est qu’on voit souvent ce problème de manière très binaire. Soit c’est tout blanc ! Soit c’est tout noir !
L’IA meilleure amie de l’homme
Premier exemple, l’IA touchante et attendrissante.
Dans le film IA de Spielberg sorti en 2001, les robots sont au service des hommes. Ils effectuent toutes sortes de tâches pour nous. Ils sont notamment largement utilisés pour assouvir nos désirs sexuels. Jude Law joue à l’époque le rôle d’un gigolo chargé de donner du plaisir aux femmes humaines.
L’intrigue tourne autour d’un petit garçon robot, adopté par des parents humains. Ses parents l’abandonnent au final car il n’est pas un “vrai petit garçon”. Tout le film suit sa quête pour devenir un vrai garçon.
Dans ce film, le rôle de l’IA nous force plutôt à nous regarder dans le miroir en tant qu’humain, et à nous questionner sur notre “morale”. À quel point sommes-nous respectueux des robots ? Est-ce juste / éthique d’asservir des robots pour assouvir nos désirs ?
Ça dépasse la réflexion homme / machine : en voyant les comportements des hommes face aux IAs dans le film, on se pose la question “est-ce qu’on ne fait pas parfois la même chose entre humain ?”.
Deuxième exemple, l’IA amante.
C’est l’intrigue du film Her, sorti en 2013, dont le personnage principal est Joaquin Phoenix. Il y joue le rôle d’un employé dans une entreprise qui écrit des cartes de voeux sur mesure pour d’autres personnes. Il est très déprimé et installe sur son portable une sorte de Siri avec lequel il va se lier. La voix de Siri dans le film est doublée par Scarlett Johansson d’ailleurs.
Le rôle de l’IA est ici très bienveillant. Elle aide un homme seul, à se sentir moins seul, à l’accompagner sur un petit bout de parcours. Plusieurs passages sont même touchants. Car on voit à quel point le personnage s’attache à cette IA.
Pour autant, on sent qu’il faut un peu se méfier. L’IA et le personnage principal finissent par tomber amoureux. D’abord, ça génère beaucoup de souffrance pour des raisons logistiques évidentes. Ensuite, ça montre bien l’idée que déléguer des choses comme de l’affect ou des relations humaines à ce point ne fonctionne que jusqu’à un certain point.
L’IA menace pour l’humanité
Premier exemple, une IA qui privilégie ses intérêts à ceux des hommes.
C’est ce qu’il se passe dans un film un peu plus ancien : 2001 l’odyssée de l’espace (qui date de 1968). Le film nous montre différents moments de l’histoire et différents plans de l’espace. Il nous projette dans une société futuriste où les hommes font des voyages spatiaux. Il est très connu pour une de ses premières scènes où des singes dansent autour d’un gros monolithe de pierre.
L’IA dedans s’appelle HAL. Dans le film, HAL est un assistant pour piloter une navette spatiale. Une sorte de ChatGPT pour astronaute. Au début tout se passe bien. Mais les astronautes finissent par se méfier car l’IA se comporte étrangement. Ils se rendent compte que HAL a développé un très fort niveau de conscience. Et qu’il est prête à mettre leur envie en danger pour le bien de la mission.
Morale de l’histoire, oui l’IA était programmée pour aider l’humain dans sa mission. Mais quand elle devient autonome, elle peut favoriser un objectif sans discernement même si ça va à l’encontre de la protection de ce même humain.
Deuxième exemple, l’IA asservit le monde
C’est exactement l’intrigue du Terminator. Si vous ne l’avez pas vu, Terminator se passe à notre époque. Un robot appelé Terminator arrive du futur. Dans le futur, les hommes sont asservis par les robots. Pour résister contre les robots, les hommes ont monté une “résistance”. L’objectif de Terminator est de tuer la cheffe de la résistance du futur Sarah Connor, “en avance”, en retournant dans le passé avant qu’elle ne prenne ce rôle.
L’intrigue du film est intéressante. On comprend que l’homme a créé des IAs. Puis que ces IAs sont devenues suffisamment intelligentes et fortes pour échanger ensemble. Et réduire les humains en esclavage.
Morale de l’histoire, avec des machines / IA trop fortes, elles risquent de s’allier pour nous tuer ou nous réduire en esclavage. Ça va même plus loin dans le film puisqu’elles vont même jusqu’à revenir dans le passé pour le faire.
Bon, après ce passage par la culture populaire, on va regarder comment ça s’est passé au niveau scientifique / technique depuis 1950.
Et on va voir que ce qu’on appelle aujourd’hui l’IA ressort de 3 disciplines : les statistiques, le machine learning et le deep learning.
L’IA depuis la fin de la Seconde Guerre mondiale
Première discipline : les statistiques
Les statistiques visent à identifier des comportements sur une population donnée à partir de l’analyse d’une sous-population. C’est ce qu’on appelle l’inférence.
Par exemple, je dispose d’une base de données qui recense une population de 10.000 fumeurs en Europe et aux États-Unis.
La question que se pose les stats = quels sont les facteurs qui caractérisent un “fumeur type” ? Sous quelle condition ce qui est vrai pour un individu dans les 10.000 fumeurs se généralise au reste de la population ?
⚠️ C’est un objectif initial qui peut sembler un peu plus basique : je veux établir des liens entre des données. On peut avoir l’intuition que du coup ça ne s’appellera pas de l’IA. En effet, on va définir l’IA par la suite. Et on verra que l’IA s’accompagne d’une idée de pouvoir copier / répliquer le comportement humain. Ici on n’y est pas encore.
Deuxième discipline de l’IA : le machine learning
C’est en cela que les statistiques se différencient du machine learning (apprentissage automatique) qui existe également depuis de longues années. L’objectif du machine learning c’est d’analyser les données du passé, pour les comprendre, et pour pouvoir ensuite prédire le futur, à partir de nouvelles données.
La question que se pose le machine learning dans notre exemple : à partir de ce que j’ai observé sur les 10.000 fumeurs de ma base de données, quelle est la probabilité qu’un fumeur classique (qui n’appartient pas à la base) développe un cancer du poumon ?
Statistiques ≠ Machine Learning historiquement. Pour autant, les frontières se sont un peu brouillées récemment. Aujourd’hui les très bons data scientists ont souvent des compétences très fortes en statistique, notamment parce qu’ils ont suivi une formation de statistique à un moment. Ils savent mélanger les deux approches pour obtenir des résultats et des prédictions les plus pertinentes possibles.
Troisième discipline de l’IA : le deep learning
En parallèle du développement des statistiques et du machine learning, à partir de la fin de la Seconde Guerre Mondiale, une troisième discipline qu’on va appeler le deep learning va connaître un essor important.
Elle se distingue des deux précédentes parce que son inspiration est bien plus radicale. Pour la faire simple, les statistiques sont une discipline ancienne issue des mathématiques. À cette époque, le Machine Learning va un peu plus loin mais il reste très proche du monde de la statistique, avec des langages de programmation similaires.
L’inspiration du deep learning est extrêmement ambitieuse : s’inspirer du fonctionnement du cerveau pour le reproduire d’un point de vue technique / algorithmique.
Les neurones seraient modélisés par des modèles statistiques simples, appelés “perceptron”. (On voit donc que les stats sont derrière tout ça). En mettant plein de neurones en parallèle et en les faisant communiquer, on commence à avoir un truc qui ressemble au cerveau humain. C’est pour ça que les chercheurs bossant sur ces sujets ont direct appelé ces modèles des “Réseaux de neurones”.
L’objectif de ces réseaux neuronaux était également ambitieux : reproduire des fonctions réalisées par l’homme. C’est le rêve de l’Intelligence Artificielle au sens propre ! Une machine qui devient intelligente.
Ces réseaux neuronaux ont mis du temps à s’imposer par rapport aux autres modèles issus des statistiques ou du machine learning.
Première période de développement 1955-1975
À cette époque, un premier engouement naît. Des premiers travaux de recherche sont formalisés. C’est à cette époque qu’on invente le terme de “deep learning” et la notion d’architecture de neurones avec des modèles statistiques simples associés.
Pour autant, le soufflé retombe car les résultats ne sont pas à la hauteur.
Seconde période de développement 1985-1995
Au milieu des années 1980, ça repart. Une nouvelle génération de chercheurs avance plus et différentes écoles se font concurrence dans le monde (États-Unis, France, Suisse ou Japon). Une conférence internationale sur le sujet est même créée en 1987 (la NIPS - Neural Information Processing Systems).
Mais globalement, sur la plupart des tâches “humaines” les algorithmes de machine learning (la 2ème discipline) restent plus puissants.
Troisième période : l’explosion depuis 2012
En 2012, c’est LE moment fondateur où le deep learning va exploser et montrer qu’il peut être bien meilleur que des algorithmes de machine learning pour certains cas d’usage.
Chaque année depuis 2010, un concours appelé ImageNet est organisé pour identifier l’algorithme le plus performant et précis pour reconnaître des images.
Par exemple, on va envoyer des photos d’animaux et on va regarder l’algorithme qui arrive à reconnaître un chat, un chien, une loutre, un cheval… le plus précisément.
Depuis plusieurs années et pour les premières années du concours, ce sont des algorithmes de machine learning “classiques” qui gagnent. Ils ont en général un taux d’erreur de 25%. C’est à dire qu’ils arrivent à reconnaître correctement 3 images sur 4.
En 2012, un réseau de neurones écrase toute la concurrence en arrivant à un taux de performance de près de 15% 😱 Près de 10% de plus que les autres algorithmes.
Ça peut avoir l’air de rien, mais dans le monde de l’algorithmie, on progresse 1/10ème de % par 1/10ème de %. Alors 10% d’un coup c’est absolument révolutionnaire.
Voici donc comment ces trois disciplines ont évolué au cours du XXème siècle pour donner naissance à l’IA telle qu’on la connaît aujourd’hui.
Avant de rentrer dans la définition plus précise de ce qu’on appelle l’IA, un mini tableau récap pour comparer ces 3 disciplines :
Les prérequis de l’IA
Avoir de la donnée, de la data
La data c’est quoi ? Ce sont des “octets” au niveau informatique, des éléments qui sont stockés dans les ordinateurs. Cette “matière élémentaire” permet de stocker plein de choses différentes : photo, vidéo, musique, pdf, image…
Dans le contexte de l’IA, quand on parle de “data” ou de donnée, on renvoie aussi à ça. Disposer d’une quantité de data est très puissant. Parce que ça permet d’avoir plus d’informations, plus d’éléments pour comprendre un problème donné.
Il est également important que la data soit de bonne qualité.
Dans notre exemple des fumeurs, une base de donnée de mauvaise qualité, serait une base de données où l’âge des fumeurs serait :
→ Soit pas toujours rempli, par exemple il nous manque l’âge des Français de la base de données qui habitent en Normandie !
→ Soit mal rempli, par exemple l’âge de tous les Américains de la base de données qui habitent au Texas a été mis (arbitrairement) à 40 ans !
Le problème derrière, c’est qu’on va biaiser / fausser nos analyses. Si je n’ai pas vu que, par erreur, tous les Texans ont 40 ans, alors je vais l’intégrer dans mes analyses. Typiquement je vais sûrement avoir l’impression que les Texans ont des cancers plus tôt que le reste de la population parce que tous les Texans ayant développé un tel cancer… auront 40 ans.
Pré-mâcher le travail de l’IA
L’IA c’est incroyable mais il y a beaucoup de travail en amont. Avant de pouvoir utiliser ces algorithmes de statistiques, machine learning ou de deep learning.
Premièrement le stockage de la donnée.
Comme vu au-dessus, la quantité de donnée nécessaire est importante. D’ailleurs, c’est un des facteurs qui différencie les statistiques du machine learning ou du deep learning comme on l’a vu dans le tableau récap.
En gros :
→ pour faire des stats pour mes fumeurs, si j’ai 500 personnes ça va aller ;
→ pour faire du machine learning, il va me falloir minimum 1000-2000 personnes ;
→ pour faire du deep learning, il va me falloir minimum des dizaines de milliers de personnes.
Et quand on a beaucoup d’éléments, les stocker devient un problème.
C’est ce qu’il se passe si tu as un fichier Excel qui commence à avoir plus de 5000 lignes. Il va bugger et être beaucoup plus lent.
Quand tu as vraiment vraiment beaucoup de donnée, c’est encore plus complexe. Si tu veux faire du deep learning sur des millions d’image, le disque dur d’un ordi “classique” ne suffira pas ! Grosso modo, un MacBook pro récent dispose d’à peu près 200-300 Giga Octets de mémoire ; une photo ça fait à peu près 2-3 Méga Octets. Ça veut dire que tu ne peux pas rentrer plus de 100.000 photos sur un tel ordi.
Donc il y a des stratégies pour faire ça. Pour ne pas rentrer dans les détails, on va dire que :
Soit on prend des disques dur encore plus puissants, qui peuvent contenir plein plein plein d’images
Soit on répartir les images entre beaucoup beaucoup beaucoup de disque durs
Chaque solution a ses avantages et ses inconvénients.
Deuxièmement le transport de la donnée.
Pareil que pour le stockage : à partir du moment où on a de gros volumes, le transport de la donnée ça pose problème.
C’est comme quand on part en vacances en voiture. Si tu as très peu de bagages, pas de problèmes c’est facile. En revanche quand tu as beaucoup de choses à transporter, c’est plus compliqué : (i) est-ce que la voiture est assez grande ? ; (ii) est-ce que ça ne va pas abîmer les pneus ? ; (iii) est-ce que ça reste “confortable” pour les passagers ?
Bref, pas facile ! Pour faire tout ça, on a besoin de compétences en Data Engineering. Et on utilise des technologies dites ETL (extract / transport / load).
Troisièmement la préparation de la donnée.
En général la donnée n’est pas directement utilisable tel quel.
Soit parce que la qualité n’est pas suffisante, donc on a besoin d’effectuer des retraitements pour la rendre plus qualitative.
Par exemple, plutôt que d’avoir tous mes texans qui ont 40 ans, je vais tous les supprimer de la base de données, oui j’aurai moins de données… mais au moins les données restantes seront plus fiables.
Soit parce qu’on va modifier et combiner certaines variables pour améliorer l’analyse.
Par exemple pour identifier les risques de cancer des poumons, c’est sûr que la taille et le poids peuvent avoir un impact. Mais au final, peut-être qu’une variable les combinant comme l’indice IMC (poids / taille^2) serait plus pertinente.
À ce stade, j’espère que tu as une meilleure compréhension de l’histoire de l’IA et de ses pré-requis. On va pouvoir rentrer dans le coeur de ce mini-cours : la définition de ce qu’est l’IA.
Au final, qu’appelle-t-on “IA” ?
Les 6 niveaux de l’analyse de données
Maintenant qu’on voit comment mettre en place les pré-requis à la donnée… on va pouvoir définir l’IA. On a juste besoin d’un dernier concept : les 6 niveaux d’analyse de données.
On va voir tout ça, en reprenant l’exemple des fumeurs ! Partons de l’hypothèse qu’on dispose de cette base de données. On va voir comment activer les différents niveaux d’analyse sur elle.
Niveau 1 - Descriptif
À ce niveau là, on reste sur des traitements très “basiques” sur la base de données.
Par exemple, j’observe que tous les fumeurs ont entre 20 et 40 ans. Ou j’observe que 20% des Français sont fumeurs et seulement 15% des Américains.
Ça correspond à des opérations que je pourrais faire moi-même sur Excel, comme des courbes, des moyennes, des graphiques camembert.
💡Attention, en termes de traitement, c’est limité ; mais c’est très utile et on peut apprendre plein de choses en faisant ça.
Niveau 2 - Exploratoire
On va chercher des relations plus poussées entre les variables. Ce qu’on appelle des “corrélations”.
La variable A et la variable B sont corrélées si quand A ↗, alors B ↗ (ou ↘).
Par exemple, je repère que plus les fumeurs font du sport, moins ils sont fumeurs en général. J’ai une corrélation entre ma variable A = le nombre d’heures de sport par semaine et ma variable B = le nombre de cigarettes par jour. Si A ↗ (sport ++), alors B ↘ (cigarette - -).
💡Attention, la corrélation n’implique pas la causalité.
En moyenne, si sport ++, alors cigarette - -
Mais ça ne veut pas dire que tous les sportifs ne fument pas ; ou que si je fais plus de sport alors je fumerai moins. On observe statistiquement qu’il y a un lien. Ça ne veut pas dire pour autant qu’il y a un lien de cause à effet.
Niveau 3 - Inférentiel
On a vu tout à l’heure ce que c’était que “l’inférence” pour les statistiques.
À partir d’un truc que j’observe dans une sous-population. J’arrive à le généraliser à la population entière avec un certain niveau de confiance.
Par exemple, 20% des Français de la base de données sont fumeurs. Ça me permet de généraliser (d’inférer) qu’on peut considérer que 20% (ou autres) de Français sont fumeurs sous certaines conditions / hypothèses.
Niveau 4 - Prédictif
On a déjà vu que cet aspect différenciait les statistiques et le machine learning / deep learning. On regarde les données pour analyser le passé et identifier des motifs récurrents qui vont nous aider à prédire le futur.
Par exemple, j’observe que 100% des hommes
→ (i) qui fument plus de 20 cigarettes par jour ;
→ (ii) qui ont plus de 60 ans ;
→ (iii) qui ont un indice IMC > 30 ;
→ (iv) qui font moins de 1h de sport par semaine développent un cancer des poumons.
Si je rencontre quelqu’un qui remplit ces conditions, même s’il n’appartient pas à ma base de données, je vais pouvoir lui prédire avec un bon niveau de confiance, qu’il risque d’avoir un cancer des poumons.
Niveau 5 - Causal
On veut aller plus loin que les analyses de corrélation vues plus haut. On veut établir un lien de cause à effet.
C’est très fort ce genre de lien : si A se passe, quoiqu’il arrive, alors ça entraînera B.
Imaginons qu’on arrive à établir cette causalité : si tu fais plus de 5 heures de sport par semaine et que tu ne fumes pas, alors tu ne développes pas de cancer du poumon.
Causalité : 5 heures de sport par semaine sans fumer => pas de cancer du poumon. Incroyable : on a un moyen quasi “infaillible” de guérir le cancer du poumon.
💡Établir un lien de causalité est très complexe. On a besoin de passer par des “expériences contrôlées” avec deux populations. Une population “témoin” qui va fumer et faire moins de 5 heures de sport par semaine. Une population “test” qui ne va pas fumer et faire + de 5 heures de sport par semaine.
On regarde ces deux populations puis 10 ans plus tard on regarde ce qu’il s'est passé :
→ Est-ce qu’en effet les personnes dans la population référence n’ont pas développé de cancers des poumons ?
→ Est-ce que les gens dans la population témoin ont développé des cancers des poumons ?
À quoi sert le groupe témoin ? Il est nécessaire car d’autres variables que l’absence de sport et de cigarettes pourraient aussi influencer sur l’absence de cancer. Le groupe témoin va donc nous servir à contrôler que les seules variables qu’on étudie sont l’absence de sport et de cigarettes.
Par exemple, imaginons qu’un nombre + élevé d’heures de sommeil par nuit réduise le risque de cancer du poumon.
Si on prend juste notre population test, et que par hasard cette population dort mieux que la moyenne. Ça va réduire sa chance d’avoir un cancer sans que ça ait rien à voir avec le sport ou le nombre de cigarettes par jour.
Donc en prenant une population témoin qui ait grosso modo le même nombre heures de sommeil, on réduit le risque de fausser l’analyse. Si la population test développe moins de cancers du poumon, ça sera bien uniquement du fait du sport / absence de cigarettes.
Niveau 6 - Mécanistique
On arrive sur le niveau le plus élevé de la pyramide. C’est le niveau 5, mais “à l’échelle”. On arrive à identifier des liens de causalité entre plusieurs variables au sein d’un système complexe. Cela nous permet d’agir sur ces variables pour obtenir un objectif voulu.
Si on reprend mon exemple fil rouge des fumeurs :
→ 1 je sais identifier des relations de causalité entre des variables et le risque de cancer des poumons
→ 2 si mon objectif est de réduire le cancer des poumons, j’arrive à identifier des variables qui réduisent ce risque
→ 3 donc je peux créer des protocoles, des méthodes, des choses à faire pour réduire le risque de cancer des poumons.
🤔 En pratique ce niveau est très dur à atteindre et je ne connais pas beaucoup d’exemples où on a réussi à implémenter ce genre de systèmes.
Désolé c’était un peu long tous ces concepts. Mais ça va nous aider à bien comprendre où va se localiser l’IA.
La définition “scientifique” de l’IA
Une définition basique
Dans un contexte scientifique, dans le monde de la data, l’IA correspond au fait de prédire ce qu’il va se passer dans le futur, à partir de l’analyse du passé. Ou de prédire à partir de l’analyse d’anciennes données, ce qu’il va se passer sur de nouvelles données.
D’un point de vue technique, les algorithmes qui permettent de réaliser cela sont des algorithmes dits de machine learning. Dans ces algorithmes de machine learning, on inclut également les algorithmes de deep learning.
💡 Précision : un modèle peut être utilisés pour faire des statistiques, du machine learning et du deep learning.
→ Le deep learning a été créé de manière déconnectée du machine learning. Pour autant, aujourd’hui on considère que le deep learning est un sous-champ du machine learning.
→ Comme on l’a vu, les stats et le machine learning diffèrent plus sur les objectifs et les modalités d’usage, pas tant au niveau des modèles utilisés.
→ Si j’utilise un modèle pour faire de l’inférence, c’est des stats. Si je l’utilise pour prédire le futur à partir du passé sur un gros volume de données, c’est du machine learning = de l’IA.
Par rapport aux niveaux d’analyse de la data, cela correspond aux niveau 4, 5 et 6. C’est exactement l’objet du niveau 4. Les niveau 5 et 6 vont plus loin que de la prédiction parce qu’ils te permettent en plus de cette prédiction d’influencer le cours des événements. C’est encore plus puissant.
L’IA supervisée ou non supervisée ou hybride
On distingue trois grands types d’IA / machine learning.
Premièrement l’IA non supervisée
Je ne sais pas ce que je veux prédire. Je vais donc fournir de la donnée au modèle. Puis je le laisse se débrouiller. Un modèle de machine learning non supervisé connu est le “clustering” (ou regroupement).
Par exemple, je vais laisser l’algorithme identifier si des groupes ressortent “naturellement” de mes fumeurs. Il va effectuer des regroupements plus ou moins compréhensibles pour nous, et qui font du sens par rapport à notre problématique.
Typiquement, les texans, qui ont plus de 50 ans, qui font moins de 2h de sport par semaine, ont la même consommation de cigarettes que les Normands de moins de 30 ans, qui font plus de 3h de sport par semaine. Ils sont dans le même “regroupement” / cluster.
Ce qui est fort : je n’ai pas donné “d’indices” au modèle. Je ne lui ai pas demandé un groupe qui a plus de chance d’avoir un cancer des poumons. C’est lui qui a découvert ça tout seul.
Deuxièmement, l’IA supervisée
Pour ce genre de modèles, je vais dire dès le démarrage à l’IA ce qu’il doit prédire et ce sur quoi il va être évalué.
Dans notre cas fil rouge, la variable importante serait le risque d’avoir ou non un cancer des poumons. Aussi, on va travailler pour que notre modèle prédise efficacement sur notre base de données, la probabilité d’avoir un cancer ou non.
Puis ensuite, on va lui donner de nouvelles données, et on va regarder si les prédictions sont précises / pertinentes.
✅ L’avantage ? On focalise directement le travail de l’IA sur ce qui nous intéresse.
❌ L’inconvénient ? Il faut savoir précisément ce qu’on cherche, et pouvoir l’expliquer par des variables dans la donnée.
💡 Si ça n’est pas encore parfaitement clair, ne t’inquiète pas, j’en parlerai plus en détail dans la deuxième partie que je publierai la semaine prochaine.
Troisièmement l’IA renforcée
C’est la solution hybride ! Entre la supervisée et la non-supervisée. En gros l’IA commence à prédire toute seule. Puis on lui donne des feedbacks.
→ “Là tu t’es bien débrouillée”
→ “Là tu t’es moins bien débrouillée”
Ça permet au modèle d’être plus pertinent et de se “renforcer” au fur et à mesure.
Par exemple, c’est comme ça que ChatGPT est perfectionné :
→ (1) On lui pose plein plein plein de questions ;
→ (2) On lui fait générer plein plein plein de réponses ;
→ (3) On fait regarder ça à un humain qui dit à ChatGPT si les réponses sont pertinentes ou non.
La définition générale de l’IA
Quand on parle d’Intelligence Artificielle, en général, on ne fait pas toujours référence à la data, aux statistiques ou au machine learning / deep learning. Quand 2001 l’Odyssée de l’Espace sort en 1968, le scénariste se faisait une idée de l’IA sans se douter de la forme que ça prendrait de nos jours.
Ainsi une définition plus générale de l’IA serait un système informatique capable de reproduire des tâches “humaines” comme l'apprentissage (acquérir / appliquer des connaissances), le raisonnement (résoudre des problèmes), la perception (comprendre et interpréter), le langage (parler)…
“Alors de l’intelligence artificielle sans machine learning c’est possible ? 🤔”
En théorie oui tout à fait ! On peut prendre l’exemple de ce qu’on appelle les systèmes experts : on va définir des règles métier, avec des humains. On va intégrer ces règles dans un système. Puis, le “système” va pouvoir réagir tout seul. Il a de “l’intelligence” au sens où il réagit comme un humain face à des situations prédéfinies.
Par exemple, je peux définir différentes règles qui permettent de prédire le risque de cancer du poumon à partir de ma base de données. Typiquement : moins de 1h de sport / semaine ; + de 25 cigarettes / jour ; un indice IMC > 40.
Si j’envoie un patient qui répond à ces conditions, une machine pourra dire au patient qu’il présente un risque de xx% de développer un cancer des poumons dans les 3 ans. Presque comme un expert.
Mais en pratique, ça marche mieux quand on mélange
Le mieux c’est de ne pas trop cloisonner les approches. C’est comme tout à l’heure, sur les aspects scientifiques : deep learning, machine learning et statistiques, bien que concurrents se sont mutuellement beaucoup nourris et faits progresser.
Même chose pour l’IA “data” / scientifique et l’IA “système expert”.
Les échecs nous donnent un bon exemple de ça. Pendant longtemps, on utilisait des algorithmes type “systèmes expert”. On intégrait des stratégies pré-existantes comme des parties de grand maître. Et on poussait l’ordinateur à tenter plein de coups différents pour trouver le coup le plus pertinent.
C’était efficace mais ça mettait beaucoup de temps à calculer. Maintenant avec le deep learning, on va beaucoup plus loin que ce que permettaient ces premiers systèmes. Aujourd’hui, on considère qu’un humain ne peut plus battre aux échecs un ordinateur correctement entraîné.
Voilà voilà, on arrive au bout de ce cours ! J’espère que ça n’était pas trop long. Si tu as trouvé que c’était dense, c’est normal. Beaucoup de choses théoriques. Alors n’hésite pas à stocker quelque part le lien de ce cours pour y revenir de temps en temps.
Conclusion
À lundi prochain (oui j’ai la chance de ne pas bosser pour la Pentecôte 🥳) !
Si tu es trop impatient pour attendre, tu peux :
M'envoyer des actus, contenus ou rires qui ont animé ta semaine 💪
Me contacter pour échanger sur l’IA par mail ou par message LinkedIn 💪
M'envoyer des feedbacks sur ce numéro, positifs... ou négatifs bien sûr ! C'est comme ça qu'on progresse 💪
Partager la newsletter à des personnes susceptibles d'être intéressées 💪
Bon courage pour la semaine 😄 !