La conférence de Dartmouth (Dartmouth Summer Research Project on Artificial Intelligence) est un atelier scientifique organisé durant l’été 1956, qui est considéré comme l’acte de naissance de l’intelligence artificielle en tant que domaine de recherche autonome.
Organisée par Marvin Minsky et John McCarthy, elle a eu lieu sur le campus du Dartmouth College (aux Etats-unis) et a réuni vingt chercheurs.
C’est à l’occasion de cette conférence que McCarthy a convaincu l’auditoire d’accepter l’expression « Intelligence Artificielle » comme intitulé du domaine
John Mc Carthy y présenta notamment le principe d' »élagage alpha-bêta« , considéré comme le premier algorithme de programmation en intelligence artificielle.
À cette époque, bien que les ordinateurs étaient énormes et très limités, ces chercheurs étaient convaincus qu’en une décennie, les machines seraient capables de jouer aux échecs comme des maîtres, traduire des langues, et même résoudre des problèmes mathématiques complexes.
Source : https://fr.wikipedia.org/wiki/Conf%C3%A9rence_de_Dartmouth
L’intelligence artificielle (IA) est un domaine de l’informatique visant à créer des systèmes capables de réaliser des tâches en simulant l’intelligence humaine.
Nous verrons plus tard dans la leçon dédiée comment fonctionne l’IA, mais en attendant, ce qu’il faut retenir c’est que l’IA réalise des tâches en observant et en imitant, puis en améliorant progressivement ses compétences grâce à l’expérience qu’elle aura développée.
Si vous avez besoin de définitions ou de réponses courtes et rapides sans avoir à chercher dans plusieurs sites, je vous recommande d’utiliser l’IA du site perplexity.ai, très pratique (et gratuit ! )
La question qui se pose, c’est : ça fait presque 70 ans que ça existe, mais pourquoi est-ce que l’on entend parler de l’IA depuis quelques années seulement ?
Les premières recherches en IA ont connu des succès prometteurs, avec la création de programmes capables de jouer aux échecs, résoudre des problèmes de mathématiques, et même comprendre le langage naturel de manière limitée.
Par exemple, un programme appelé ELIZA permettait déjà simuler (de manière très basique) une conversation avec un psychothérapeute.
Cependant, ces programmes avaient leurs limites. Les ordinateurs de cette époque manquaient de puissance, et les programmes étaient incapables de s’adapter à de nouvelles situations.
Avec des attentes démesurées et des résultats limités, le financement et l’intérêt pour l’IA ont commencé à décliner. Les gouvernements et les entreprises ont réduit leurs investissements, menant au premier « hiver de l’IA ».
Dans les années 1980, l’IA a connu un regain d’intérêt avec les systèmes experts.
Le système DENDRAL par exemple, développé pour aider les chimistes à identifier les structures moléculaires utilisait des règles établies par des experts humains pour analyser des données chimiques.
Ce système trouva des applications pratiques et commerciales, redonnant espoir aux chercheurs.
Cependant, ces systèmes avaient des faiblesses. Ils étaient coûteux à développer et très spécifiques à un domaine… Par exemple, si l’on essayait d’utiliser DENDRAL pour un autre domaine, comme la finance ou la médecine, il fallait tout recommencer de zéro.
De plus, ces systèmes atteignaient rapidement leur limites, ils ne pouvaient pas apprendre de nouvelles informations par eux-mêmes.
Ainsi, quand les entreprises se sont rendu compte que les coûts de développement étaient trop élevés par rapport aux bénéfices, elles ont de nouveau réduit leurs investissements, provoquant un deuxième hiver de l’IA à la fin des années 1980.
Le tournant décisif est arrivé dans les années 2000 avec l’essor du Machine Learning (Si vous ne savez pas ce que c’est, demandez à Perplixity 😉).
Plutôt que de programmer des règles explicites, les chercheurs ont commencé à développer des algorithmes capables d’apprendre à partir de données. Cette approche a été rendue possible grâce à trois facteurs principaux :
Rappelons nous que les avancées technologiques, comme l’IA, sont souvent accompagnées de périodes de désillusion et de scepticisme. Cependant, avec de la persévérance et de l’innovation, ces périodes peuvent mener à des progrès spectaculaires.
Aujourd’hui, l’IA est devenue un outil puissant qui transforme de nombreux secteurs, et ce n’est que le début !
PS : Si vous vous posez des questions sur un terme un peu technique, jettez un oeil à notre lexique