Glossaire
Special | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | ALL
A |
---|
Apprentissage profondL'apprentissage profond, ou deep learning, est une branche de l'intelligence artificielle qui repose sur l'utilisation de réseaux de neurones artificiels multicouches inspirés du fonctionnement du cerveau humain. Ces réseaux sont constitués de couches successives (d'entrée, cachées, et de sortie) où chaque neurone transforme les données en appliquant des opérations mathématiques et transmet les résultats aux neurones des couches suivantes. Grâce à cette architecture profonde, l'apprentissage profond est capable d'extraire automatiquement des caractéristiques complexes et pertinentes à partir de grandes quantités de données non structurées, telles que des images, des vidéos, du texte ou des signaux sonores. Il est particulièrement efficace pour des tâches complexes comme la reconnaissance d'images, la traduction automatique, la détection de fraude ou la conduite autonome, mais il nécessite une puissance de calcul importante et des données massives pour entraîner ses modèles. | |
C |
---|
CourseraCoursera est une plateforme d'apprentissage en ligne fondée en 2012 par deux professeurs de l'Université de Stanford, Daphne Koller et Andrew Ng. Elle propose une large gamme de cours, de spécialisations et de diplômes en ligne dans divers domaines tels que la technologie, les affaires, les sciences humaines, et plus encore. Principales caractéristiques de Coursera :
| |
D |
---|
DeepMindDeepMind est une entreprise britannique spécialisée dans l'intelligence artificielle (IA). Fondée en 2010 par Demis Hassabis, Shane Legg et Mustafa Suleyman, elle a été acquise par Google en 2015. DeepMind est surtout connue pour ses avancées dans l'apprentissage profond (deep learning) et le renforcement, deux sous-domaines de l'IA. Voici quelques-unes des réalisations notables de DeepMind :
DeepMind travaille également sur divers projets dans des domaines tels que la santé, où ils collaborent avec des institutions médicales pour améliorer le diagnostic et le traitement des maladies à l'aide de l'IA. | |
G |
---|
Grand modèle de langageUn grand modèle de langage (Large Language Model ou LLM en anglais) est un type de modèle d'intelligence artificielle, basé sur les réseaux de neurones, conçu pour comprendre et générer du texte en langage naturel. Ces modèles sont entraînés sur de vastes quantités de données textuelles et peuvent effectuer une variété de tâches linguistiques telles que la traduction, la génération de texte, la réponse à des questions, et plus encore. Voici quelques caractéristiques clés des grands modèles de langage :
| ||
I |
---|
IA générativeUne IA générative est un type de système d'intelligence artificielle conçu pour générer du contenu nouveau et original en se basant sur les données sur lesquelles elle a été entraînée. Voici les principales caractéristiques et applications des IA génératives :
Applications des IA génératives :
Exemples Concrets :
| |
ImageNetImageNet est une base de données d'images très grande et bien organisée, utilisée principalement pour la recherche en vision par ordinateur et en apprentissage profond. Créée par Fei-Fei Li, une professeure d'informatique à l'Université de Stanford, et ses collègues en 2009, ImageNet a joué un rôle crucial dans le développement et l'avancement des algorithmes de reconnaissance d'images. Caractéristiques principales d'ImageNet :
| |
J |
---|
JetonUn jeton est une séquence de caractères considérée comme une unité unique par un modèle de traitement du langage. Les jetons peuvent être des mots, des sous-mots, des caractères individuels, ou même des symboles spéciaux, selon la méthode de fractionnement utilisée (tokenisation, en anglais). Le fractionnement est le processus qui transforme un texte brut en une liste de jetons. Types de fractionnement (tokenisation)
Importance des jetons en IALes jetons sont cruciaux pour les modèles de langage naturel car ils sont les unités d'entrée que ces modèles manipulent. La manière dont un texte est fractionné peut grandement influencer la performance et la compréhension du modèle. Un fractionnement efficace permet au modèle de capturer des relations sémantiques et syntaxiques plus fines dans le texte. Application des jetons dans les modèles de langage
Exemple concret avec GPT-3GPT-3, par exemple, utilise un fractionnement basée sur les sous-mots (Byte Pair Encoding - BPE). Une phrase comme « L'intelligence artificielle » pourrait être fractionnée en [« L' », « intelligence », « art », « ificielle »], ce qui permet au modèle de mieux gérer les variations linguistiques et les nouveaux mots. | ||
L |
---|
LISPLISP (LISt Processing) est l'un des plus anciens langages de programmation encore utilisés aujourd'hui, principalement en intelligence artificielle et en recherche informatique. Il a été développé par John McCarthy en 1958 au Massachusetts Institute of Technology (MIT). LISP est connu pour sa flexibilité, sa puissance et son utilisation intensive des listes comme structure de données principale. Caractéristiques principales de LISP :
Utilisations de LISP :
| |
M |
---|
Machine de TuringLa machine de Turing est un modèle théorique de calcul inventé par le mathématicien britannique Alan Turing en 1936. Elle est conçue pour formaliser les concepts de calcul et d'algorithme, et constitue une base fondamentale de la théorie de la computation. | |