L’étude de l’intelligence artificielle (IA) peut donner l’impression de naviguer dans une jungle perplexe de jargon technique et d’expressions incompréhensibles. Même les personnes expérimentées en matière d’IA peuvent parfois être déconcertées.
Afin de vous fournir les connaissances dont vous avez besoin, nous avons élaboré un lexique complet des définitions relatives à l’intelligence artificielle. Nous vous détaillons tous les mots clés dans un langage simple et direct.
La puissance de l’IA vous sera plus accessible si vous comprenez les notions exposées dans ce lexique, que vous soyez un expert ou un débutant curieux.
Quelles sont les définitions à connaître dans l’intelligence artificielle ?
- AGI (Intelligence artificielle générale)
Un type d’intelligence artificielle connu sous le nom d’AGI, possède des capacités d’intelligence avancées comparables à celles des humains.
De nombreux développeurs d’IA prévoient désormais que les humains construiront une intelligence artificielle générale (AGI) au cours des dix prochaines années, alors qu’elle n’était auparavant qu’une idée théorique.
- Algorithme
Un algorithme est un ensemble de directives que les ordinateurs utilisent pour résoudre des problèmes et exécuter des tâches.
- Biais
Le terme « biais d’IA » décrit la propension d’un modèle à produire systématiquement certaines prédictions plutôt que d’autres. Les données d’apprentissage d’un modèle ou les hypothèses sous-jacentes peuvent introduire un biais.
- Big Data
Le terme « big data » fait référence à des ensembles de données qui sont trop volumineux ou trop compliqués pour être traités avec des techniques conventionnelles.
Il s’agit de disséquer d’énormes ensembles de données pour découvrir des tendances intéressantes et améliorer la prise de décision.
- Chatbot
Un chatbot est un programme informatique capable d’imiter les discussions d’utilisateurs humains en utilisant des entrées textuelles ou vocales.
Les chatbots sont des outils efficaces pour les applications de service à la clientèle car ils peuvent comprendre le langage humain et fournir des réponses qui semblent humaines.
- Computer Vision (Vision par ordinateur)
Le terme « Computer Vision » décrit la capacité d’une machine à décoder des données visuelles à partir de photos et de vidéos.
Des applications telles que la reconnaissance faciale, les véhicules autonomes, l’identification autonome d’objets et l’imagerie médicale utilisent fréquemment des techniques de vision par ordinateur.
- Data Mining (Exploration de données)
La pratique consistant à extraire des connaissances importantes d’énormes bases de données est connue sous le nom de « data mining ». Afin d’améliorer la prise de décision, l’algorithme utilise l’analyse statistique et les approches d’apprentissage automatique pour trouver des modèles, des connexions et des tendances dans les données.
- Data-science
En utilisant des techniques, des algorithmes et des systèmes scientifiques, les scientifiques des données cherchent à découvrir des modèles dans les données. La Data-science comprend un large éventail d’opérations, telles que la collecte de données, la visualisation de données et la modélisation prédictive pour résoudre des problèmes complexes. Elle est plus approfondie que le data mining.
- Deep learning (Apprentissage profond)
Des réseaux de neurones artificiels comportant de nombreuses couches sont utilisés dans l’intelligence artificielle. Cette méthode est connue sous le nom d’apprentissage profond, pour apprendre à partir de quantités massives de données. Ils permettent aux machines d’effectuer des tâches difficiles comme le traitement de l’audio, de l’image et du langage naturel.
- Hyperparamètres
Les paramètres connus sous le nom d’hyperparamètres déterminent la manière dont un algorithme ou un modèle d’apprentissage automatique se comporte et apprend. Le taux d’apprentissage du réseau et la puissance de régularisation sont des exemples d’hyperparamètres. Vous pouvez modifier ces paramètres pour adapter les performances du modèle à vos besoins.
- Illusion de l’IA
Le terme « Illusion de l’IA » décrit des situations dans lesquelles un modèle génère des résultats factuellement erronés, non pertinents ou absurdes.
De nombreux facteurs, tels qu’un manque de contexte, des restrictions sur les données d’apprentissage ou des problèmes d’architecture, peuvent être à l’origine de ce phénomène.
- Intelligence artificielle
L’Intelligence Artificielle désigne une technologie qui permet aux machines d’imiter l’intelligence humaine et d’effectuer des tâches fréquemment réalisées par des individus intelligents.
- Intelligence artificielle générative
Les systèmes et algorithmes d’intelligence artificielle capables de produire du texte, de l’audio, de la vidéo et des simulations sont appelés « IA générative ».
Ces systèmes d’IA utilisent les modèles et les instances qu’ils découvrent à partir de données collectées précédemment pour produire des résultats nouveaux et innovants.
- LLM (Grand modèle linguistique)
Un LLM est un modèle d’apprentissage automatique qui a été entraîné sur une quantité importante de données et qui utilise l’apprentissage supervisé pour générer le prochain jeton dans un certain contexte afin de générer des réponses perspicaces et contextuelles aux entrées de l’utilisateur.
L’adjectif « important » indique que le modèle linguistique utilise un large éventail de facteurs. Par exemple, les modèles GPT effectuent une variété de tâches en utilisant des centaines de milliards de paramètres.
- Machine learning (Apprentissage automatique)
Sans être expressément programmées, les machines peuvent apprendre et prédire des choses grâce à l’apprentissage automatique. Cela revient à fournir des données à un ordinateur et à lui donner la capacité de tirer des conclusions ou de faire des prédictions en trouvant des modèles dans les données.
- NLG (Génération de langage naturel)
Le processus consistant à transformer des données structurées en texte lisible par l’homme est connu sous le nom de génération de langage naturel. Le NLG est utilisé dans les assistants vocaux, les chatbots et la génération de contenu.
- NLP (Traitement du langage naturel)
Le traitement du langage naturel est la capacité des machines à interpréter, comprendre et répondre à des discours ou à des textes lisibles par l’homme.
Il est utilisé à plusieurs fins, notamment pour l’analyse des sentiments, la classification des textes et la réponse aux questions.
- Pattern Recognition (Reconnaissance de schémas)
La capacité d’un système d’IA à reconnaître des schémas est sa capacité à reconnaître et à comprendre des schémas dans les données. La reconnaissance vocale, la détection des fraudes et l’identification faciale sont autant de domaines dans lesquels les algorithmes de reconnaissance des schémas sont utilisés.
- Reinforcement Learning (Apprentissage par renforcement)
Par le biais d’interactions et d’essais et d’erreurs, un agent d’intelligence artificielle apprend à porter des jugements en utilisant le processus d’apprentissage automatique connu sous le nom d’apprentissage par renforcement.
Un algorithme guide l’agent pour qu’il améliore ses performances au fil du temps en le récompensant ou en le punissant en fonction de ses comportements.
- Réseau neuronal
Un Réseau neuronal est un modèle informatique qui a été influencé par le cerveau humain. Il est constitué de neurones ou de nœuds interconnectés, disposés en couches. Chaque neurone du réseau reçoit des informations d’autres neurones, ce qui lui permet de reconnaître des modèles et d’agir. Les modèles d’apprentissage automatique sont constitués en grande partie de réseaux neuronaux, ce qui leur permet d’être performants dans toute une série de tâches.
- RNN (Réseau neuronal récurrent)
Une classe particulière de réseau neuronal qui utilise des connexions de rétroaction pour interpréter des données séquentielles. Les RNN sont efficaces pour des tâches telles que le NLP et la traduction automatique, car ils peuvent se souvenir des entrées passées.
- Test de Turing
Ce test, mis au point par Alan Turing en 1950, mesure la capacité d’une machine à faire preuve d’une intelligence comparable à celle d’une personne.
Dans le test de Turing, un juge humain interagit avec un humain et une machine sans connaître leur identité. On dit que la machine a réussi le test si le juge est incapable de distinguer la machine de l’homme.
- Tokénisation
La tokenisation est la division d’un document écrit en “jetons”, qui sont de minuscules morceaux de texte.
Ces « jetons » peuvent représenter n’importe quel élément textuel qu’un programme peut traiter, y compris des mots, des chiffres, des phrases, des symboles, etc.
La tokenisation est utilisée pour extraire le maximum de sens des données non structurées au lieu de traiter l’ensemble du texte comme une seule chaîne, ce qui gaspille les ressources de calcul et est difficile à modéliser.
Comprendre le langage de l'intelligence artificielle
Le domaine de l’intelligence artificielle transforme rapidement la manière dont nous interagissons avec la technologie. Il peut néanmoins être difficile de se tenir au courant des avancées les plus récentes dans ce domaine en raison de l’afflux d’un grand nombre de nouveaux mots.
Sans contexte, certaines expressions peuvent sembler ésotériques, mais lorsqu’elles sont associées, leur signification devient évidente. La compréhension de ces termes et idées vous aidera à construire une base solide sur laquelle vous pourrez prendre des décisions judicieuses dans le domaine de l’intelligence artificielle.
Le mot de la fin
C’est déjà la fin de cet article. Vous voulez en apprendre davantage sur l’intelligence artificielle ? Consultez nos actualités et nos guides pour vous familiariser avec cette technologie d’avenir.