Header
🠖 Outils

LEXIQUE

⤷ algorithmes
séquence précise et ordonée d'instructions permettant d'obtenir un résultat à partir d'éléments fournis en entrée.
apprentissage non supervisé 🠖 Outils / Intelligence artificielle
Méthode où le modèle cherche seul à regrouper ou structurer les données (sans étiquette)
Méthode où le modèle apprend à partir d’exemples étiquetés (on connaît déjà la réponse).
Ensemble de données tellement volumineux, complexe et rapide qu'il nécessite des technologies avancées pour être traité et analysé efficacement.
⤷ chatbots, agent conversationnel
programme informatique conçu pour simuler une conversation avec des utilisateurs humains, souvent utilisé pour répondre à des questions, fournir des informations ou accomplir des tâches spécifiques.
⤷ apprentissage profond
Sous domaine de l'intelligence artificielle qui utilise des réseaux de neurones artificiels formant de nombreuse couches pour modéliser et résoudre des problèmes complexes en apprenant directement à partir de grandes quantités de données.
circuit électronique capable d'effectuer des calculs mathématiques à grande vitesse .
Science de faire réaliser par des machines des choses qui demanderaient de l'intelligence si elles étaient faites par un humain.
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Modèle d’intelligence artificielle entraîné sur de très grandes quantités de textes afin d’analyser, comprendre et générer du langage naturel.
⤷ apprentissage automatique
Sous domaine de l'intelligence artificielle qui permet aux machines d'apprendre à partir de données par une approche statistique. Cela permet aux machines d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés.
⤷ métadonnées
Données qui permettent de définir, de contextualiser ou de caractériser d’autres données.
Exemple pour une photographie, les coordonnées géographiques du lieu et le moment où est prise la photo ...
Inspirés du cerveau humain, ils sont constitués de couches de neurones artificiels. Chaque « neurone » effectue un calcul simple, mais combinés en grand nombre, ils permettent de traiter des données complexes (images, sons, langage).
Expérience proposée par Alan Turing pour déterminer si une machine peut imiter l’intelligence humaine. Le test est réussit si un interlocuteur humain n'est pas capable de distinguer les réponses de la machine de celles d’un autre humain.
⤷ tokens, tokenisation
Petit morceau de texte (mot, syllabe ou caractère) utilisé comme unité de base par le modèle. L'étape qui découpe un texte en tokens est appelé tokenisation.