AI Models - Des systèmes de contrôle aux neurones polyvalents

Dans le discours sur les modèles d'intelligence artificielle (IA), des termes étroitement liés tels que l'apprentissage automatique et les réseaux neuronaux apparaissent souvent. Bien qu'ils soient volontiers utilisés comme synonymes, il existe des différences fondamentales qui tiennent aux techniques utilisées.

On assiste à une différenciation croissante. Cela se traduit par un classement des modèles d'IA particulièrement populaires et de leurs modes de fonctionnement dans les différents sous-domaines.

Que sont les modèles AI ?

Les modèles IA sont des programmes informatiques et des algorithmes capables de prendre des décisions de manière autonome grâce à l'intelligence artificielle. Ils représentent donc des modélisations des capacités de l'esprit humain et doivent automatiser les actions qui en dépendent. Le point central est l'utilisation d'une base d'expérience pour résoudre des problèmes jusqu'alors inconnus, ce qui est l'une des approches les plus populaires. Définitions de l'intelligence correspond à la réalité. Ce principe peut être adapté mécaniquement à l'aide de l'analyse des données. Il existe d'innombrables possibilités de mise en œuvre, ainsi que de nombreuses autres approches permettant de doter les programmes et les algorithmes d'une action intelligente.

L'intelligence artificielle n'est qu'un terme générique pour toutes ces techniques et ouvre un système complexe de différents sous-domaines dans lequel chaque modèle AI doit être classé individuellement. Il est souvent question de machine learning, qui est le sous-ensemble le plus important et qui correspond en grande partie à l'intelligence artificielle, mais pas totalement. Parmi eux, on trouve à nouveau le Deep Learning, qui repose principalement sur les réseaux neuronaux comme technique de mise en œuvre. Les principaux domaines d'application des modèles d'IA sont le traitement du langage naturel (NLP), la vision par ordinateur et la robotique, qui se situent à leur tour entre les sous-domaines de l'IA, selon la technique utilisée.

Deux points de vue sont donc particulièrement déterminants pour la classification :

  • La technique/méthodologie
  • Le champ d'application

La différence entre l'intelligence artificielle et le Machine Learning

Des modèles d'IA simples existaient déjà dans les années 1960, mais ils sont longtemps restés sans réelle utilité pratique. Le problème : ils devaient être programmés à grands frais à l'aide de règles et donc être préparés pour des situations individuelles. Cela a changé à partir des années 1980 avec l'apparition du Machine Learning. La grande différence : il permet un apprentissage autonome à partir de données et donc la reconnaissance et la mise en œuvre de principes d'action. 

L'amélioration de la puissance de calcul et l'apparition de volumes de données exploitables toujours plus importants ont fortement accéléré cette évolution. Aujourd'hui, la plupart des modèles sont basés sur l'apprentissage automatique, ce qui explique l'utilisation souvent synonyme de ces termes.

Néanmoins, la règle reste la même : Tous les modèles d'apprentissage automatique sont des modèles d'IA, mais tous les modèles d'IA ne sont pas des modèles d'apprentissage automatique.

Deep Learning - plus de potentiel grâce aux réseaux neuronaux

L'apprentissage profond est un sous-domaine très populaire de l'apprentissage automatique et la principale raison pour laquelle les modèles d'IA suscitent actuellement tant d'attention. Il étend l'application des principes probabilistes basés sur les données à des réseaux neuronaux complexes inspirés du fonctionnement du cerveau humain. Ils se composent de plusieurs couches de neurones artificiels, dont chacune transforme mathématiquement les valeurs d'entrée en une valeur de sortie.

L'ensemble du réseau forme ainsi des valeurs de sortie basées sur tous les neurones et leurs pondérations optimisées lors de la formation. La profondeur de ces réseaux et les innombrables connexions neuronales permettent d'analyser des relations nettement plus complexes qu'avec des modèles d'apprentissage automatique sans apprentissage en profondeur.

Le principe est le suivant Tous les modèles d'apprentissage profond sont des modèles d'apprentissage automatique, mais tous les modèles d'apprentissage automatique ne sont pas des modèles d'apprentissage profond.

affichage simple d'un réseau neuronal
Représentation simplifiée d'un réseau neuronal

Modèles simples et leur classification

En observant et en classant les modèles d'IA, on constate que l'utilité et l'applicabilité des technologies augmentent parallèlement au système de catégories correspondant, qui ne s'est différencié qu'avec le temps.

Modèles IA sans apprentissage automatique

En raison de leur coût élevé par rapport à leur faible valeur ajoutée, ces modèles ont pratiquement disparu, bien qu'ils soient encore utilisés dans des cas spécifiques. Les représentants les plus courants sont

  • Systèmes experts : Ces algorithmes utilisent un grand nombre de règles et de principes définis par des experts. Leur enchaînement par une Machine d'inférence conduit en fin de compte à des décisions qui ne font pas appel à la probabilité. Cela permet également d'éviter une probabilité d'erreur trop élevée, ce qui rend l'approche appropriée pour éviter les erreurs fatales. Cas d'application : Diagnostics médicaux, recherche d'erreurs informatiques, prévisions de tremblements de terre.
  • Algorithmes génétiques : En tant que techniques d'optimisation, elles ne sont pas nécessairement basées sur l'apprentissage automatique, mais sur les principes de l'évolution tels que la sélection, la recombinaison et la mutation. De cette manière, les solutions individuelles proposées pour les problèmes d'optimisation sont systématiquement modifiées afin de générer un optimum. Cas d'application : Planification d'itinéraires, conception de véhicules, optimisation de portefeuilles.
algorithme génétique
Les algorithmes génétiques sont une autre modélisation inspirée de la nature.

Modèles ML sans deep learning

C'est dans ce domaine que se trouvent des modèles simples, mais efficaces, qui utilisent des principes statistiques classiques. Il n'est pas rare qu'ils servent de ligne de base rapide et fournissent les premières connaissances à partir d'une base de données, avant que les réseaux neuronaux ne soient utilisés. On distingue les méthodes d'apprentissage non supervisées (avec des données d'apprentissage non structurées) et les méthodes d'apprentissage supervisées (avec des données d'apprentissage structurées).

  • Bayes la naïve: La méthode probabiliste Théorème de Bayes sont utilisés pour les problèmes de classification. Sur la base de propriétés auxquelles on attribue une indépendance les unes par rapport aux autres, les algorithmes peuvent calculer l'appartenance la plus probable d'un objet à une classe. La base de données nécessaire au Machine Learning est ici constituée d'attributions correctes et de la distribution de probabilité correspondante. Cas d'application : Filtres anti-spam, Classification des documents, systèmes de recommandation.
  • Arbre de décision : L'analyse hiérarchique des données dans le sens d'une structure arborescente permet de faire des prévisions fondées. De cette manière, il est également possible de résoudre des problèmes de classification mais aussi de régression. En se basant sur les propriétés des données, ces algorithmes utilisent des "nœuds de décision" pour appliquer les règles les plus appropriées. Cas d'application : Évaluation des risques dans le secteur bancaire, développement de stratégies marketing, détection des fraudes.
  • Régression logistique: Ce modèle AI classique utilise la fonction logit pour examiner les relations possibles entre les variables indépendantes et une variable dépendante binaire. Il est donc bien adapté au calcul de la probabilité d'occurrence d'un événement. Ici aussi, l'utilité pour les classifications est évidente, mais par rapport à Naive Bayes, une meilleure interprétabilité est donnée par l'estimation des probabilités d'erreur. Cas d'application : Probabilité de pluie, recherches en sciences sociales, évaluation des risques.

Chronologie des principaux réseaux neuronaux

Les modèles les plus performants à ce jour sont presque tous basés sur le deep learning. Grâce à leurs performances élevées et à leurs domaines d'application variés, notamment pour le traitement de la parole et des images, ils constituent désormais le premier choix pour de nombreuses applications.

Perceptron multi-couches

Lors de son introduction dans les années 1950, le perceptron, l'un des premiers réseaux neuronaux, ne comportait qu'une couche d'entrée, une couche cachée et une couche de sortie. En raison du manque de couches multiples et donc de profondeur correspondante dans le traitement des informations, il n'était pas encore question d'apprentissage profond.

Cela a changé dans les années 1980, lorsqu'il a été étendu sous la forme d'un réseau d'alimentation avec des connexions de neurones de couches multiples. Le perceptron multicouche a permis pour la première fois d'entraîner des modèles complexes à l'aide d'échantillons de données saisis pour optimiser les poids neuronaux. Un algorithme d'apprentissage important à cette fin est la Propagation de la cuisson. Aujourd'hui encore, le perceptron reste un modèle d'IA populaire pour la reconnaissance de modèles linéairement séparables, disponible dans divers frameworks open source tels que Pytorch et Tensorflow.

Cas d'application : Reconnaissance de l'écriture manuscrite, analyse des actions, analyse d'images.

Réseau neuronal convolutif (CNN)

La principale innovation par rapport au perceptron multicouche réside dans une disposition multidimensionnelle des neurones. Les activités de ces derniers sont déterminées par corrélation croisée dans le système de neurones développé à cet effet. Couche convolutionnelle a été calculée. Une autre particularité est la concordance des poids neuronaux au sein de cette couche. En outre, un soi-disant Couche de mise en commun est utilisé pour la réduction des données. Ce processus s'inspire de l'inhibition latérale dans le cortex visuel du cerveau et vise à garantir la prise en compte des informations les plus pertinentes possibles ou à éviter un surajustement. Les CNN sont ainsi particulièrement bien adaptés à la reconnaissance d'images précises avec un faible taux d'erreur.

Cas d'application : Reconnaissance et classification d'images, Reconnaissance optique de caractères (OCR).

Réseau neuronal récurrent (RNN)

Le RNN est spécialisé dans les séquences et les données temporelles ordonnées. Il rompt ainsi avec l'hypothèse d'indépendance entre l'entrée et la sortie, qui était encore la norme auparavant. Au lieu de cela, le réseau tient compte dans ses calculs de la succession séquentielle des éléments précédents. De ce point de vue, il modélise une sorte de mémoire, ce qui le rend particulièrement adapté au traitement du langage. Une évolution de ce modèle d'IA est le Mémoire à long termequi permet de saisir des contextes plus longs. C'est ainsi que de nouvelles normes de performance ont été établies dans les années 2000, auxquelles les combinaisons avec les CNN ont également contribué de manière déterminante.

Cas d'utilisation : traitement de la parole, reconnaissance de l'écriture manuscrite, traduction.

Transformateur

Dans le domaine du traitement automatisé du langage, on utilise aujourd'hui des réseaux neuronaux spéciaux composés d'encodeurs, de décodeurs et de modules dits d'attention. Cela permet l'analyse la plus performante et la plus flexible à ce jour de contextes étendus. Les applications populaires sont ChatGPT ou Bard, derrière lesquelles se trouvent les modèles GPT-4 et PaLM 2 - pour plus de détails, voir le rapport sur Modèles PNL. Un nouveau représentant est LLama 2, qui a été entraîné exclusivement avec des jeux de données publics et environ deux billions de paramètres. Il permet d'augmenter encore la longueur de contexte détectable.

Utiliser la puissance des réseaux neuronaux pour la gestion documentaire

Bon nombre des modèles et des possibilités d'application présentés traitent du traitement d'éléments linguistiques et visuels. Un cas d'utilisation particulièrement intéressant est donc l'analyse de documents qui combinent souvent précisément de tels contenus sous forme de mise en page, de texte ou d'écriture. Le logiciel documentaire Konfuzio s'appuie pour cela sur des combinaisons tout aussi variées de technologies d'apprentissage profond et de réseaux neuronaux. Cela permet par exemple

Classification des documents

Un document est d'abord considéré comme Facture, Bon de livraison est un problème de classification typique qui peut être résolu par des réseaux neuronaux. Pour obtenir une grande précision, Konfuzio n'a besoin que de quelques données d'apprentissage.

Reconnaissance de texte

Grâce à des techniques telles que le Natural Language Processing et la reconnaissance optique de caractères, la reconnaissance, l'analyse et l'extraction automatisées de texte sont faciles pour Konfuzio. Cela est également dû à la capacité d'apprentissage des modèles d'apprentissage en profondeur sous-jacents.

Si vous souhaitez en savoir plus sur le potentiel de l'IA pour la gestion des documents dans votre entreprise, n'hésitez pas à prendre contact avec nous. Contact à nous contacter. Nos experts se feront un plaisir d'échanger avec vous.

Conclusion

Avec le temps, l'intelligence artificielle s'est différenciée en un système de plus en plus complexe de différentes technologies. Il suffit pour s'en convaincre de jeter un coup d'œil aux innombrables modèles d'IA aux modes de fonctionnement individuels. Un grand dénominateur commun est toutefois l'utilisation du Machine Learning, qui décrit l'acquisition automatisée de connaissances à partir de données. De tels algorithmes ne dépendent plus de la programmation complexe de systèmes de règles, mais utilisent des modèles statistiques tels que la régression logistique ou Naive Bayes.

Les plus grands progrès actuels se situent dans le domaine du deep learning, qui se définit par l'utilisation de réseaux neuronaux artificiels. Grâce à leur architecture multidimensionnelle et à l'applicabilité de diverses optimisations, modifications et procédures d'apprentissage intensif, ils permettent des performances uniques pour de nombreuses tâches. Cela se manifeste par exemple dans le traitement de documents, qui ne nécessite plus guère d'attention humaine.


"
"
Avatar de Tim Filzinger

Derniers articles