Docker AI et la pile GenAI sont-ils l'avenir du développement de l'IA ?

La pertinence de Intelligence artificielle (IA) dans le développement actuel de logiciels ne sera jamais assez souligné. Les technologies d'IA ont fondamentalement changé la manière dont les applications sont créées et exploitées. Docker Inc. et ses partenaires ont annoncé il y a quelques jours, lors de la conférence mondiale annuelle des développeurs, la DockerCon, à Los Angeles, ce qu'ils considèrent comme une initiative de pointe en matière d'IA. Cette initiative comprend la pile GenAI et le tout premier produit Docker basé sur l'IA : Docker AI.

Docker AI utilise les connaissances des développeurs Docker pour générer automatiquement les meilleures pratiques et sélectionner des images actuelles et sûres pour les applications. Caas est un service proposé par Docker, sur lequel repose la très vantée Docker AI. Avec les applications de la pile GenAI, les développeurs ont la possibilité d'intégrer de manière sûre et simple des composants d'IA préconfigurés dans leurs projets. Un exemple de modèles d'IA pré-entraînés est la place de marché Konfuzio, un point de rencontre central pour les solutions et outils d'IA innovants.

Le package d'intelligence artificielle Docker

Outre Docker AI et la pile GenAI, le package d'IA de Docker comprend entre autres

  • des grands modèles linguistiques (LLM) préconfigurés,
  • Bases de données vectorielles et graphiques,
  • le framework LangChain ainsi que
  • outils de soutien et modèles de code

à des processus d'intelligence artificielle générative éprouvés. Docker AI facilite la configuration contextuelle des systèmes Docker pour les utilisateurs. Grâce à ces deux nouveautés, Docker promet aux développeurs de se lancer dans des applications d'intelligence artificielle générative en quelques minutes seulement. Mais avant d'entrer dans les détails, nous vous proposons un bref aperçu de Docker, du conteneur Docker, des partenaires concernés et de la DockerCon.

Les termes relatifs à Docker AI expliqués en quelques phrases

Docker AI Qu'est-ce que Docker ?

Avec son produit Docker, Docker Inc. met à disposition une plateforme qui permet d'exploiter des applications dans ce que l'on appelle des conteneurs. Un conteneur est une unité logicielle courante qui regroupe l'ensemble du code d'une application et toutes les conditions qui y sont liées. Cela permet une exécution rapide et fiable de l'application dans différents environnements informatiques. Récemment, Docker a connu quelques changements, notamment l'intégration de clusters Kubernetes et des modifications dans la licence de la version de bureau. En raison de ces évolutions, de plus en plus d'entreprises envisagent de passer à Docker. Alternatives à Docker Desktop.

Conteneur Docker

La technologie de conteneurisation de Docker a été introduite pour la première fois en 2013 en tant que "moteur Docker open source". Cette technologie s'appuyait sur des concepts déjà existants dans le domaine de la conteneurisation, et notamment sur les composants de base connus sous le nom de "cgroups" et "namespaces" dans l'environnement Linux. La technologie Docker met l'accent sur la satisfaction des besoins des développeurs et des administrateurs système en séparant les dépendances des applications du système sous-jacent. Infrastructure isolés.

Neo4j

Neo4j est bien établi dans le domaine des bases de données et de l'analyse de graphes et permet d'identifier efficacement les relations et les modèles cachés dans de grandes quantités de données. Grâce à ses piles de graphiques, Neo4j offre des fonctionnalités telles que la recherche vectorielle native, la science des données, l'analyse avancée et les contrôles de sécurité pour les entreprises afin de résoudre les problèmes commerciaux dans différents domaines tels que la détection des fraudes, le Customer 360, les graphes de connaissances et bien plus encore.

LangChain

LangChain est une plateforme open source et une boîte à outils pour les développeurs qui aide à développer des applications de raisonnement. La compréhension du contexte est prise en compte et se base sur Grands modèles linguistiques (LLMs).

DockerCon

L'événement réunit l'ensemble de la communauté des développeurs Docker, y compris les parties prenantes et les partenaires, afin de partager les connaissances et de travailler ensemble à l'évolution de Docker. cloud-de développement natif. La DockerCon est en fait une occasion d'apprentissage très concentrée, où les développeurs découvrent de nouvelles possibilités et de nouveaux potentiels au sein de l'écosystème Docker.

L'IA de Docker

Selon ses propres termes, Docker AI "prend les développeurs là où ils sont" et augmente la productivité de leurs compétences et processus de travail existants.

"Les IA de génération de code augmentent la productivité des développeurs lors de l'écriture du code source, et c'est fantastique".

Scott Johnston, PDG de Docker

Composants de Docker AI

Outre le code source, les applications de Docker AI se composent de

  • serveurs web,
  • Temps de parole,
  • Bases de données,
  • files d'attente de messages et
  • de nombreuses autres technologies.

Dans l'état actuel des connaissances, Docker AI aide les développeurs à définir rapidement et en toute sécurité tous les aspects de l'application et à corriger les erreurs pendant qu'ils itérent dans leur "boucle interne", explique Docker.

Les outils de génération de code tels que GitHub Copilot et Tabnine ont contribué à décupler la vitesse de développement. Cependant, ces Outils ne représentent qu'une petite partie, environ 10 à 15 pour cent, de l'ensemble du travail de développement de l'IA Docker. La majeure partie, soit 85 à 90 pour cent, concerne des tâches telles que les temps d'exécution, le développement du front-end et plus encore, qui sont définies par les fichiers Docker, les fichiers Docker Compose et les images Docker.

Docker AI offre un support IA pour la configuration du système Docker

Le nouveau produit Docker est donc un service qui aide les utilisateurs avec IA à configurer leur système Docker, par exemple à créer des fichiers Docker ou à résoudre des problèmes de configuration. À l'instar de GitHub Copilot dans son domaine de programmation, Docker AI offre des suggestions de bonnes pratiques en fonction du contexte.

De plus, l'IA de Docker comprend des instructions automatisées et contextuelles pour les développeurs lorsqu'ils effectuent des tâches telles que

  • l'édition de fichiers Dockerfiles ou de fichiers Docker Compose,
  • le débogage du "Docker Build" ou
  • la réalisation de tests locaux

de mettre en œuvre. Pour ce faire, des méthodes éprouvées sont automatiquement générées et des images d'application sécurisées sont sélectionnées. L'IA s'appuie sur les connaissances acquises au cours d'innombrables projets de développement Docker et fait actuellement l'objet d'un Programmes d'accès anticipé Docker AI sont disponibles. La participation au programme est accordée sur la base de seuils de projets. Le site Coûts de l'IA Docker n'ont pas encore complété Docker Inc. dans leur tarification officielle à l'heure actuelle (12 octobre 2023).

La pile GenAI

La pile GenAI est un projet commun de Docker, Neo4j, LangChain et Ollama et fait partie d'une vaste gamme de nouvelles technologies d'IA et d'intelligence artificielle. Fonctionnalités d'apprentissage automatique. La mission : offrir aux développeurs un moyen rapide et simple de créer des applications d'intelligence artificielle.

La pile GenAI est disponible dans le Learning Center de Docker Desktop et dans le Référentiel est disponible. Il vise à soutenir les cas d'application courants dans le domaine de l'IA générative à l'aide de ressources open source fiables sur Docker Hub. Les composants de la pile GenAI ont été soigneusement sélectionnés à cet effet.

Des LLM open source préconfigurés comme puissants modèles d'IA

Les Large Language Models (LLMs) préconfigurés sont l'un des composants clés de la pile GenAI. Ceux-ci comprennent des modèles tels que

  • Llama 2,
  • Code Llama,
  • Mistral ainsi que
  • modèles privés comme GPT-3.5 et GPT-4

de l'OpenAI. La mise à disposition de ces modèles performants donne aux développeurs la possibilité d'accéder dès le départ à des capacités d'IA de haute qualité, sans devoir procéder à de longues configurations.

L'aide d'Ollama simplifie la mise en œuvre locale des LLM

Ollama aide les développeurs à mettre en œuvre des LLM open source sur des systèmes locaux. Cela garantit un contrôle total des modèles d'IA ainsi qu'une intégration efficace dans ces mêmes projets d'IA.

Neo4j comme base de données avec la force des graphes et des vecteurs

Neo4j sert de base de données standard dans la pile GenAI et permet la recherche de diagrammes et de vecteurs natifs. Cette base de données est capable d'identifier des modèles et des relations à la fois explicites et implicites dans les données, ce qui est essentiel pour augmenter la vitesse et la précision des modèles d'IA et d'apprentissage automatique. En outre, Neo4j fait office de mémoire à long terme pour ces modèles, ce qui augmente leur performance dans le temps.

Les graphes de connaissances Neo4j constituent la base de prévisions GenAI précises

L'utilisation des graphes de connaissances Neo4j comme base pour les Large Language Models permet des prédictions et des résultats plus précis dans le domaine de l'IA générative. Ces graphes de connaissances servent de base de connaissances étendue à laquelle les modèles peuvent accéder afin d'obtenir des résultats plus pertinents et contextuels.

Orchestration LangChain pour relier les LLM, les applications et les bases de données

LangChain joue un rôle clé dans l'orchestration des Large Language Models, des applications et des bases de données. Ce composant crée une intégration et une communication entre les différentes parties de la pile GenAI. Il soutient en particulier le développement d'applications de raisonnement contextuel basées sur les Large Language Models.

Outils de soutien en tant qu'outils et meilleures pratiques pour GenAI

En plus des composants principaux, la pile GenAI offre un large éventail de fonctions de soutien. Outils, Modèles de code, Instructions et des bonnes pratiques pour les développeurs. Ces ressources aident les développeurs à exploiter pleinement le potentiel de la pile GenAI et à obtenir des résultats optimaux lors du développement de Applications de l'IA de réaliser.

La pile GenAI est présentée comme une réponse forte aux défis auxquels les développeurs d'IA ont été confrontés jusqu'à présent. Désormais, selon Docker, ils bénéficient d'une configuration conviviale qui leur offre de multiples fonctions. Parmi celles-ci, le chargement facile des données et la création d'index vectoriels. Ces fonctionnalités permettent de travailler de manière transparente avec les données et d'intégrer des questions et des réponses dans les index.

En outre, la plateforme permet d'effectuer des requêtes avancées et d'enrichir les résultats des applications grâce à la synthèse des données et à des graphiques de connaissances flexibles. Les développeurs sont en mesure de créer des formats de réponse variés, allant de listes à des problèmes GitHub et des PDFs à la poésie.

Il est particulièrement intéressant de pouvoir utiliser les résultats obtenus Comparer les résultatsLes utilisateurs peuvent choisir entre les Large Language Models (LLM) seuls, les LLM avec intégration vectorielle ou les LLM qui utilisent l'intégration vectorielle et l'intégration des graphes de connaissances. Les développeurs disposent ainsi d'un large choix et d'une grande flexibilité dans le développement de leurs applications d'IA.

Déclarations sur Docker AI et la pile GenAI

Opinion Docker AI

Les avis des personnes impliquées dans Docker et des partenaires ont été recueillis dans le cadre d'un communiqué de presse publié à l'occasion de la DockerCon du 5 octobre 2023. Dans l'ensemble, ces experts évaluent les nouveaux développements de manière extrêmement positive et voient l'avenir du développement de l'IA en rose.

Nous tenons à souligner qu'il s'agit expressément de l'opinion de parties sympathisantes et non d'une évaluation objective de professionnels neutres du secteur.

James Governor, analyste principal et cofondateur de RedMonk, souligne la nécessité d'une expérience cohérente dans le paysage des outils afin d'attirer les développeurs grand public vers le développement de l'IA. Emil Eifrem, cofondateur et CEO de Neo4j, se réjouit des opportunités qui s'ouvrent à des millions de développeurs. Harrison Chase, cofondateur et CEO de LangChain, évoque le pont entre l'expérience utilisateur magique de GenAI et le travail nécessaire qui doit être fait. Jeffrey Morgan, fondateur d'Ollama, se montre enthousiaste à l'idée de travailler avec la communauté Docker pour développer la prochaine génération d'applications d'IA.

"Les recherches d'IDC montrent que les outils d'IA générative contribuent à la satisfaction des développeurs en augmentant la productivité, en améliorant la vitesse et en consacrant plus de temps à des tâches à plus forte valeur ajoutée".

Katie Norton, analyste de recherche principale pour DevOps et DevSecOps chez IDC

Dans le contexte spécifique de Docker AI, une autre déclaration de Katie Norton suit : "Les instructions de Docker AI ne permettront pas seulement d'obtenir ces avantages, mais prépareront également les développeurs à réussir dans l'ensemble de la pile d'applications. En utilisant les connaissances collectives de la communauté des développeurs Docker, les développeurs peuvent être sûrs que les connaissances de Docker AI sont basées sur les meilleures pratiques et recommandent les images les plus sûres et les plus récentes".

Conclusion et perspectives

L'annonce de Docker AI et de la pile GenAI lors de la DockerCon 2023 suscite actuellement un grand intérêt dans la communauté des développeurs, car ils devraient simplifier et accélérer le développement de l'IA avec les conteneurs Docker. En résumé, Docker Inc. et ses partenaires soulignent que Docker AI aidera les développeurs à configurer les systèmes Docker et à appliquer les meilleures pratiques, tandis que la pile GenAI offrira une palette variée d'outils et de ressources pour le développement de l'IA.

Cependant, il n'existe à ce jour peu ou pas de feedback de la part des clients sur ces nouveaux produits et services, car ils sont encore dans un programme Early Access.

Il est important de noter que les opinions positives des personnes impliquées dans Docker et des partenaires, telles qu'elles sont présentées dans le communiqué de presse, sont subjectives et qu'il faut attendre d'autres évaluations et expériences objectives pour déterminer si Docker AI et la pile GenAI représentent réellement l'avenir du développement de l'IA.

Il reste à voir comment ces nouveaux outils vont influencer le paysage du développement, surtout si l'on considère que les outils de génération de code utilisés jusqu'à présent ne représentent qu'une petite partie du travail de développement.

Quel est votre avis sur Docker AI ?

N'hésitez pas à nous envoyer un message. Nous nous réjouissons d'un échange professionnel.

"
"
Avatar de Charlotte Götz

Derniers articles