Sind Docker AI und der GenAI-Stack die Zukunft der KI-Entwicklung?

Die Relevanz von Künstlicher Intelligenz (KI) in der gegenwärtigen Softwareentwicklung kann gar nicht stark genug betont werden. KI-Technologien haben die Art und Weise, wie Anwendungen erstellt und betrieben werden, grundlegend verändert. Docker Inc. kündigten gemeinsam mit ihren Partnern vor wenigen Tagen auf der jährlichen globalen Entwicklerkonferenz, der DockerCon in Los Angeles, eine aus ihrer Sicht richtungsweisende KI-Initiative an. Diese umfasst den GenAI-Stack und das erste KI-gestützte Produkt von Docker überhaupt: die Docker AI.

Die Docker AI nutzt das Wissen der Docker-Entwickler, um automatisch Best Practices zu generieren und aktuelle, sichere Images für Anwendungen auszuwählen. Caas ist ein von Docker angebotener Service, worauf die hoch angepriesene Docker AI basiert. Mit den Anwendungen im GenAI-Stack erhalten Entwickler die Möglichkeit, vorkonfigurierte KI-Komponenten, sicher und unkompliziert in ihre Projekte zu integrieren. Beispielhaft für vortrainierte KI-Modelle ist der Konfuzio Marktplatz, ein zentraler Knotenpunkt für innovative KI-Lösungen und -Tools.

Das Docker KI-Paket

Neben der Docker AI und dem GenAI-Stack beinhaltet das KI-Paket von Docker unter anderem

  • vorkonfigurierte Large Language Models (LLMs),
  • Vektor- und Graphdatenbanken,
  • das LangChain-Framework sowie
  • unterstützende Tools und Code-Vorlagen

zu erprobten generativen KI-Verfahren. Docker AI bietet Anwendern kontextbezogene Erleichterung beim Konfigurieren von Docker-Systemen. Docker verspricht Entwicklern mithilfe beider Neuerungen den Einstieg in generative KI-Anwendungen in nur wenigen Minuten. Doch bevor wir in die Details eintauchen, verschaffen wir Ihnen einen kurzen Überblick über Docker, dem Docker-Container, den relevanten Partnern und der DockerCon.

Begriffe rund um Docker AI in wenigen Sätzen erklärt

Docker AI Was ist Docker

Docker Inc. stellen mit ihrem Produkt Docker eine Plattform zur Verfügung, die es ermöglicht, Anwendungen in sogenannten Containern zu betreiben. Ein Container verkörpert eine gängige Software-Einheit, die den gesamten Code einer Anwendung und alle damit verbundenen Voraussetzungen zusammenfasst. Dies ermöglicht eine zügige und verlässliche Ausführung der Anwendung in verschiedenen Computerumgebungen. In jüngster Vergangenheit gab es einige Veränderungen bei Docker, darunter die Integration von Kubernetes-Clustern und Änderungen in der Lizenzierung der Desktop-Version. Aufgrund dieser Entwicklungen erwägen immer mehr Unternehmen den Umstieg auf Alternativen zu Docker Desktop.

Docker-Container

Die Container-Technologie von Docker wurde erstmals 2013 als „Open-Source Docker-Engine“ eingeführt. Diese Technologie basierte auf bereits vorhandenen Konzepten im Bereich der Containerisierung und insbesondere auf den grundlegenden Komponenten, die in der Linux-Umgebung als „cgroups“ und „Namespaces“ bekannt sind. Die Docker-Technologie legt ihren Schwerpunkt auf die Bedürfniserfüllung von Entwicklern und Systemadministratoren, indem sie die Anwendungsabhängigkeiten von der darunterliegenden Infrastruktur isoliert.

Neo4j

Neo4j ist etabliert im Bereich Graphdatenbanken und -analysen und ermöglicht es, versteckte Beziehungen und Muster in großen Datenmengen effizient zu identifizieren. Mit ihrem Diagrammstapels bietet Neo4j Funktionen wie native Vektorsuche, Datenwissenschaft, erweiterte Analyse und Sicherheitskontrollen für Unternehmen, um Geschäftsprobleme in verschiedenen Bereichen wie Betrugserkennung, Customer 360, Wissensgraphen und mehr zu lösen.

LangChain

LangChain ist eine Open-Source-Plattform und ein Toolkit für Entwickler, das bei der Entwicklung von Argumentationsanwendungen unterstützt. Das Verständnis des Kontexts wird dabei berücksichtigt und basiert auf Large Language Models (LLMs).

DockerCon

Die Veranstaltung vereint die gesamte Community der Docker-Entwickler, darunter Beteiligte und Partner, um Wissen auszutauschen und gemeinsam an der Weiterentwicklung von cloud-nativer Entwicklung zu arbeiten. Die DockerCon ist im Grunde eine hochkonzentrierte Lerngelegenheit, bei der Entwicklern neue Möglichkeiten und Potenziale innerhalb des Docker-Ökosystems aufgezeigt werden.

Die Docker AI

Nach eigenen Angaben holt Docker AI „Entwickler dort ab, wo sie sind“ und steigert die Produktivität ihrer vorhandenen Fähigkeiten und Arbeitsabläufe.

„KIs zur Codegenerierung steigern die Entwicklerproduktivität beim Schreiben von Quellcode und das ist fantastisch“

Scott Johnston, CEO von Docker

Bestandteile der Docker AI

Neben dem Quellcode bestehen die Anwendungen der Docker AI aus

  • Webservern,
  • Sprachlaufzeiten,
  • Datenbanken,
  • Nachrichtenwarteschlangen und
  • vielen anderen Technologien.

Docker AI hilft zum jetzigen Kenntnisstand Entwicklern, sämtliche Aspekte der App schnell und sicher zu definieren und Fehler zu beheben, während sie in ihrer „inneren Schleife“ iterieren, so Docker.

Codegenerierungstools wie GitHub Copilot und Tabnine haben dazu beigetragen, die Entwicklungsarbeit angeblich um das Zehnfache zu beschleunigen. Jedoch machen diese Tools nur einen kleinen Teil, etwa 10 bis 15 Prozent, der gesamten Entwicklungsarbeit der Docker AI aus. Der Großteil, nämlich 85 bis 90 Prozent, entfällt auf Aufgaben wie Laufzeiten, Frontend-Entwicklung und mehr, die durch Dockerfiles, Docker Compose-Dateien und Docker-Images definiert werden.

Docker AI bietet KI-Unterstützung für Docker-Systemkonfiguration

Das neue Docker-Produkt ist also ein Service, welcher Anwender mit KI bei der Konfiguration ihres Docker-Systems, beispielsweise bei der Erstellung von Dockerfiles oder der Behebung von Konfigurationsproblemen, unterstützt. Ähnlich wie GitHub Copilot im seinem Programmierbereich offeriert Docker AI kontextbezogene Best-Practice-Vorschläge.

Zudem beinhaltet die Docker AI automatisierte, kontextbezogene Anleitungen für Entwickler, wenn sie Aufgaben wie

  • das Bearbeiten von Dockerfiles oder Docker Compose-Dateien,
  • das Debuggen des „Docker Build“ oder
  • das Durchführen lokaler Tests

umsetzen. Dabei werden automatisch bewährte Methoden generiert und sichere Anwendungs-Images ausgewählt. Die KI stützt sich auf das Wissen von unzähligen Docker-Entwicklungsprojekten und ist derzeit im Rahmen eines Docker AI Early Access Programms erhältlich. Die Teilnahme am Programm wird auf der Grundlage von Projektschwellenwerten gewährt. Die Kosten der Docker AI haben Docker Inc. zum jetzigen Zeitpunkt (12. Oktober 2023) noch nicht in ihrer offiziellen Preisgestaltung ergänzt.

Der GenAI-Stack

Der GenAI-Stack ist ein Gemeinschaftsprojekt von Docker, Neo4j, LangChain und Ollama und Bestandteil einer umfangreichen Palette neuer KI- und Machine-Learning-Funktionen. Die Mission dahiner: Entwicklern eine schnelle und einfache Möglichkeit bieten, KI-Anwendungen zu erstellen.

Der GenAI-Stack steht im Learning Center von Docker Desktop und im Repository zur Verfügung. Er zielt darauf ab, gängige Anwendungsfälle im Bereich der generativen KI mithilfe vertrauenswürdiger Open-Source-Ressourcen auf Docker Hub zu unterstützen. Die Komponenten des GenAI-Stacks sind dabei sorgfältig ausgewählt.

Vorkonfigurierte Open-Source-LLMs als mächtige KI-Modelle

Eine der Schlüsselkomponenten des GenAI-Stacks sind die vorkonfigurierten Large Language Models (LLMs). Diese beinhalten Modelle wie

  • Llama 2,
  • Code Llama,
  • Mistral sowie
  • private Modelle wie GPT-3.5 und GPT-4

von OpenAI. Die Bereitstellung dieser leistungsstarken Modelle gibt Entwicklern die Möglichkeit, von Anfang an auf hochwertige KI-Fähigkeiten zuzugreifen, ohne langwierige Konfigurationen vornehmen zu müssen.

Hilfe von Ollama vereinfacht lokale Implementierung von LLMs

Ollama unterstützt Entwickler bei der Implementierung von Open-Source-LLMs auf lokalen Systemen. Dies stellt die volle Kontrolle über die KI-Modelle sicher, ebenso eine effiziente Integration in selbige KI-Projekte.

Neo4j als Datenbank mit der Kraft von Graphen und Vektoren

Neo4j dient als Standarddatenbank im GenAI-Stack und ermöglicht die Suche nach Diagrammen und nativen Vektoren. Diese Datenbank ist in der Lage, sowohl explizite als auch implizite Muster und Beziehungen in den Daten zu identifizieren, was entscheidend für die Steigerung der Geschwindigkeit und der Genauigkeit von KI- und Machine-Learning-Modellen ist. Darüber hinaus fungiert Neo4j als Langzeitgedächtnis für diese Modelle, was ihre Leistungsfähigkeit über die Zeit hinweg erhöht.

Neo4j-Wissensgraphen bilden das Fundament für präzise GenAI-Prognosen

Die Verwendung von Neo4j-Wissensgraphen als Grundlage für Large Language Models erlaubt präzisere Vorhersagen und Ergebnisse im Bereich der generativen KI. Diese Wissensgraphen dienen als umfangreiche Wissensbasis, auf die die Modelle zugreifen können, um bessere und kontextbezogene Ergebnisse zu erzielen.

LangChain-Orchestrierung für die Verknüpfung von LLMs, Anwendungen und Datenbanken

LangChain spielt eine Schlüsselrolle bei der Orchestrierung von Large Language Models, Anwendungen und Datenbanken. Diese Komponente schafft eine Integration und Kommunikation zwischen den verschiedenen Teilen des GenAI-Stacks. Insbesondere unterstützt sie die Entwicklung von kontextbewussten Argumentationsanwendungen auf der Grundlage von Large Language Models.

Unterstützende Tools als Werkzeuge und Best Practices für GenAI

Zusätzlich zu den Hauptkomponenten bietet der GenAI-Stack eine breite Palette von unterstützenden Tools, Codevorlagen, Anleitungen und bewährten Praktiken für Entwickler. Diese Ressourcen helfen Entwicklern, das volle Potenzial des GenAI-Stacks auszuschöpfen und optimale Ergebnisse bei der Entwicklung von KI-Anwendungen zu erzielen.

Der GenAI-Stack wird als starke Antwort auf die Herausforderungen, vor denen KI-Entwickler bislang standen, präsentiert. Nun profitieren sie laut Docker von einer benutzerfreundlichen Konfiguration, die ihnen vielfältige Funktionen bietet. Dazu gehören das einfache Dateneinladen und die Erstellung von Vektorindizes. Diese Funktionalitäten erlauben das nahtlose Arbeiten mit Daten und das Einbetten von Fragen und Antworten in die Indizes.

Zusätzlich ermöglicht die Plattform erweiterte Abfragen und die Bereicherung von Anwendungsergebnissen durch Datenzusammenfassung und flexible Wissensgraphen. Entwickler sind in der Lage, vielfältige Antwortformate zu erstellen, welche sich von Listen über GitHub-Probleme und PDFs bis hin zu Gedichten erstrecken.

Besonders interessant ist die Möglichkeit, die erzielten Ergebnisse zu vergleichen, sei es zwischen alleinigen Large Language Models (LLMs), LLMs mit Vektorintegration oder LLMs, die Vektor- und Wissensgraphenintegration nutzen. Dies verschafft den Entwicklern eine breite Auswahl und Flexibilität bei der Entwicklung ihrer KI-Anwendungen.

Äußerungen zur Docker AI und dem GenAI-Stack

Docker AI Opinion

Meinungen von Docker-Involvierten und -Partnern wurden im Rahmen einer Pressemitteilungen zur DockerCon vom 5. Oktober 2023 gesammelt. In der Summe bewerten diese Experten die neuen Entwicklungen äußerst positiv und sehen die Zukunft der KI-Entwicklung rosig.

Dabei möchten wir betonen, dass es sich ausdrücklich um Meinung von sympathisierenden Parteien handelt und nicht um eine objektive Einschätzung von neutralen Branchenprofis.

James Governor, Hauptanalyst und Mitbegründer von RedMonk, hebt die Notwendigkeit einer konsistenten Erfahrung in der Tool-Landschaft hervor, um Mainstream-Entwickler für die KI-Entwicklung zu gewinnen. Emil Eifrem, Mitbegründer und CEO von Neo4j, freut sich über die Möglichkeiten, die sich für Millionen von Entwicklern eröffnen. Harrison Chase, Mitbegründer und CEO von LangChain, spricht von der Brücke zwischen der magischen Benutzererfahrung von GenAI und der notwendigen Arbeit, die getan werden muss. Jeffrey Morgan, Gründer von Ollama, zeigt sich begeistert von der Zusammenarbeit mit der Docker-Community, um die nächste Generation von KI-Anwendungen zu entwickeln.

„Untersuchungen von IDC zeigen, dass generative KI-Tools zur Entwicklerzufriedenheit beitragen, indem sie die Produktivität steigern, die Geschwindigkeit erhöhen und mehr Zeit für die Erledigung höherwertiger Aufgaben aufwenden.“

Katie Norton, leitende Forschungsanalystin für DevOps und DevSecOps bei IDC

Im konkreten Kontext zur Docker AI schließt sich eine weitere Aussage von Katie Norton an: „Die Anleitung von Docker AI wird nicht nur dazu beitragen, diese Vorteile zu erzielen, sondern Entwickler auch auf den Erfolg im gesamten Anwendungsstapel vorbereiten. Durch die Nutzung des kollektiven Wissens der Docker-Entwicklergemeinschaft können Entwickler sicher sein, dass die Erkenntnisse von Docker AI auf Best Practices basieren und die sichersten und aktuellsten Images empfehlen.“

Fazit und Ausblick

Die Ankündigung von Docker AI und des GenAI-Stacks auf der DockerCon 2023 weckt aktuell großes Interesse in der Entwicklergemeinschaft, da sie die KI-Entwicklung mit Docker-Containern vereinfachen und beschleunigen sollen. Zusammenfassend betonen Docker Inc. und Partner, dass die Docker AI Entwickler bei der Konfiguration von Docker-Systemen und der Anwendung von Best Practices unterstützen wird, während der GenAI-Stack eine vielfältige Palette von Tools und Ressourcen für die KI-Entwicklung bietet.

Allerdings gibt es bisher wenig bis gar kein Kundenfeedback zu diesen neuen Produkten und Services, da sich diese noch in einem Early Access Programm befinden.

Es ist wichtig zu beachten, dass die positiven Meinungen von Docker-Involvierten und -Partnern, wie sie in der Pressemitteilung dargestellt werden, subjektiv sind und weitere objektive Bewertungen und Erfahrungen abgewartet werden müssen, um zu beurteilen, ob Docker AI und der GenAI-Stack tatsächlich die Zukunft der KI-Entwicklung sind.

Es bleibt abzuwarten, wie diese neuen Werkzeuge die Entwicklungslandschaft beeinflussen werden, insbesondere angesichts der Tatsache, dass bisherige Codegenerierungstools nur einen kleinen Teil der Entwicklungsarbeit ausmachen.

Was ist Ihre Meinung zu Docker AI?

Schreiben Sie uns eine Nachricht. Wir freuen uns auf den fachlichen Austausch.

«
»
Avatar von Charlotte Götz

Neueste Artikel