¿Son Docker AI y la pila GenAI el futuro del desarrollo de la IA?

La relevancia de Inteligencia artificial (IA) en el desarrollo de software actual. Las tecnologías de IA han cambiado radicalmente la forma de crear y ejecutar aplicaciones. Docker Inc., junto con sus socios, anunció hace unos días en la conferencia mundial anual de desarrolladores DockerCon de Los Ángeles lo que consideran una iniciativa histórica de IA. Esto incluye la pila GenAI y el primer producto de Docker impulsado por IA: Docker AI.

Docker AI utiliza los conocimientos de los desarrolladores de Docker para generar automáticamente las mejores prácticas y seleccionar imágenes actualizadas y seguras para las aplicaciones. Caas es un servicio ofrecido por Docker, en el que se basa la muy elogiada Docker AI. Las aplicaciones de la pila GenAI permiten a los desarrolladores integrar componentes de IA preconfigurados de forma segura y sencilla en sus proyectos. Un ejemplo de modelos de IA preentrenados es el mercado Konfuzio, un eje central para soluciones y herramientas innovadoras de IA.

El paquete Docker AI

Además de Docker AI y la pila GenAI, el paquete AI de Docker incluye, entre otras cosas

  • Grandes modelos lingüísticos (LLM) preconfigurados,
  • Bases de datos vectoriales y gráficas,
  • el marco LangChain y
  • Herramientas de apoyo y plantillas de código

a métodos probados de IA generativa. Docker AI ofrece a los usuarios facilidades contextuales a la hora de configurar los sistemas Docker. Docker promete ayudar a los desarrolladores a empezar a trabajar con aplicaciones de IA generativa en tan solo unos minutos con la ayuda de ambas innovaciones. Pero antes de entrar en detalles, le daremos una breve visión general de Docker, el contenedor Docker, socios relevantes y DockerCon.

Términos relacionados con Docker AI explicados en pocas frases

Docker AI Qué es Docker

Docker Inc. proporciona con su producto Docker una plataforma que permite ejecutar aplicaciones en los denominados contenedores. Un contenedor encarna una unidad de software común que combina todo el código de una aplicación y todos los requisitos asociados. Esto permite que la aplicación se ejecute de forma rápida y fiable en diferentes entornos informáticos. Recientemente se han producido algunos cambios en Docker, como la integración de clústeres Kubernetes y cambios en las licencias de la versión de escritorio. Debido a estos avances, cada vez son más las empresas que se plantean pasarse a Alternativas a Docker Desktop.

Contenedor Docker

La tecnología de contenedores de Docker se presentó por primera vez en 2013 como el "motor Docker de código abierto". Esta tecnología se basaba en conceptos existentes en el ámbito de la contenedorización y, en particular, en los componentes básicos conocidos en el entorno Linux como "cgroups" y "namespaces". La tecnología Docker se centra en satisfacer las necesidades de los desarrolladores y administradores de sistemas separando las dependencias de las aplicaciones de las subyacentes Infraestructura aislado.

Neo4j

Neo4j está establecido en el campo de las bases de datos de grafos y la analítica, permitiendo la identificación eficiente de relaciones y patrones ocultos en big data. Con su pila de grafos, Neo4j ofrece funciones como la búsqueda vectorial nativa, la ciencia de datos, la analítica avanzada y los controles de seguridad para que las empresas resuelvan problemas empresariales en diversos ámbitos, como la detección de fraudes, el cliente 360, los grafos de conocimiento y mucho más.

Cadena LangChain

LangChain es una plataforma de código abierto y un conjunto de herramientas para desarrolladores que apoya el desarrollo de aplicaciones de razonamiento. Se tiene en cuenta la comprensión del contexto y se basa en Grandes modelos lingüísticos (LLM).

DockerCon

El evento reúne a toda la comunidad de desarrolladores de Docker, incluidas las partes interesadas y los socios, para compartir conocimientos y trabajar juntos en el desarrollo ulterior de nube-desarrollo nativo en el que trabajar. DockerCon es básicamente una oportunidad de aprendizaje muy centrada en la que se muestran a los desarrolladores nuevas posibilidades y potenciales dentro del ecosistema Docker.

La IA de Docker

En sus propias palabras, Docker AI "recoge a los desarrolladores donde están" y aumenta la productividad de sus habilidades y flujos de trabajo existentes.

"Las IA para la generación de código aumentan la productividad de los desarrolladores a la hora de escribir código fuente y eso es fantástico"

Scott Johnston, Director General de Docker

Componentes de Docker AI

Además del código fuente, las aplicaciones de Docker AI consisten en

  • servidores web,
  • Tiempos de ejecución de idiomas,
  • Bases de datos,
  • Colas de mensajes y
  • muchas otras tecnologías.

Hasta donde sabemos, Docker AI ayuda a los desarrolladores a definir y solucionar de forma rápida y segura todos los aspectos de la aplicación mientras iteran en su "bucle interno", según Docker.

Herramientas de generación de código como GitHub Copilot y Tabnine han ayudado a acelerar el trabajo de desarrollo supuestamente diez veces. Sin embargo, estas Herramientas sólo una pequeña parte, entre el 10 y el 15 por ciento, del trabajo total de desarrollo de la IA de Docker. La mayor parte, entre el 85 % y el 90 %, corresponde a tareas como los tiempos de ejecución, el desarrollo front-end, etc., que se definen mediante archivos Docker, archivos Docker Compose e imágenes Docker.

Docker AI proporciona soporte de IA para la configuración del sistema Docker

El nuevo producto de Docker es, por tanto, un servicio que ayuda a los usuarios con IA a configurar su sistema Docker, por ejemplo para crear archivos Docker o solucionar problemas de configuración. De forma similar a GitHub Copilot en su área de programación, Docker AI ofrece sugerencias contextuales de mejores prácticas.

Además, Docker AI incluye orientación automatizada y contextual para los desarrolladores a la hora de realizar tareas como

  • editar archivos Dockerfiles o archivos Docker Compose,
  • depuración de "Docker Build" o
  • realización de pruebas locales

implementar. Las mejores prácticas se generan automáticamente y se seleccionan imágenes de aplicaciones seguras. La IA se basa en el conocimiento de innumerables proyectos de desarrollo de Docker y actualmente se está desarrollando como parte de un Programa de acceso anticipado a la IA de Docker disponibles. La participación en el programa se concede en función de los umbrales de los proyectos. La dirección Costes de Docker AI no han añadido Docker Inc. a sus precios oficiales en este momento (12 de octubre de 2023).

La pila GenAI

La pila GenAI es un proyecto conjunto de Docker, Neo4j, LangChain y Ollama, y forma parte de una amplia gama de nuevas tecnologías de IA y Funciones de aprendizaje automático. Su misión: ofrecer a los desarrolladores una forma rápida y sencilla de crear aplicaciones de IA.

La pila GenAI está disponible en el Docker Desktop Learning Center y en el Repositorio está disponible. Su objetivo es dar soporte a casos de uso comunes en el campo de la IA generativa utilizando recursos de código abierto de confianza en Docker Hub. Los componentes de la pila GenAI se seleccionan cuidadosamente.

LLM preconfigurados de código abierto como potentes modelos de IA

Uno de los componentes clave de la pila GenAI son los Grandes Modelos Lingüísticos (LLM) preconfigurados. Entre ellos se incluyen modelos como

  • Llama 2,
  • Código Llama,
  • Mistral y
  • modelos privados como GPT-3.5 y GPT-4

de OpenAI. La prestación de estos modelos potentes ofrece a los desarrolladores la oportunidad de acceder a capacidades de IA de alta calidad desde el principio sin tener que realizar largas configuraciones.

La ayuda de Ollama simplifica la implantación local de los LLM

Ollama ayuda a los desarrolladores a implementar LLM de código abierto en sistemas locales. Esto garantiza un control total sobre los modelos de IA, así como una integración eficiente en los mismos proyectos de IA.

Neo4j como base de datos con la potencia de gráficos y vectores

Neo4j sirve como base de datos predeterminada en la pila GenAI y permite realizar búsquedas en grafos y vectores nativos. Esta base de datos es capaz de identificar patrones y relaciones tanto explícitos como implícitos en los datos, lo que resulta crucial para aumentar la velocidad y la precisión de los modelos de IA y aprendizaje automático. Además, Neo4j actúa como una memoria a largo plazo para estos modelos, lo que aumenta su rendimiento a lo largo del tiempo.

Los grafos de conocimiento de Neo4j constituyen la base de las predicciones precisas de GenAI

El uso de los grafos de conocimiento de Neo4j como base para los Large Language Models permite obtener predicciones y resultados más precisos en el campo de la IA generativa. Estos grafos de conocimiento sirven como una amplia base de conocimiento a la que los modelos pueden acceder para lograr resultados mejores y más contextuales.

Orquestación LangChain para enlazar LLM, aplicaciones y bases de datos

LangChain desempeña un papel clave en la orquestación de grandes modelos lingüísticos, aplicaciones y bases de datos. Este componente crea integración y comunicación entre las diferentes partes de la pila GenAI. En particular, permite el desarrollo de aplicaciones de razonamiento contextual basadas en grandes modelos lingüísticos.

Herramientas de apoyo como herramientas y mejores prácticas para GenAI

Además de los componentes principales, la pila GenAI ofrece una amplia gama de apoyos Herramientas, Plantillas de códigos, Instrucciones y mejores prácticas para desarrolladores. Estos recursos ayudan a los desarrolladores a aprovechar todo el potencial de la pila GenAI y lograr resultados óptimos en el desarrollo de Aplicaciones de IA conseguir.

La pila GenAI se presenta como una respuesta contundente a los retos a los que se han enfrentado hasta ahora los desarrolladores de IA. Ahora, según Docker, se benefician de una configuración fácil de usar que les ofrece una amplia gama de funciones. Entre ellas, la carga sencilla de datos y la creación de índices vectoriales. Estas funcionalidades les permiten trabajar sin problemas con los datos e incrustar preguntas y respuestas en los índices.

Además, la plataforma permite realizar consultas avanzadas y enriquecer los resultados de las aplicaciones mediante el resumen de datos y gráficos de conocimiento flexibles. Los desarrolladores pueden crear diversos formatos de respuesta, que van desde listas a problemas de GitHub y PDFs a los poemas.

Especialmente interesante es la posibilidad de Comparar resultadosYa sea entre grandes modelos lingüísticos (LLM) solos, LLM con integración vectorial o LLM que utilizan integración vectorial y de grafos de conocimiento. Esto ofrece a los desarrolladores una amplia gama de opciones y flexibilidad a la hora de desarrollar sus aplicaciones de IA.

Declaraciones sobre Docker AI y la pila GenAI

Docker AI Opinión

Las opiniones de las partes interesadas y los socios de Docker se recogieron en un comunicado de prensa para la DockerCon del 5 de octubre de 2023. En general, estos expertos valoran muy positivamente los nuevos avances y ven el futuro del desarrollo de la IA de color de rosa.

Nos gustaría subrayar que se trata explícitamente de opiniones de simpatizantes y no de una evaluación objetiva realizada por profesionales neutrales del sector.

James Governor, analista principal y cofundador de RedMonk, destaca la necesidad de una experiencia coherente en todo el panorama de herramientas para atraer a los desarrolladores convencionales al desarrollo de IA. Emil Eifrem, cofundador y CEO de Neo4j, está entusiasmado con las oportunidades que se abren para millones de desarrolladores. Harrison Chase, cofundador y CEO de LangChain, habla del puente entre la mágica experiencia de usuario de GenAI y el trabajo que queda por hacer. Jeffrey Morgan, fundador de Ollama, expresa su entusiasmo por trabajar con la comunidad Docker para desarrollar la próxima generación de aplicaciones de IA.

"La investigación de IDC muestra que las herramientas de IA generativa contribuyen a la satisfacción de los desarrolladores al impulsar la productividad, aumentar la velocidad y dedicar más tiempo a completar tareas de mayor valor."

Katie Norton, Analista de Investigación Senior para DevOps y DevSecOps en IDC

En el contexto específico de Docker AI, Katie Norton continúa con otra declaración: "La orientación de Docker AI no solo ayudará a lograr estos beneficios, sino que también preparará a los desarrolladores para el éxito en toda la pila de aplicaciones. Al aprovechar el conocimiento colectivo de la comunidad de desarrolladores de Docker, los desarrolladores pueden confiar en que las percepciones de Docker AI se basan en las mejores prácticas y recomiendan las imágenes más seguras y actualizadas."

Conclusión y perspectivas

El anuncio de Docker AI y la pila GenAI en la DockerCon 2023 está generando actualmente mucho interés en la comunidad de desarrolladores, ya que se espera que simplifiquen y aceleren el desarrollo de IA con contenedores Docker. En resumen, Docker Inc. y sus socios destacan que Docker AI ayudará a los desarrolladores a configurar los sistemas Docker y aplicar las mejores prácticas, mientras que la pila GenAI proporciona un conjunto diverso de herramientas y recursos para el desarrollo de IA.

Sin embargo, hasta ahora poca o ninguna opinión de los clientes a estos nuevos productos y servicios, ya que aún se encuentran en un programa de acceso temprano.

Es importante señalar que las opiniones positivas de las partes interesadas y los socios de Docker presentadas en el comunicado de prensa son subjetivas y habrá que esperar a nuevas evaluaciones y experiencias objetivas para valorar si Docker AI y la pila GenAI son realmente el futuro del desarrollo de la IA.

Queda por ver cómo influirán estas nuevas herramientas en el panorama del desarrollo, sobre todo teniendo en cuenta que las anteriores herramientas de generación de código sólo representan una pequeña parte del trabajo de desarrollo.

¿Qué opina de Docker AI?

Escríbanos un mensaje. Esperamos tener un intercambio profesional.

"
"
Avatar de Charlotte Götz

Últimos artículos