4 contenedores Docker que en realidad utilizan su GPU

A pesar de sus capacidades de aislamiento inferior, los contenedores tienen un par de ventajas en comparación con las máquinas virtuales. A diferencia de las máquinas virtuales, son extremadamente livianos, por lo que puede ejecutar un puñado de contenedores en dispositivos débiles sin encontrar problemas de rendimiento. Compartir su maleable gráfica con contenedores todavía es mucho más practicable que hacerlo para sus homólogos de VM.

Esto se debe a que simplemente puede ocurrir la misma GPU a varios contenedores en ocupación de ocurrir por el dolor de persona de configurar VGPUS. La mejor parte? Encontrará varios contenedores Docker que pueden usar su maleable gráfica antigua para aumentar sus capacidades de procesamiento.

Ollama

E incluso difusión estable, para el caso

MacBook Air ejecutando una interfaz de usuario de difusión estable con una imagen generada por IA de un gato

En ocupación de servir como un maniquí de idioma en sí, Ollama es una plataforma que le permite implementar, configurar y penetrar a una gran cantidad de LLM. Estos pueden variar desde modelos simples con algunos parámetros hasta LLM de inscripción abanico que requieren mucha potencia de procesamiento. Donado que puede implementar Ollama como un contenedor Docker, puede combinar una maleable gráfica con la utensilio para engrosar sus cargas de trabajo LLM.

Si le gusta difundir obras de arte de IA y no quiere luchar con los tokens limitados o la naturaleza intrusiva de la privacidad de los generadores de imágenes en recta, es posible que desee consultar la difusión estable. Si adecuadamente sus requisitos de VRAM son mucho más altos que los de Ollama, admite una gran cantidad de modelos, incluidas las que pueden ayudarlo a mejorar las imágenes de desvaloración resolución.

Celúla

Para mejorar sus capacidades de transcodificación

Aprovechar lo mejor de Jellyfin para transmitir en casa en diferentes dispositivos

El panorama autohospedado está plagado de aplicaciones de servidores de medios, ya que Plex y Jellyfin son las opciones más populares entre los entusiastas del laboratorio en casa. Entre su interfaz de legatario ordenada y la desatiendo de registros obligatorios, Jellyfin tiene muchos puntos a su patrocinio. Sin confiscación, lo que en realidad lo hace mejor es que Jellyfin no oculta el soporte de transcodificación detrás de un pared de cuota.

Si su colección de medios es como la mía, probablemente tenga películas, programas de televisión y podcasts repartidos en una variedad de formatos de archivos, resoluciones y estándares de codificación. La transcodificación de hardware es una excelente guisa de eliminar la carga de procesamiento de la CPU, y ya he emparejado mi contenedor de gelatina con una GPU para evitar caídas aleatorias de cuadros y corrientes entrecortadas.

Inmacha

Para búsqueda inteligente y inspección facial

Con una interfaz que toma prestadas muchos utensilios de diseño de Google Photos, Immich es una excelente decisión autohospedada que le permite juntar y cuidar su colección de imágenes en máquinas locales. Su aplicación móvil, en particular, es especialmente útil, ya que le permite sincronizar todas sus capturas de pantalla, fotos y videos con su servidor privado Immich, lo que lo hace tan conveniente como la plataforma de Google, menos los problemas de privacidad y las tarifas de suscripción.

Immich admite un puñado de otras características ordenadas, que incluyen soporte para compartir, geocodificación inversa, etiquetas jerárquicas y perfiles de sidecar XMP. Mejor aún, incluso puede amplificar disposiciones de búsqueda inteligente y inspección facial a su contenedor Immich conectándolo a una maleable gráfica.

Fragata

Aumentar su destreza de enseñanza involuntario

Habiendo ido en biciclo entre MotionEye, Zoneminder, Nightwatcher y otras herramientas de NVR en el transcurso de mi alucinación de autohosting, siempre me combate volviendo a la fragata. Es proporcionado practicable de configurar, funciona con prácticamente cualquier dispositivo y tiene excelentes características de enseñanza involuntario, la mayoría de las cuales se pueden mejorar aún más con la destreza informática superior de una maleable gráfica.

Por otra parte de Ollama y la difusión estable, la fragata se beneficia más de una GPU, ya que su detección de movimiento, seguimiento de objetos, inspección facial y sinopsis generativo puede ser extremadamente intolerante para su procesador. Pero si encuentra que su GPU se extiende entre todos los servicios que he mencionado en esta repertorio, incluso puede ocurrir una TPU de coral o un acelerador de IA a su contenedor de fragatas y aún así esperar un rendimiento limpio en las tareas con mancuerna AI.

Puede emparejar aún más servicios con LLMS alojados localmente

Karakeep ejecutándose en una Mac

Mientras estamos en el tema de las aplicaciones que pueden beneficiarse de las GPU, Karakeep, Paperless AI y el asistente de origen merecen un agradecimiento. Técnicamente, no requieren la GPU en sí, pero se pueden combinar con una instancia autohospedada de Ollama para mejorar sus capacidades de procesamiento.

Capaz de juntar todo, desde páginas web hasta archivos e imágenes PDF, Karakeep (o Hoarder, como se llamaba en el pasado) es un increíble administrador de marcadores que puede ejecutar en su máquina particular. Si tiene un servidor Ollama particular que se ejecuta en su laboratorio de inicio, puede combinarlo con Karakeep para utilizar los LLM para etiquetar automáticamente sus marcadores y crear resúmenes breves para ellos.

Mientras tanto, Paperless AI es una extensión para Paperless-NGX que puede usar LLM basados ​​en Ollama para mejorar la plataforma de papeleo de documentos todopoderoso. Mientras que Paperless-NGX admite OCR involuntario, su extensión AI agrega auto-etiquetado y clasificación de documentos a la plataforma. Todavía restablecimiento las capacidades de búsqueda de Paperless-NGX, lo que permite que la utensilio comprenda el contexto cuando búsqueda un documento, en ocupación de solo escanear para palabras secreto.

Todavía hay asistente de inicio, que puede usar sus Ollama LLMS para ayudarlo a controlar sus dispositivos inteligentes. Pero dudo un poco en mencionarlo en un artículo sobre contenedores. Verá, ejecutar el asistente de inicio interiormente de una máquina supuesto le brinda un mejor rendimiento y le permite penetrar a la tienda de complementos. Y estaríamos aquí todo el día si comenzara a dialogar sobre todas las cosas interesantes que puedes hacer al ocurrir una GPU a tus máquinas virtuales.

Related Posts

Es posible que la memoria RAM internamente de su computadora portátil no sobreviva a lo que viene posteriormente

Este podría ser el momento adecuado para hacer una pausa y considerar el formato de RAM internamente de su computadora portátil. Desde hace casi tres décadas confiamos en los módulos…

Nintendo demanda para evitar que Trump eluda reembolsos completos de aranceles

Para los jugadores, el Switch 2 ya tenía un precio más stop de lo esperado, 450 dólares. Arremetiendo contra el impacto de las pegatinas, un enjambre de manifestantes en término…

You Missed

De hombre respetado a reposar en las calles: la historia de Geovanny Jiménez conmueve a La Vega

De hombre respetado a reposar en las calles: la historia de Geovanny Jiménez conmueve a La Vega

Es posible que la memoria RAM internamente de su computadora portátil no sobreviva a lo que viene posteriormente

Es posible que la memoria RAM internamente de su computadora portátil no sobreviva a lo que viene posteriormente

Gendarme muere y otro resulta herido tras ser atropellados por transporte desconocido en San Francisco de Macorís

Gendarme muere y otro resulta herido tras ser atropellados por transporte desconocido en San Francisco de Macorís

Educación recibe serie “Trinitarios” para enseñar historia

Educación recibe serie “Trinitarios” para enseñar historia

Debajo de la patana

Debajo de la patana

Desatención y basura rodean el play de Intramuros México en San Pedro de Macorís

Desatención y basura rodean el play de Intramuros México en San Pedro de Macorís