Los asistentes de codificación con IA son, para aceptablemente o para mal, la norma hoy en día. Si aceptablemente todavía no confiaría en ellos para escribir una aplicación completa por sí solos, pueden ser un multiplicador de productividad eficaz para aumentar su rendimiento o escribir código repetitivo, ahorrándole tiempo. De forma lenta pero segura, incluso se han convertido en parte de mi forma de trabajar con el código. Encima, pueden ser un empujón en la dirección correcta cuando estoy atrapado en un problema de codificación.
Sin bloqueo, sigue habiendo una gran desventaja cuando se comercio de agentes codificadores. Casi todos funcionan en la cirro y se basan en LLM de terceros. Básicamente, eso significa que todo mi código, bueno o malo, está siendo erudito por un tercero. No importa la promesa de privacidad, eso no me sienta aceptablemente ideológicamente. Entonces decidí probar poco diferente. He estado explorando y probando un agente de IA que se ejecuta completamente en mi computadora portátil, en el interior de mi editor de código de dilema, y no hace yerro decirlo: sin conexión. Tabby es un asistente de codificación autohospedado de código descubierto que funciona de guisa muy similar a GitHub Copilot, excepto que sin la dependencia de la cirro. Posteriormente de configurarlo y usarlo durante una semana, puedo sostener que, si aceptablemente no reemplazará por completo a un asistente de codificación basado en la cirro, Tabby es la utensilio que se adapta mejor a mi caso de uso personal.
Obsidian es una buena alternativa a Notion, pero esta aplicación gratuita es aún mejor
Esta utensilio desconocida y gratuita es superior
Cómo funciona Tabby en tu máquina
Un puente restringido entre su editor y un LLM
Lo primero que hay que entender sobre Tabby es que no es un complemento simple y completo. En cambio, actúa como un puente entre un LLM restringido y su editor de código. Esto puede parecer complicado, pero en la praxis no lo es. Tabby se ejecuta como un servidor restringido en su computadora o computadora portátil, como en mi caso, y genera sugerencias de código utilizando un maniquí de idioma restringido que se ejecuta a través de Ollama. Una vez descargado el maniquí, todo funciona sin conexión a Internet. No se necesitan cuentas ni comunicación a API. Necesitará un código de autorización que se genera la primera vez que activa Tabby. En el banda del editor de código, VS Code, en mi caso, simplemente descargue el complemento Tabby y agregue su URL y detalles de autenticación. Eso es todo.
En el uso diario, Tabby funciona como le gustaría que funcionara un asistente de codificación. Por un banda, no funciona como un asistente de chat integrado en su IDE. Prácticamente todas las funciones funcionan en fila. Cuando comienzas a escribir código, Tabby lo completa según tu intención.
Entonces, por ejemplo, si escribe la firma de una función en Python, Tabby completará el cuerpo. O podría estar escribiendo una función de utilidad en Javascript y Tabby generará un código repetitivo. Se restablecimiento cuando dejas un comentario explicando lo que quieres. Tabby, la mayoría de las veces, capta el contexto y continúa la implementación basándose en su comentario.
Sí, la experiencia no siempre es tan rápida como usar un LLM basado en la cirro para completar el código, pero rara vez, o nunca, es frustrantemente moroso. Ese es solo el costo de poseer su experiencia y ejecutar las cosas localmente.
Habitar con un asistente de codificación de IA fuera de fila
Bueno en algunas cosas, no tan bueno en otras.
Una vez que empiezas a utilizar Tabby, empiezas a ser más consciente de sus capacidades y límites. Claramente hay algunas cosas en las que es bueno y otras en las que no. Pero en su anciano parte, diría que Tabby es verdaderamente buena para acortar la fricción. Especialmente cuando se comercio de manejar patrones repetitivos, deducción más simple y estructuras predecibles. Ya sea manejando una indicación API o transformaciones de datos simples, la utensilio puede manejarse sin mucho esfuerzo, con muy pocas fallas, y restablecimiento si le brinda más contexto a través de comentarios. He estado usando un pequeño maniquí de 7 mil millones de parámetros para mi caso de uso y, si aceptablemente puede que no sea particularmente poderoso, hace el trabajo.
Como mencioné, en mis pruebas, los flujos de trabajo basados en comentarios funcionan mejor ya que el LLM tiene más contexto sobre lo que estás tratando de alcanzar en empleo de adivinar solo basándose en el código hasta el momento. Asimismo ayuda que dejes un mejor código para ti, pero eso es, en el mejor de los casos, un beneficio secundario.
Los límites de Tabby incluso están conveniente aceptablemente definidos. Este es un asistente de codificación, no un codificador de IA. Si prórroga que le ayude a diseñar un sistema completo o escribir una aplicación desde cero para usted, eso no sucederá. Encima, poliedro que se ejecuta localmente, la calidad de sus sugerencias depende completamente del tamaño del maniquí que le proporciones. Del mismo modo, la velocidad depende del hardware en el que se ejecuta. Si sus prioridades son la velocidad y la toma de decisiones a anciano escalera, un asistente de codificación basado en la cirro sin duda será una mejor opción.
Tabby se adapta perfectamente a tu flujo de trabajo sin tomar el control
Tabby no ha cambiado por completo mi forma de trabajar con el código. Es una utensilio que puede acelerar los flujos de trabajo, pero no los reemplazará. Y eso me queda muy aceptablemente. Donado que es tirado y funciona completamente sin conexión, estoy más descubierto a aprovecharlo para escribir código repetitivo. Como codificador novato, en el mejor de los casos, incluso me gusta centrarme en los comentarios para mejorar los resultados, ya que me ayuda a comprender mejor lo que estoy haciendo. Ejecutar un asistente de codificación con IA no será para todos. Sobre todo porque se requiere una computadora razonablemente potente para alcanzar resultados de calidad. Pero la propiedad, la privacidad y el control ciertamente hacen que valga la pena verificar con él.




