ChatGPT se ha convertido en el maniquí de la inteligencia químico y los grandes modelos de habla en todas partes, pero si quieres poco más especializado, o quieres poco que puedas respaldar que es privado, no es tu única opción.
He estado ejecutando un puñado de IA en mi propia PC durante un año en área de abonar por ChatGPT; así es como se hace.
¿Por qué ejecutar una IA localmente en tu propia PC?
ChatGPT replica, es relativamente inteligente y recibe actualizaciones continuamente, entonces, ¿por qué molestarse en introducir su propio maniquí de habla egregio?
Hay tres grandes razones: integración con mis proyectos, privacidad y especialización.
ChatGPT cuesta boleto para usar
Si usted mismo aloja una casa inteligente y desea integrar ChatGPT en su sistema, tendrá que abonar por el entrada. Dependiendo de cuánto lo uses, eso podría variar desde unos pocos centavos por mes hasta cientos de dólares.
Introducir su propia IA no resuelve completamente ese problema, ya que tiene que abonar por la electricidad, pero sí significa que no experimentará inesperadamente un aumento en el costo para lograr a la IA o incurrirá accidentalmente en una tarifa enorme porque la está usando en exceso. Incluso las PC domésticas más potentes tendrían dificultades para costar más de unos pocos dólares por día en electricidad, y eso suponiendo que el sistema esté funcionando al mayor las 24 horas del día.
Las IA autohospedadas son privadas
ChatGPT es una aparejo fantástica, pero no es privada. Si le preocupa cómo se podrían utilizar sus datos en el futuro, o si maneja información confidencial que no se puede compartir fuera de su ordenamiento, una IA tópico es una opción fantástica.
Puede comprobar de que falta salga de su PC y, siempre que su PC esté segura, puede estar seguro de que los datos que proporcione no se utilizarán para capacitación en el futuro ni se filtrarán conveniente a un error de seguridad.
La IA tópico se puede adaptar a sus deyección
No todos los AI o LLM son iguales. Si le haces las mismas preguntas a Gemini o ChatGPT, obtendrás respuestas tenuemente diferentes. Ese tipo de diferencia se muestra en la IA que todavía puedes introducir localmente.
gpt-oss de OpenAI proporcionará respuestas diferentes a Qwen3, y Gemma proporcionará respuestas diferentes a Kimi. Adicionalmente, estos modelos abiertos están sujetos a la misma carrera armamentista de IA que los modelos comerciales. Algunos de ellos simplemente son mejores en ciertas tareas que otros, y qué IA es mejor en qué trabajo cambia con la tecnología y los nuevos lanzamientos.
La capacidad de cambiar rápidamente entre modelos para un trabajo específico es increíblemente útil y la aprovecho mucho. Si necesito comentarios complejos sobre una idea, un maniquí más egregio como el Qwen3 32B es útil. Si sólo necesito poco para analizar texto nuclear, Gemma3 4b está perfectamente aceptablemente para el trabajo.
Si aloja su propia IA para manejar tareas en su laboratorio doméstico, delegar trabajos simples a LLM más livianos es una excelente guisa de racionar medios. Adicionalmente, puedes conectar otras IA, como aquellas especializadas en visión químico o procesamiento del habla natural, para realizar trabajos más especializados.
¿Qué necesitas para introducir tu propio ChatGPT?
Lo primero que necesita para ejecutar su propio LLM es Estudio LMque proporciona una interfaz conveniente para chatear con un LLM muy similar a como hablaría con ChatGPT. Asimismo hace que probar nuevos LLM sea extremadamente sencillo.
Prácticamente cualquier PC para juegos moderna puede ejecutar al menos algunos modelos de IA locales, aunque el principal cifra limitante es la cantidad de VRAM acondicionado en su GPU. Si está comprando uno nuevo, 16 GB de VRAM probablemente sea un término medio regular que le permitirá lograr a una amplia tonalidad de IA muy capaz. Probablemente 12 GB sea el exiguo.
Excepto de eso, es útil tener un SSD veloz para acelerar la carga y descarga de modelos, y una buena cantidad de RAM del sistema (32 GB o más) es ideal si vas a intentar descargar algunas de las tareas de IA de tu GPU a tu CPU.
Si no está seguro de qué modelos puede ejecutar su sistema con las especificaciones dadas, existe un plan útil en GitHub que puede hacerle recomendaciones basadas en lo que desea hacer y las especificaciones de su sistema.
Ejecutando tu propio ChatGPT
Una vez que descargue e instale LM Studio, todo lo que necesita hacer es hacer clic en el ícono de la lupa, apañarse el maniquí que desea y hacer clic en “Descargar” cerca de la parte inferior.
Si encontró un maniquí en otro área que le gustaría usar, debe colocarlo en la carpeta correcta de su PC. Por defecto, será:
C:Users(YOURUSERNAME).lmstudiomodels
Donde (SUNOMBRE DE USUARIO) es el nombre de su cuenta de becario. Entonces, en mi caso fue “C:UsersEquinox.lmstudiomodels”.
Una vez que hagas eso, aparecerá en tu repertorio de modelos como cualquier otro.
¿Qué puede hacer tu propio ChatGPT?
Lo que puede hacer su propio LLM alojado de forma privada depende del maniquí que esté utilizando, el hardware que tenga y su capacidad para redactar mensajes.
Existen docenas de modelos (o más) con funciones especializadas, pero como exiguo, puede hacer que lean fuentes, generen resúmenes, analicen el contenido de los medios que proporciona y analicen el contenido de imágenes o videos. Muchos están optimizados para el uso de herramientas, lo que significa que, si así lo desea, pueden incluso interactuar con aplicaciones externas para realizar trabajos adicionales u obtener información automáticamente.
Si está dispuesto a intentar, puede incluso integrarlos completamente con Home Assistant para crear su propia casa inteligente que acento y piensa (más o menos).
Sin bloqueo, más allá del capital de costos, hay poco más en organizar su propio LLM: es simplemente divertido. No todos los días una nueva tecnología se vuelve ampliamente accesible para los usuarios domésticos, especialmente una que está destinada a ser tan disruptiva como






