La IA ha estado en una grado emocionante durante los últimos primaveras, con muchos desarrollos que han llevado a los chatbots de IA como ChatGPT, Gemini y Meta AI a nuevas posibilidades. En este punto, los LLM pueden realizar presentaciones, ocasionar imágenes, redactar documentos e incluso escribir código. Pero las empresas no buscan detenerse en éxitos tan triviales. Sam Altman, el director ejecutante de OpenAI, dice que el La empresa planea tener un investigador de IA en toda regla para 2028.. Sin retención, el primer paso en dirección a eso son los “pasantes de investigación” de IA en 2026.
Todo esto es parte de un cambio continuo en dirección a lo que algunos llaman “superinteligencia personal”, cuyo objetivo es convertir los chatbots de IA como ChatGPT en poco más que una simple útil, como un colaborador auténtico para sus proyectos. Lo que es especialmente interesante de todo esto es que Altman dice que el término AGI se ha vuelto “enormemente sobrecargado” y que “será este proceso a lo dilatado de varios primaveras”. ¿Pero qué significa eso exactamente?
El futuro de la IA
Altman y otros grandes líderes en IA, como Mark Zuckerberg de Meta, han sido muy claros en cuanto a querer que el futuro de la IA sea muy diferente de lo que es ahora. Quieren tomar la IA y convertirla en poco en lo que los humanos dependamos mucho más de lo que ya lo hacemos, y los investigadores de AGI en toda regla apuntarían esencialmente a eso. Es probable que estas herramientas de inteligencia sintético sean capaces de completar tareas sin mucha intervención humana. Básicamente, es como ChatGPT con esteroides. Toma la idea que ya vemos de los agentes de IA en los navegadores y pone el dial en 100.
La IA ya está ayudando en varias cosas, como encontrar posibles curas que los médicos pasaron por detención y guardar vidas, e incluso diagnosticar pacientes con diferentes enfermedades. Pero todavía estamos conveniente allá de que ChatGPT pueda hacer poco de eso sin que un humano le dé ningún tipo de estructura o indicación. Por supuesto, el problema con una AGI que puede hacer todo por sí sola es el hecho de que la IA puede delirar, haciendo que cualquier información que determine por sí sola no sea confiable.






