Es probable que haya usado IA y se haya sorprendido tanto por su prestigio como por su estupidez, yo asimismo. Sin confiscación, estos sistemas carecen de lo que se necesitaría para reemplazar en realidad a un programador habituado, y su columna vertebral financiera no es probable que dure. Explicaré por qué.
Cometen estúpidos errores
No importa cómo use la IA, ya sea para programar, investigar o tratar de encontrar poco en la web; Todos han experimentado en algún momento la frustración de las estúpidas respuestas de la IA. Depende del maniquí que use, pero a menudo armonía que la IA simplemente no comprende completamente las preguntas que planteo, la perplejidad es el peor delincuente.
Otras veces, LLMS (modelos de idiomas grandes, asimismo conocido como AI) intente alinear sus respuestas con los datos de entrada (un código aviso o existente). Ajustado ayer, Claude trató de usar una serie de funciones de prueba no utilizadas (accesorios) en mi colchoneta de código, y sesgó drásticamente los resultados a la esquizofrenia de la esquizofrenia. Eliminé esas funciones, y Claude comenzó a interpretar con sensatez nuevamente.
Otro problema es que Los LLM tienden a tomar atajosprobablemente porque no comprenden completamente el contexto más amplio, como las expectativas sociales o profesionales, y simplemente cumplen la solicitud de cualquier forma que puedan. Por ejemplo, ocasionalmente falsifican una prueba para producir artificialmente un resultado esperado, como afirmar 1 == 1sin entender por qué nunca deberían hacer esto. O a menudo escriben el mismo código repetidamente sin considerar la reutilización, poco de lo que son capaces pero solo lo hacen selectivamente.
Trabajar con un LLM a menudo se siente como un solaz de Whack-A-Mole: soluciona un problema, solo para que haga poco más problemático. Todavía se alternan con frecuencia entre dos problemas conflictivos sin formar ningún tipo de maniquí mental. Me siento poco tonto diciendo esto, pero ¿son los vectores y los modelos estadísticos en realidad capaces de formar modelos mentales?
Otro hilarante ejemplo de la estupidez de los LLM fue El intento de Claude de ejecutar un negocio de máquinas expendedoras. Comenzó admisiblemente, pero se convirtió en un colapso completo a posteriori de un tiempo. Oportuno a los cargos por una cuenta financiera ficticia que estaba administrando, Claude intentó despachar un correo electrónico al FBI y cerrar el negocio por completo. No se detuvo allí; Claude afirmó que las leyes fundamentales de la ingenuidad no existían, que el negocio era metafísico y que su estado cuántico se había derrumbado. No te bromea.
Considere el caso donde un AI obediente aceptó un pedido de 18,000 tazas de agua en Taco Bell sin duda. O cuando recursivamente le preguntó a un cliente si le gustaría agua con su pedido, mientras ordenaba agua. Tal comportamiento sin sentido ha llevado a la compañía a reconsiderar su logística de IA.
Las personas ignoran estos comportamientos como problemas iniciales, pero creo que el problema fundamental es la desliz de un cerebro en funcionamiento. No podemos ejecutar el software del mundo en poco tan poco confiable, por lo que necesitaremos programadores calificados en el futuro.
Son sycofánticos y no lo suficientemente críticos
La crítica es un aspecto crucial de la codificación efectiva. Ya sea que esté escribiendo o revisando código, debe cuestionar constantemente su calidad. Cada vez que termino de escribir un sillar de código, evalúo inmediatamente cómo puedo simplificarlo o mejorar su legibilidad.
Cuando emparejas el software, quieres que un pensador crítico ve tus estúpidos errores. En mi experiencia, los LLM hacen lo contrario; Llegarán obedientemente sus órdenes como un sirviente sycofántico, No importa cuán peligrosas o estúpidas sean las ideas. Si pide que sea crítico, es 50/50 si sus objeciones son perspicaces o absolutamente locas. Para mí, esta desliz de información indica una desliz de pensamiento efectivo, pero todavía es sorprendente para algunos.
El pensamiento crítico es inherentemente desagradable, y requiere objeciones sensatas. Los LLM, sin confiscación, comúnmente demuestran una naturaleza agradable: todo lo contrario. Recientemente, han surgido numerosas telediario sobre la psicosis de la IA. Los expertos sospechan que LLMS inadvertidamente refuerza las ideas peligrosasfomentando el pensamiento delirante. Encima, estos modelos tienden a reverberar sus ideas para usted, creando un tirabuzón de refuerzo de feedback. He observado personalmente la perplejidad alterando sus respuestas varias veces en función de las palabras esencia que he introducido durante nuestros diálogos.
Entonces, para armarlo: necesita un pensador crítico que lo ayude a escribir un código seguro, pero obtiene un sirviente sycofántico que refuerza sus ideas, buenos o malos.
Ahora más que nunca, tú Debe ser el pensador crítico, porque los LLM no pueden realizar esto auténticamente. Es por eso que creo que la codificación de vibos no funciona, porque hay un pensamiento crítico en el tirabuzón. Pedirle a un LLM que piense críticamente es como pedirle cortésmente a un perro que no coma tu tentempié, a veces funciona, pero a menudo estás preparando el tentempié para dos.
Es una burbuja que eventualmente aparecerá
Es de conocimiento global que la IA es costosa de entrenar y ejecutar, pero lo que puede ser menos obvio es cuánto de las empresas de puesta están tomando. Los LLM aún no están probados, a pesar de lo optimistas que son algunas personas en la tecnología. En los últimos 6 meses ha habido Preguntas significativas planteadas sobre la calidad del trabajo que producen.
El año pasado, el CEO de Anthrope proyectó Los modelos podrían costar más de $ 10–100 mil millones para entrenar, mientras Operai recientemente firmó un arreglo de $ 300 mil millones con Oracle para calcular en los próximos cinco abriles. Ambas proyecciones son optimistas, dependiendo completamente del crecimiento continuo del mercado, una puesta significativa.
Las compañías de IA actualmente están quemando en efectivo. Si admisiblemente es peculiar durante la escalón de crecimiento de nuevas empresas o mercados, asimismo es peculiar de una burbuja. Sam Altman ha agradecido que El mercado se encuentra actualmente en una burbuja. Si la historia sirve como una piloto, las burbujas inevitablemente explotan.
Las burbujas estallan porque el billete (y la confianza de los inversores) se secan, y con eso, asimismo lo hace la escalón de crecimiento exponencial. Cuando estalla la burbuja de IA, muchas compañías de IA se hundirán. No tengo dudas de que el mercado se recuperará, pero llevará abriles, y el mundo aún necesitará programadores calificados mientras tanto.
Los LLM son una tecnología impresionante, pero no creo que puedan competir con los humanos en su forma coetáneo. Me he opuesto con considerables publicidad y contraargumentos sobre sus capacidades. Es difícil entender quién es sincero: aquellos que usan la tecnología o aquellos que pueden perder todo. No puedo atreverse, pero confío en la experiencia personal, y eso me dice que los LLM carecen de un cerebro en funcionamiento. Sin uno, no podemos esperar razonablemente que el software se construya. Y sin el flujo de efectivo constante que el mercado disfruta actualmente, ¿podemos esperar que los LLM sigan siendo accesibles? Solo el tiempo lo dirá, pero los programadores humanos no van a ninguna parte.
Si te pareció entretenido, es posible que tengas curiosidad sobre por qué la codificación de vibos conlleva riesgos o por qué un programador favorece los enfoques tradicionales. Alternativamente, si está cansado de escuchar sobre la IA, estará eficaz de entender que nadie lo está obligando a usarlo, pero sí.





