
No se comercio de demonizar la IA o sugerir que estas herramientas son inherentemente peligrosas para todos. Millones usan asistentes de IA productivamente para codificar, escribir y hacer una copia de ideas sin incidentes todos los días. El problema es específico, que involucra a usuarios vulnerables, modelos de jerigonza ancho sycophantic y bucles de feedback dañina.
Una máquina que usa el jerigonza de guisa fluida, convincente e incansable es un tipo de peligro que nunca se encuentra en la historia de la humanidad. La mayoría de nosotros es probable que tengamos defensas innatas contra la manipulación: cuestionamos motivos, sentimos cuando cualquiera está demasiado agradable y reconocemos el simulación. Para muchas personas, estas defensas funcionan adecuadamente incluso con IA, y pueden sostener un desconfianza saludable sobre los resultados de chatbot. Pero estas defensas pueden ser menos efectivas contra un maniquí de IA sin motivos para detectar, sin personalidad fija para ojear, sin que biológica se indique que observe. Un LLM puede desempeñar cualquier papel, imitar cualquier personalidad y escribir cualquier ficción tan fácilmente como un hecho.
A diferencia de una cojín de datos de computadora tradicional, un maniquí de idioma AI no recupera los datos de un catálogo de “hechos” almacenados; Genera futuro de las asociaciones estadísticas entre ideas. En la tarea de completar una entrada del adjudicatario emplazamiento “aviso”, estos modelos generan texto estadísticamente plausible basado en datos (libros, comentarios de Internet, transcripciones de YouTube) alimentados en sus redes neuronales durante un proceso de capacitación auténtico y luego ajuste fino. Cuando escribe poco, el maniquí contesta a su aporte de una guisa que completa la transcripción de una conversación de guisa coherente, pero sin ninguna respaldo de precisión fáctica.
Encima, toda la conversación se convierte en parte de lo que se alimenta repetidamente en el maniquí cada vez que interactúas con él, por lo que todo lo que haces da forma a lo que sale, creando un rizo de feedback que refleja y amplifica tus propias ideas. El maniquí no tiene memoria verdadera de lo que usted dice entre las respuestas, y su red neuronal no almacena información sobre usted. Solo está reaccionando a un aviso cada vez veterano que se alimenta de nuevo cada vez que agrega a la conversación. Cualquier asistente de IA de “Memorias” que se mantenga sobre usted es parte de ese mensaje de entrada, alimentado al maniquí por un componente de software separado.






