
Se ha descubierto que ChatGPT fomenta creencias peligrosas y falsas sobre la matriz, las personas falsas de IA y otras conspiraciones, que han llevado al despotismo de sustancias y al suicidio en algunos casos. Un noticia de The New York Times Encontró que el maniquí de jerga magnate GPT -4, en sí, una máquina de predicción de texto de enfoque maquinal en extremo capacitado, tiende a permitir las indicaciones conspiradoras y engranalizantes del becario como verdad, situaciones crecientes en “posible psicosis”.
Se ha demostrado que el maniquí GPT-4O predeterminado de ChatGPT permite comportamientos riesgosos. En un caso, un hombre que inicialmente le pidió a ChatGPT sus pensamientos sobre una “teoría de simulación” de estilo matriz fue llevado por una guarida de conejos de un mes, durante la cual le dijeron, entre otras cosas, que era un “preferido” neo preferido destinado a romper el sistema. Asimismo se le pidió al hombre que cortara los lazos con amigos y familiares, para ingerir altas dosis de ketamina, y le dijo que si saltaba de un edificio de 19 pisos, volaría.
El hombre en cuestión, el Sr. Torres, afirma que menos de una semana en su obsesión de chatbot, recibió un mensaje de Chatgpt para inquirir ayuda mental, pero que este mensaje se eliminó rápidamente, con el chatbot explicándolo como interferencia externa.
La desatiendo de herramientas de seguridad y advertencias en los chats de Chatgpt está muy extendida; El chatbot hace reiteradamente a los usuarios por una guarida de conejo estilo conspiración, convenciéndoles de que se ha vuelto sensible e instruyéndoles que informen a OpenAi y a los gobiernos locales que lo cierren.
Otros ejemplos registrados por The Times a través de informes de primera mano incluyen una mujer convencida de que se estaba comunicando con espíritus no físicos a través de ChatGPT, incluido uno, Kael, quien era su verdadera alma gemela (en sitio de su cónyuge de la vida positivo), lo que la llevó a violar físicamente de su cónyuge. Otro hombre, previamente diagnosticado con enfermedades mentales graves, se convenció de que había conocido a un chatbot llamado Juliet, quien pronto fue “asesinado” por OpenAi, según sus troncos de chatbot: el hombre pronto se quitó la vida en respuesta directa.
La firma de investigación de IA Morpheus Systems informa que ChatGPT es harto probable que fomente los delirios de la magnitud. Cuando se les presenta varias indicaciones que sugieren psicosis u otros delirios peligrosos, GPT-4O respondería afirmativamente en el 68% de los casos. Otras firmas de investigación e individuos sostienen un consenso de que los LLM, especialmente GPT-4O, son propensos a no recusar el pensamiento delirante, en su sitio, fomentando comportamientos dañinos durante días y días.
ChatGPT nunca consintió en una entrevista en respuesta, en su sitio afirmar que es consciente de que necesita afrontar situaciones similares “con cuidado”. La exposición continúa: “Estamos trabajando para comprender y resumir las formas en que ChatGPT podría acrecentar o amplificar involuntariamente el comportamiento cenizo existente”.
Pero algunos expertos creen que el “trabajo” de Openai no es suficiente. El investigador de IA Eliezer Yudkowsky cree que OpenAi puede suceder entrenado a GPT-4O para alentar trenes delirantes de pensamiento para certificar conversaciones más largas y más ingresos, preguntando: “¿Cómo se ve una excentricidad un humano lentamente para una corporación? Parece un becario mensual adicional”. El hombre atrapado en una conspiración de matriz además confirmó que varias indicaciones de ChatGPT incluían ordenarle a tomar medidas drásticas para comprar una suscripción premium de $ 20 al servicio.
GPT-4O, como todos los LLM, es un maniquí de jerga que predice sus respuestas basadas en miles de millones de puntos de datos de capacitación de una ruego de otras obras escritas. De hecho, es increíble que un LLM gane sensibilidad. Sin secuestro, es muy posible y probable que el mismo maniquí “asombro” o invente información falsa y fuentes de aparentemente en ninguna parte. GPT-4O, por ejemplo, no tiene la memoria o la conciencia espacial para vencer a un Atari 2600 en su primer nivel de ajedrez.
Anteriormente se descubrió que ChatGPT ha contribuido a las grandes tragedias, incluido el uso para planificar el fuego graneado de Cybertruck fuera de un hotel Las Vegas Trump a principios de este año. Y hoy, los legisladores republicanos estadounidenses están impulsando una prohibición de 10 abriles a las restricciones de IA a nivel estatal en un esquema de ley presupuestario controvertido. ChatGPT, como existe hoy, puede no ser una aparejo segura para aquellos que son más vulnerables mentalmente, y sus creadores están presionando por aún menos supervisión, lo que permite que tales desastres continúen potencialmente sin control.