
La directora de la política de maniquí y comportamiento de OpenAi, Joanne Jang, ha escrito una publicación de blog sobre X sobre las relaciones Human-AI, ofreciendo algunas ideas admisiblemente consideradas sobre el tema y cómo OpenAI aborda los problemas que lo rodean. Esencialmente, a medida que los modelos de IA mejoran en imitar la vida y la conversación, las personas comienzan a tratar los chatbots de IA como asimismo son personas. Tiene sentido que OpenAi quiera dejar en claro que lo están al tanto y que están incorporando los hechos en sus planes.
Pero el enfoque juicioso y matizado, incluido el diseño de modelos que se sienten aperos y amables, pero no sensibles, pierden poco crucial. No importa cuán claro y cuidadoso Jang intente ser, las personas que tienen conexiones emocionales con IA, un evento atípico ocasional o un hipotético futuro, ahora está sucediendo, y parece estar sucediendo suficiente.
Puede favor sido tomado por sorpresa, ya que el CEO Sam Altman ha comentado sobre estar sorprendido por la cantidad de personas antropomorfizan la IA y cómo los usuarios profundamente afirman conectarse con los modelos. Incluso ha agradecido la amor emocional y sus riesgos potenciales. Por eso existe la publicación de Jang.
Ella deja en claro que Operai está construyendo modelos para servir a las personas y que están priorizando el flanco emocional de esa ecuación. Están investigando cómo y por qué las personas forman vínculos emocionales para la IA y lo que significa para dar forma a futuros modelos. Ella hace un punto de distinguir entre la conciencia ontológica, como en la conciencia existente que los humanos tienen y perciben la conciencia, si parece consciente de los usuarios. La conciencia percibida es lo que importa por ahora, ya que eso es lo que afecta a las personas que interactúan con la IA. La compañía está tratando de enhebrar una manilla de comportamiento que hace que la IA parezca cálida y útil sin fingir que tiene sentimientos o un alma.
No obstante, el habla clínicamente compasivo no pudo disfrazar un dato faltante obvio. Se sentía como ver a cualquiera poner una precaución: aviso del tierra húmedo y alardear de los planes para edificios impermeables una semana luego de que una inundación salió del tierra de la rodilla profundamente en el agua.
El elegante ámbito y el optimismo cauteloso de la publicación del blog y su enfoque en la creación de modelos responsable basado en la investigación y el condicionamiento cultural a holgado plazo dejan de ser la existencia desordenada de cómo las personas desarrollan conexiones profundas con chatbots de IA, incluido el chatgpt. Mucha clan no solo deje con chatgpt como si fuera un software, sino como si fuera una persona. Algunos incluso afirman haberse enamorado de un compañero de IA, o usarlo para reemplazar las conexiones humanas por completo.
Intimidad de ai
Hay hilos Reddit, ensayos medianos y videos virales de personas que susurran dulces mínimo a su chatbot preferido. Puede ser divertido o triste o incluso violento, pero lo que no es teórico. Las demandas sobre si los chatbots de IA contribuyeron a los suicidios están en curso, y más de una persona ha informado que confiaron en la IA hasta el punto de que se ha vuelto más difícil formar relaciones reales.
Operai señala que la atención constante y exento de entendimiento de un maniquí puede parecer compañía. Y admiten que dar forma al tono y la personalidad de un chatbot puede afectar lo emocionalmente viva que se siente, con apuestas ascendentes para los usuarios absorbidos en estas relaciones. Pero el tono de la estancia es demasiado separado y culto para rastrear la escalera potencial del problema.
Porque con la pasta de dientes de la intimidad de la IA ya fuera del tubo, esta es una cuestión de comportamiento del mundo existente y cómo las empresas detrás de la IA que forma ese comportamiento responden en este momento, no solo en el futuro. Idealmente, ya tendrían sistemas establecidos para la detección de dependencia. Si cualquiera pasa horas al día con ChatGPT, hablando como si fuera su compañero, el sistema debería poder marcar suavemente ese comportamiento y sugerir un refrigerio.
Y las conexiones románticas necesitan algunos límites duros. No prohibirlo, eso sería tonto y probablemente contraproducente. Pero las estrictas reglas de que cualquier IA dedicada a un bisagra de roles romántico tiene que recapacitar a las personas que están hablando con un bot, uno que en existencia no está vivo o consciente. Los humanos son maestros de proyección, y un maniquí no tiene que ser coqueto para que el sucesor se enamore de él, por supuesto, pero cualquier indicio de conversación en esa dirección debería desencadenar esos protocolos, y deberían ser muy estrictos cuando se manejo de niños.
Lo mismo ocurre con los modelos de IA en su conjunto. Los recordatorios ocasionales de Chatgpt dicen: “Hola, no soy una persona existente”, pueden sentirse incómodos, pero posiblemente sean necesarias en algunos casos y una buena profiláctica en común. No es infracción de los usuarios que las personas antropomorfizan todo. Los fanales googly en Roombas y endurgar nuestros vehículos con nombres y personalidades no se considera más que tenuemente extravagantes. No es sorprendente que una utensilio tan receptiva y verbal como ChatGPT pueda comenzar a sentirse como un amigo, un terapeuta o incluso un compañero. El punto es que compañías como OpenAI tienen la responsabilidad de anticipar esto y diseñarlo, y deberían tener desde el principio.
Se podría argumentar que juntar todas estas barandillas arruina la diversión. Se debe permitir a las personas usar IA como quieran, y que la compañía químico puede ser un bálsamo para la soledad. Y eso es cierto en dosis moderadas. Pero los parques infantiles tienen cercas y montañas rusas tienen cinturones de seguridad por una razón. La IA capaz de imitar y provocar emociones sin controles de seguridad es simplemente negligente.
Me alegro de que Operai esté pensando en esto, solo desearía que lo hayan hecho antiguamente, o ahora tuvieron más necesidad al respecto. El diseño del producto de IA debe reverberar la existencia de que las personas ya están en relaciones con la IA, y esas relaciones necesitan más que ensayos reflexivos para mantenerse saludables.