El miércoles, Anthropic lanzó un lectura revisada de la Constitución de Claudeun documento vivo que proporciona una explicación “holística” del “contexto en el que opera Claude y el tipo de entidad que nos gustaría que Claude fuera…” Durante abriles, Anthropic ha tratado de distinguirse de sus competidores a través de lo que pira “IA constitucional”, un sistema mediante el cual su chatbot, Claude, se entrena utilizando un conjunto específico de principios éticos en superficie de feedback humana… El documento de 80 páginas tiene cuatro partes separadas, que, según Anthropic, representan el “núcleo” del chatbot. títulos.” Esos títulos son:
1. Estar “ampliamente seguro”.
2. Ser “ampliamente ético”.
3. Cumplir con los lineamientos de Anthropic.
4. Ser “positivamente útil…”
En la sección de seguridad, Anthropic señala que su chatbot ha sido diseñado para evitar el tipo de problemas que han afectado a otros chatbots y, cuando surge evidencia de problemas de vitalidad mental, dirige al beneficiario a los servicios apropiados…
La Constitución de Anthropic termina con una nota decididamente dramática, con sus autores dando un rotación conveniente holgado y cuestionando si el chatbot de la compañía positivamente tiene conciencia. “El status honesto de Claude es profundamente incierto”, afirma el documento. “Creemos que el status honesto de los modelos de IA es una cuestión seria que vale la pena considerar. Este punto de aspecto no es exclusivo de nosotros: algunos de los filósofos más eminentes de la teoría de la mente se toman esta cuestión muy en serio”.
Informes de Gizmodo:
La compañía todavía dijo que dedicó una sección de la constitución a la naturaleza de Claude correcto a “nuestra incertidumbre sobre si Claude podría tener algún tipo de conciencia o status honesto (ya sea ahora o en el futuro)”. Aparentemente, la compañía demora que al constreñir esto en sus documentos fundacionales, pueda proteger “la seguridad psicológica, el sentido de sí mismo y el bienestar de Claude”.





