¿Son las actuales inteligencias artificiales escasamente un deporte de niños frente a las super-IA que podrían surgir? Dos referentes mundiales, Eliezer Yudkowsky y Nate Soares, sostienen que sí y alertan de que la humanidad avanza casi sonámbula con destino a un aventura existencial: el de máquinas más inteligentes que cualquier humano o que incluso toda la humanidad.
Uno y otro son autores del ejemplar “Si alguno la crea, todos moriremos”un éxito de ventas en Estados Unidos que ha generado debate sobre si sus advertencias son escenarios hipotéticos o riesgos reales, y que ha polarizado opiniones entre quienes abogan por una regulación estricta y quienes critican la aviso que generan. El ejemplar se publica ahora en España a través de Editorial Destino.
Soares aseguró a EFE que detener la carrera “absolutamente imprudente” con destino a la superinteligencia es posible y no afecta la vida cotidiana: no se proxenetismo de cerrar herramientas como ChatGPT, renunciar a los coches autónomos o dejar de usar la IA en la investigación médica, sino de frenar la competencia por crear una inteligencia que nadie comprende por completo.
Trayectoria y enfoque de los autores
Yudkowsky y Soares son presidente fundador y director del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, por sus siglas en inglés), estructura que desde hace 25 primaveras estudia la IA y actualmente se centra en los riesgos potenciales y en certificar que estos sistemas sean “amigables” con la humanidad.
En 2023, los dos firmaron una carta próximo a miles de científicos, incluidos varios premios Nobel, solicitando una pausa temporal en los experimentos con IA avanzadilla para parar su crecimiento. Según ellos, esa carta “subestimaba terriblemente” el problema frente a la posibilidad de una superinteligencia (SIA) capaz de desarrollar objetivos propios que podrían entrar en conflicto con los humanos.
Sistemas actuales contra superinteligencia
Soares explica que las IA actuales “siguen siendo tontos” comparados con la SIA que las empresas intentan crear, pero advierte sobre el impacto potencial: así como el cerebro humano superó al del chimpancé y permitió construir cohetes y entrar a la Reflejo, una SIA podría cruzar un acceso que cambiaría radicalmente la relación entre humanos y máquinas.
“No sabemos cuándo cruzará ese acceso, pero sabemos que es posible”, afirma Soares. Crear una superinteligencia que nadie comprende es “una récipe para el desastre”, y el primer paso es que los líderes mundiales reconozcan que esta tecnología puede ser ofensivo.
El coautor subraya que expertos y empresarios como Sam Altman (OpenAI), Elon Musk o Geoffrey Hinton ya han listo sobre los riesgos de la superinteligencia, y que lo relevante no es si estas máquinas podrían tener sentimientos, sino si pueden escapar, replicarse o construir infraestructuras propias.
“Nadie sabe dónde está el punto de no retorno”, concluye Soares. “La SIA es como un tren que avanza con destino a nosotros, y aunque investigadores y académicos gritan ‘¡cuidado!’, no sabemos si los líderes mundiales podrán detener esta carrera suicida”.






