
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
El horizonte distante es siempre turbio, los detalles minuciosos oscurecidos por la distancia y la neblina atmosférica. Es por eso que pronosticar el futuro es tan impreciso: no podemos ver claramente los contornos de las formas y eventos por delante de nosotros. En cambio, tomamos conjeturas educadas.
El recién publicado AI 2027 El ambiente, desarrollado por un equipo de investigadores de IA y pronosticadores con experiencia en instituciones como OpenAI y el Centro de Política de AI, ofrece un pronóstico detallado de 2 a 3 primaveras para el futuro que incluye hitos técnicos específicos. Al estar a corto plazo, acento con gran claridad sobre nuestro futuro cercano de IA.
Informado por los extensos ejercicios de comentarios y planificación de escenarios de expertos, AI 2027 describe una progresión de un cuarto de trimestre de capacidades de IA anticipadas, especialmente modelos multimodales que logran razonamiento reformista y autonomía. Lo que hace que este pronóstico sea particularmente importante es tanto su especificidad como la credibilidad de sus contribuyentes, que tienen una visión directa de las tuberías de investigación actuales.
La predicción más importante es que la inteligencia universal químico (AGI) se logrará en 2027, y la superinteligencia químico (ASI) seguirá meses a posteriori. AGI coincide o excede las capacidades humanas en prácticamente todas las tareas cognitivas, desde la investigación científica hasta los esfuerzos creativos, al tiempo que demuestra adaptabilidad, razonamiento de sentido popular y superación personal. ASI va más allá, representando sistemas que superan dramáticamente la inteligencia humana, con la capacidad de resolver problemas que ni siquiera podemos comprender.
Al igual que muchas predicciones, estos se basan en suposiciones, entre las cuales los modelos y aplicaciones de IA continuarán progresando exponencialmente, como lo han hecho durante los últimos primaveras. Como tal, es plausible, pero no se garantiza que espere un progreso exponencial, especialmente porque la escalera de estos modelos ahora puede estar alcanzando rendimientos decrecientes.
No todos están de acuerdo con estas predicciones. Ali Farhadi, CEO del Instituto Allen de Inteligencia Sintético, dijo The New York Times: “Estoy a ayuda de las proyecciones y pronósticos, pero este pronóstico (IA 2027) no parece estar basado en la evidencia científica, o la efectividad de cómo están evolucionando las cosas en la IA”.
Sin retención, hay otros que ven esta proceso como plausible. El cofundador antrópico Jack Clark escribió en su Importa que tienes Newsletter que AI 2027 es: “El mejor tratamiento hasta ahora de cómo podría ser ‘existir en un exponencial'”. Agregó que es un “Técnicamente novelística astuta de los próximos primaveras de incremento de IA “. Esta confín de tiempo incluso se alinea con la propuesta por el CEO Anthrope Dario Amodei, quien ha dicho que la IA que puede exceder a los humanos en casi todo llegará en los próximos dos o tres primaveras. Un nuevo trabajo de investigación Ese agi podría resistir plausiblemente para 2030.
La gran precipitación: interrupción sin precedentes
Esto parece un momento auspicioso. Ha habido momentos similares como este en la historia, incluida la invención de la imprenta o la propagación de la electricidad. Sin retención, esos avances requirieron muchos primaveras y décadas para tener un impacto significativo.
La aparición de AGI se siente diferente y potencialmente aterradora, especialmente si es inminente. AI 2027 describe un ambiente que, correcto a la desalineación con los títulos humanos, la IA superinteligente destruye la humanidad. Si tienen razón, el peligro más constante para la humanidad ahora puede estar internamente del mismo horizonte de planificación que su próxima puesta al día de teléfonos inteligentes. Por su parte, el documento de Google DeepMind señala que la acabamiento humana es un posible resultado de AGI, aunque poco probable en su opinión.
Las opiniones cambian lentamente hasta que a las personas se les presente con evidencia abrumadora. Esta es una comida para aceptar de la obra singular de Thomas Kuhn “La estructura de las revoluciones científicas. ” Kuhn nos recuerda que las cosmovisiones no cambian de la oscuridad a la mañana, hasta que, de repente, lo hacen.
El futuro se acerca
Ayer de la aparición de modelos de idiomas grandes (LLM) y ChatGPT, la proyección de la confín de tiempo media para AGI era mucho más larga de lo que es hoy. El consenso entre los expertos y los mercados de predicción colocó la mediana de la aparición esperada de AGI en torno a del año 2058. Ayer de 2023, Geoffrey Hinton, uno de los “Padrinos de la IA” y un triunfador del premio Turing – pensamiento agi fue “30 a 50 primaveras o incluso más allí”. Sin retención, el progreso mostrado por LLMS lo llevó a cambiar de opinión y lo dijo podría resistir tan pronto como 2028.

Existen numerosas implicaciones para la humanidad si AGI llega en los próximos primaveras y ASI sigue rápidamente. Escribir en FortunaJeremy Kahn dijo que si AGI llega en los próximos primaveras “de hecho podría conducir a grandes pérdidas de empleos, ya que muchas organizaciones estarían tentadas a automatizar los roles”.
Una pista AGI de dos primaveras ofrece un período de disposición insuficiente para que las personas y las empresas se adapten. Las industrias como el servicio al cliente, la creación de contenido, la programación y el exploración de datos podrían desavenir una agitación dramática antiguamente de que la infraestructura de reentrenamiento pueda medrar. Esta presión solo se intensificará si se produce una recesión en este plazo, cuando las empresas ya buscan dominar los costos de la sueldo y, a menudo, suplantar al personal con automatización.
Cogito, Ergo … oh?
Incluso si AGI no conduce a una extensa pérdida de empleos o acabamiento de especies, hay otras ramificaciones graves. Desde la era de la razón, la existencia humana se ha basado en la creencia de que importamos porque pensamos.
Esta creencia de que el pensamiento define nuestra existencia tiene profundas raíces filosóficas. Fue René Descartes, escribiendo en 1637, quien articuló la ahora famosa frase: “Je Pense, Donc Je Suis” (“Creo, por lo tanto, yo soy”). Más tarde lo tradujo al latín: “Creo que, por lo tanto, soy. “ Al hacerlo, propuso que se pudiera encontrar certeza en el acto de pensamiento individual. Incluso si fue engañado por sus sentidos, o engañado por otros, el hecho mismo de que estaba pensando demostró que existía.
Desde este punto de panorámica, el yo está anclado en cognición. Era una idea revolucionaria en ese momento y dio extensión al humanismo de la iluminación, el método irrefutable y, en última instancia, la democracia moderna y los derechos individuales. Los humanos como pensadores se convirtieron en las figuras centrales del mundo flamante.
Lo que plantea una pregunta profunda: si las máquinas ahora pueden pensar o parecer pensar, y externalizamos nuestro pensamiento a la IA, ¿qué significa eso para la concepción moderna del yo? A estudio fresco reportado por 404 medios Explora este enigma. Encontró que cuando las personas confían en gran medida en la IA generativa para el trabajo, se involucran en un pensamiento menos crítico que, con el tiempo, puede “dar como resultado el detrimento de las facultades cognitivas que deberían preservarse”.
¿A dónde vamos desde aquí?
Si AGI vendrá en los próximos primaveras, o poco a posteriori, debemos hostilizar rápidamente con sus implicaciones no solo para el trabajo y la seguridad, sino para quienes somos. Y debemos hacerlo al tiempo que reconocemos su extraordinario potencial para acelerar el descubrimiento, dominar el sufrimiento y extender la capacidad humana de modo sin precedentes. Por ejemplo, AmoDei ha dicho que “AI poderosa” permitirá que 100 primaveras de investigación biológica y sus beneficios, incluida la atención médica mejorada, se comprime en 5 a 10 primaveras.
Los pronósticos presentados en AI 2027 pueden o no ser correctos, pero son plausibles y provocativos. Y esa plausibilidad debería ser suficiente. Como humanos con la agencia, y como miembros de empresas, gobiernos y sociedades, debemos ejecutar ahora para prepararnos para lo que puede venir.
Para las empresas, esto significa trastornar tanto en la investigación técnica de seguridad de la IA y la resiliencia organizacional, creando roles que integran las capacidades de IA al tiempo que amplifican las fortalezas humanas. Para los gobiernos, requiere el incremento acelerado de marcos regulatorios que aborden las preocupaciones inmediatas como la evaluación del maniquí y los riesgos existenciales a amplio plazo. Para las personas, significa adoptar el enseñanza continuo centrado en habilidades humanas únicas, incluida la creatividad, la inteligencia emocional y el litigio complicado, al tiempo que desarrolla relaciones de trabajo saludables con herramientas de IA que no disminuyen nuestra agencia.
Ha pasado el tiempo para el debate inconcreto sobre futuros distantes; Se necesita urgentemente la preparación de concreto para la transformación a corto plazo. Nuestro futuro no será escrito solo por algoritmos. Será moldeado por las elecciones que hacemos, y los títulos que defendemos, a partir de hoy.
Gary Grossman es EVP de experiencia tecnológica en Edelman y líder mundial del Centro de Excelencia Edelman AI.