Parte 2: De la IAG a la Superinteligencia
Comentario y resumen sobre el texto de Leopold Aschenbrenner que explora la posibilidad de una «explosión de inteligencia» a partir del desarrollo de la Inteligencia Artificial General (AGI).
Se argumenta que una AGI podría automatizar la investigación en IA, llevando a un rápido avance hacia una superinteligencia que superaría con creces las capacidades humanas.
Este progreso exponencial se describe utilizando analogías con la evolución de las armas nucleares, desde la bomba atómica a la bomba de hidrógeno. Se discuten posibles limitaciones a este escenario, como la disponibilidad de recursos computacionales y las complementariedades con la investigación humana, pero se concluye que una rápida transición a la superinteligencia sigue siendo plausible, con consecuencias potencialmente transformadoras para la ciencia, la tecnología, la economía y la geopolítica.
El texto enfatiza la urgencia de prepararse para las implicaciones de este posible futuro.
La Explosión de Inteligencia
El texto postula que una vez que alcancemos la AGI, el progreso no se detendrá. La automatización de la investigación en IA podría llevar rápidamente a sistemas de IA muy superiores a los humanos. Esto se describe como una «explosión de inteligencia».
«Una vez que tengamos AGI, daremos un giro más, o dos o tres más, y los sistemas de IA se volverán sobrehumanos, vastamente sobrehumanos.»
Automatización de la Investigación en IA
La tarea de un investigador de IA (leer, experimentar, interpretar, repetir) es altamente susceptible de ser automatizada.
«No necesitamos robótica, no necesitamos muchas cosas, para que la IA automatice la investigación en IA.»
Aceleración del Progreso Algorítmico
La automatización de la investigación en IA podría acelerar el progreso algorítmico de manera exponencial. Millones de investigadores de IA automatizados, trabajando a velocidades sobrehumanas, podrían comprimir décadas de progreso en un solo año.
«La investigación automatizada en IA podría acelerar el progreso algorítmico,
llevando a 5+ OOMs de ganancias computacionales efectivas en un año.»
Comparación con la Bomba atómica y la bomba de hidrógeno
El texto establece una analogía con el desarrollo de armas nucleares: así como la bomba de hidrógeno multiplicó dramáticamente la potencia destructiva de la bomba atómica, la superinteligencia multiplicará el impacto de la AGI.
El Poder de la Superinteligencia
Se describe la superinteligencia como un poder que podría transformar la sociedad en varios ámbitos, desde la investigación científica hasta la economía y la guerra.
«Aplicando la superinteligencia a I+D en otros campos, el progreso explosivo se ampliaría desde solo la investigación de ML; pronto resolverían la robótica, darían saltos dramáticos en otros campos de la ciencia y la tecnología en años, y seguiría una explosión industrial.»
Cuellos de Botella Posibles
El texto reconoce posibles limitaciones como la disponibilidad de capacidad de computación, complementariedad con humanos, límites inherentes al progreso algorítmico y la dificultad de encontrar nuevas ideas. Sin embargo, argumenta que ninguno de estos obstáculos es suficiente para detener completamente la explosión de inteligencia.
«Hay varios cuellos de botella plausibles, incluyendo computación limitada para experimentos, complementariedades con humanos, y el progreso algorítmico volviéndose más difícil, que abordaré, pero ninguno parece suficiente para desacelerar las cosas de forma definitiva.»
Robótica
El texto argumenta que los robots no serán un obstáculo importante. Considera que la robótica es principalmente un problema de algoritmos de aprendizaje automático, que la superinteligencia puede resolver fácilmente.
«Cada vez está más claro que los robots son un problema de algoritmos de ML.«
Un Momento de Transformación
El documento plantea que el período de la explosión de inteligencia y la post-superinteligencia será extremadamente volátil, tenso y peligroso.
«La explosión de inteligencia y el período inmediato posterior a la superinteligencia serán uno de los períodos más volátiles, tensos, peligrosos y salvajes de la historia humana.»
Ideas Clave y Hechos Importantes
- Aceleración Exponencial: Se espera que el progreso algorítmico, una vez automatizado, se acelere dramáticamente, pasando de ~0.5 OOMs/año a 5+ OOMs/año.
- Millones de Investigadores de IA Automatizados: Se anticipa la capacidad de ejecutar millones de copias de investigadores de IA automatizados, posiblemente a velocidades 100 veces superiores a las de los humanos.
- Ventajas Sobrehumanas: Los investigadores de IA automatizados tendrían ventajas sobrehumanas, como la capacidad de leer todos los trabajos de ML, aprender de cada experimento, trabajar sin descanso y coordinar de manera eficiente.
- El Cuello de Botella de la Computación: La limitación de la potencia de cálculo para los experimentos es vista como el obstáculo más significativo, aunque se argumenta que la IA puede utilizar la computación de manera más eficiente.
- Transformación en Múltiples Dominios: La superinteligencia tendría un impacto en la ciencia, la tecnología, la economía y la guerra, entre otros.
- Importancia de la Secuencia: Se resalta que la automatización de la investigación en IA puede ocurrir antes que otros riesgos relacionados con la IA, como el desarrollo de armas biológicas.
El texto pinta un panorama de una rápida e inminente transformación a través de la explosión de inteligencia, presentando tanto el potencial de enormes avances como de riesgos significativos. La analogía con la bomba atómica y la bomba de hidrógeno, así como la urgencia en confrontar la posibilidad de esta «cadena de reacciones», enfatiza la importancia de prepararse para un futuro dominado por la superinteligencia.