Parte 2: De la IAG a la Superinteligencia

Comentario y resumen sobre el texto de Leopold Aschenbrenner que explora la posibilidad de una «explosión de inteligencia» a partir del desarrollo de la Inteligencia Artificial General (AGI).

Se argumenta que una AGI podría automatizar la investigación en IA, llevando a un rápido avance hacia una superinteligencia que superaría con creces las capacidades humanas.

Este progreso exponencial se describe utilizando analogías con la evolución de las armas nucleares, desde la bomba atómica a la bomba de hidrógeno. Se discuten posibles limitaciones a este escenario, como la disponibilidad de recursos computacionales y las complementariedades con la investigación humana, pero se concluye que una rápida transición a la superinteligencia sigue siendo plausible, con consecuencias potencialmente transformadoras para la ciencia, la tecnología, la economía y la geopolítica.

El texto enfatiza la urgencia de prepararse para las implicaciones de este posible futuro.

La Explosión de Inteligencia

El texto postula que una vez que alcancemos la AGI, el progreso no se detendrá. La automatización de la investigación en IA podría llevar rápidamente a sistemas de IA muy superiores a los humanos. Esto se describe como una «explosión de inteligencia».

Automatización de la Investigación en IA

La tarea de un investigador de IA (leer, experimentar, interpretar, repetir) es altamente susceptible de ser automatizada.

Aceleración del Progreso Algorítmico

La automatización de la investigación en IA podría acelerar el progreso algorítmico de manera exponencial. Millones de investigadores de IA automatizados, trabajando a velocidades sobrehumanas, podrían comprimir décadas de progreso en un solo año.

Comparación con la Bomba atómica y la bomba de hidrógeno

El texto establece una analogía con el desarrollo de armas nucleares: así como la bomba de hidrógeno multiplicó dramáticamente la potencia destructiva de la bomba atómica, la superinteligencia multiplicará el impacto de la AGI.

El Poder de la Superinteligencia

Se describe la superinteligencia como un poder que podría transformar la sociedad en varios ámbitos, desde la investigación científica hasta la economía y la guerra.

Cuellos de Botella Posibles

El texto reconoce posibles limitaciones como la disponibilidad de capacidad de computación, complementariedad con humanos, límites inherentes al progreso algorítmico y la dificultad de encontrar nuevas ideas. Sin embargo, argumenta que ninguno de estos obstáculos es suficiente para detener completamente la explosión de inteligencia.

Robótica

El texto argumenta que los robots no serán un obstáculo importante. Considera que la robótica es principalmente un problema de algoritmos de aprendizaje automático, que la superinteligencia puede resolver fácilmente.

Un Momento de Transformación

El documento plantea que el período de la explosión de inteligencia y la post-superinteligencia será extremadamente volátil, tenso y peligroso.

Ideas Clave y Hechos Importantes

  • Aceleración Exponencial: Se espera que el progreso algorítmico, una vez automatizado, se acelere dramáticamente, pasando de ~0.5 OOMs/año a 5+ OOMs/año.

  • Millones de Investigadores de IA Automatizados: Se anticipa la capacidad de ejecutar millones de copias de investigadores de IA automatizados, posiblemente a velocidades 100 veces superiores a las de los humanos.

  • Ventajas Sobrehumanas: Los investigadores de IA automatizados tendrían ventajas sobrehumanas, como la capacidad de leer todos los trabajos de ML, aprender de cada experimento, trabajar sin descanso y coordinar de manera eficiente.

  • El Cuello de Botella de la Computación: La limitación de la potencia de cálculo para los experimentos es vista como el obstáculo más significativo, aunque se argumenta que la IA puede utilizar la computación de manera más eficiente.

  • Transformación en Múltiples Dominios: La superinteligencia tendría un impacto en la ciencia, la tecnología, la economía y la guerra, entre otros.

  • Importancia de la Secuencia: Se resalta que la automatización de la investigación en IA puede ocurrir antes que otros riesgos relacionados con la IA, como el desarrollo de armas biológicas.

El texto pinta un panorama de una rápida e inminente transformación a través de la explosión de inteligencia, presentando tanto el potencial de enormes avances como de riesgos significativos. La analogía con la bomba atómica y la bomba de hidrógeno, así como la urgencia en confrontar la posibilidad de esta «cadena de reacciones», enfatiza la importancia de prepararse para un futuro dominado por la superinteligencia.

Parte 3: La carrera hacia el cluster de billones de dólares