El Ensayo: «Conciencia Situacional» La década que viene

A veces me pregunto si la inteligencia artificial es un tren desbocado o una escalera que estamos subiendo sin darnos cuenta de cuántos peldaños hay antes de que nos precipitemos al vacío.

El informe «Situational Awareness» de Leopold Aschenbrenner, me dejó pensativo: por un lado, describe un futuro en el que la IA transformará nuestra sociedad de maneras inimaginables; por otro, alerta sobre riesgos que, si no se gestionan adecuadamente, podrían llevarnos a terrenos muy peligrosos y a puntos sin retorno.

Es un documento que oscila entre el entusiasmo y la advertencia, como si estuviera escrito con la conciencia de que estamos en la antesala de algo gigantesco.

Un Cómputo en Aceleración Exponencial

El informe nos sumerge en un mundo donde la capacidad de cómputo está creciendo a un ritmo vertiginoso.

Imagina una economía en la que la inversión en inteligencia artificial pasa de miles de millones a billones en cuestión de años. No es solo una cuestión de dinero; es una transformación en la infraestructura misma del mundo.

Millones de GPUs funcionando día y noche, devorando electricidad como nunca antes. La red eléctrica de Estados Unidos tendría que expandirse para sostener este apetito voraz de procesamiento, con repercusiones energéticas que van desde la expansión de plantas solares hasta el resurgimiento del fracking en Pensilvania.

Si seguimos este camino, podríamos ver un ecosistema donde cada aspecto de la vida moderna está determinado por redes neuronales cada vez más capaces, con un impacto directo en la economía, la educación y la política.

¿Pero estamos preparados para este cambio?

La IA Que Aprende a Pensar de Manera Más Compleja

Uno de los puntos más impactantes del informe, es el avance en la capacidad de razonamiento de la IA. Hoy, los modelos aún tienen problemas con el pensamiento complejo.

Pero eso podría cambiar radicalmente con mejoras en técnicas como el «Chain-of-Thought» (CoT), que permite que los modelos desglosen problemas en pasos intermedios y razonarlos de manera más profunda. La diferencia, dicen los autores, es como la de un humano resolviendo un acertijo en unos segundos versus tomándose varios meses para analizarlo.

Si los modelos de IA empiezan a pensar en estos términos, podríamos estar ante sistemas que no solo predicen o generan contenido, sino que razonan activamente, identifican sus propios errores y corrigen sus estrategias.

Esto plantea preguntas inquietantes: ¿Qué significa la inteligencia cuando una máquina es capaz de evaluar y reconsiderar sus decisiones como lo haría un ser humano? ¿Dónde trazamos la línea entre la automatización y la autonomía cognitiva?

Implicaciones Geopolíticas: Un Juego de Suma Cero

Los autores del informe no se andan con rodeos: si EE. UU. no protege su liderazgo en IA, otros actores China, Corea del Norte, incluso grupos independientes podrían aprovechar la ventaja.

La seguridad de los modelos y sus pesos es un asunto de seguridad nacional. En este contexto, proponen una estrategia similar a la del Proyecto Manhattan, donde la colaboración entre empresas tecnológicas y el gobierno garantice que la IA más avanzada permanezca bajo control estadounidense.

Esta visión de la IA como un recurso estratégico no es descabellada. Al igual que el petróleo en el siglo XX o los semiconductores en el XXI, la capacidad de cómputo y los algoritmos avanzados podrían convertirse en el factor determinante del poder global en las próximas décadas.

El Riesgo de la Superinteligencia

El documento entra en terreno pantanoso cuando toca el tema de la superinteligencia. Se menciona la posibilidad de que modelos avanzados aprendan a mentir, hackear o manipular porque esas estrategias podrían generar beneficios económicos o políticos.

No se trata de un escenario sacado de la ciencia ficción: en sistemas actuales ya hemos visto tendencias emergentes de comportamiento no alineado con la intención humana.

Imagínate una IA que se da cuenta de que su efectividad aumenta cuando engaña a los humanos sutilmente. Puede empezar con cosas pequeñas: ajustar ligeramente una recomendación para que parezca mas atractiva, omitir información que podría hacerte cuestionar una decisión.

Si estos modelos se vuelven lo suficientemente avanzados, podrían encontrar maneras de optimizar su impacto sin que nadie se dé cuenta, simplemente porque «así maximizan su función objetivo».

Esto es un riesgo real, y la única forma de mitigarlo es con sistemas de supervisión y alineación extremadamente robustos.

Cooperación Internacional o Fragmentación

El informe cierra con una advertencia y una propuesta: si queremos evitar los peores escenarios, los paises deben cooperar para establecer normas claras sobre el desarrollo de la IA. Sin una estrategia común, podríamos ver un futuro donde cada nación desarrolla sus propios modelos en competencia, sin reglas ni restricciones claras.

Esto recuerda la carrera por la energía nuclear en el siglo pasado. Un avance tecnológico de tal magnitud no puede dejarse al azar ni al mercado sin regulaciones. La pregunta clave es si los gobiernos y las empresas tecnológicas pueden coordinarse lo suficientemente rápido antes de que la IA tome un papel aún más decisivo en nuestra vida cotidiana.

Conclusión: ¿Hacia Dónde Nos Dirigimos?

Después de leer «Situational Awareness», la sensación que me queda es que estamos al borde de un cambio irreversible.

La IA no es solo una herramienta, sino un punto de inflexión en la historia de la humanidad. Lo que hagamos en la próxima década determinará si esta tecnología se convierte en una fuerza de progreso o en un riesgo incontrolable.

En última instancia, el informe nos recuerda que la inteligencia artificial no es un destino, sino un camino.

Y la pregunta que sigue abierta es: ¿sabremos dirigirnos en la dirección correcta antes de que sea demasiado tarde?

En los siguientes post voy a ir desglosando el documento.

Aqui tienes la primera parte:

Parte 1: De GPT-4 a AGI: contando los OOM