Parte 1: De GPT-4 a la IAG
Continuo en este post con comentarios sobre la sección From GPT-4 to AGI: Counting the OOMs de Leopold Aschenbrenner en su web https://situational-awareness.ai/
El texto predice la llegada de una Inteligencia Artificial General (AGI) para 2027, basándose en el rápido progreso de modelos de lenguaje como GPT. Este progreso se analiza a través de tres factores: el aumento de la potencia de cálculo, las mejoras algorítmicas y la eliminación de limitaciones en los modelos. Se proyecta un crecimiento exponencial en la capacidad de estas IA, pasando de capacidades similares a las de un estudiante de secundaria a las de un experto, incluso automatizando la investigación en IA. Finalmente, se discute la incertidumbre sobre la disponibilidad de datos y la posibilidad de que el progreso se estanque.
Según el análisis que he revisado, el desarrollo de la AGI para 2027 no solo es plausible, sino que podría estar más cerca de lo que muchos creen. Este análisis se basa en tres áreas clave: la capacidad de cómputo, la eficiencia algorítmica y las «desataduras» que hacen que los modelos actuales de IA sean más útiles. Sin embargo, como cualquier avance tecnológico, la AGI no está exenta de riesgos. En este artículo, profundizaré en cómo estos avances pueden transformar nuestras vidas, pero también en los peligros que podrían surgir.
Extrapolando el futuro: OOMs y la AGI
El concepto de «OOMs» (órdenes de magnitud) es esencial para entender cómo estamos progresando hacia la AGI. Un OOM es un aumento de diez veces en capacidad de cómputo, algo que se está logrando año tras año. A medida que contamos estos OOMs en áreas como la eficiencia algorítmica y el poder de procesamiento, se hace evidente que estamos alcanzando puntos de inflexión significativos. Si mantenemos este ritmo, podríamos estar frente a un salto cualitativo similar al que vimos entre los modelos GPT-2 y GPT-4. Para 2027, no es difícil imaginar que los modelos de IA podrían alcanzar el nivel de un investigador o ingeniero humano.
Pero, aquí surge un problema: los avances en la capacidad de cómputo y la eficiencia algorítmica no están exentos de incertidumbre. No es un camino recto. Aunque los expertos estiman que la AGI podría ser una realidad en esta década, no está claro si la progresión tecnológica realmente se mantendrá al ritmo esperado. Si se desacelera, las implicaciones de la AGI podrían ser diferentes a las previstas, con riesgos inesperados.
El salto cualitativo: ¿GPT-4 al nivel humano?
Para entender cómo una AGI podría asemejarse a la inteligencia humana, es útil comparar los modelos de IA que ya conocemos. GPT-2, por ejemplo, se parecía a un niño de preescolar, con capacidades limitadas en términos de comprensión y generación de lenguaje. Con GPT-3, las cosas mejoraron: los modelos empezaron a realizar tareas más complejas, como corregir gramática y resolver aritmética básica, acercándose a un niño de primaria. GPT-4, por otro lado, es un paso más allá: puede razonarse sobre temas complejos, escribir código sofisticado y aprobar exámenes universitarios.
Sin embargo, lo que estamos mirando ahora es un escenario en el que esta progresión no solo mejora la capacidad de comprensión y generación, sino que también puede permitir que estas máquinas se conviertan en «agentes de trabajo» autónomos. Esta transición podría tener un impacto drástico en el mercado laboral, y no necesariamente de una manera positiva. Si la AGI se convierte en una herramienta tan avanzada, podría reemplazar a los humanos en muchas áreas profesionales, lo que genera una preocupación por la automatización masiva y la falta de empleos.
Los «desatamientos» de la AGI: ¿Un control más grande?
Las «desataduras» (unhobbling) son un componente crucial en el desarrollo de la AGI. Estos son ajustes que permiten desbloquear el potencial de los modelos de IA, haciéndolos más útiles y versátiles. Técnicas como el aprendizaje por refuerzo a partir de retroalimentación humana (RLHF) o el razonamiento en cadena (CoT) ayudan a que los modelos realicen tareas más complejas, como tomar decisiones autónomas y aplicar herramientas en contextos más elaborados.
Pero aquí también surgen riesgos. La AGI podría volverse capaz de tomar decisiones por sí misma, sin intervención humana. Este tipo de autonomía plantea un dilema ético y de seguridad. Si una máquina es capaz de razonar y tomar decisiones en tiempo real, ¿quién es responsable de sus acciones? ¿Cómo podemos garantizar que no tome decisiones que perjudiquen a la humanidad, ya sea por error o por un mal diseño? Aquí, los riesgos de descontrol o manipulación de estas máquinas se vuelven graves, y las implicaciones de permitir que un sistema inteligente actúe sin frenos podrían ser catastróficas.
El «muro de datos» y sus implicaciones
Uno de los principales obstáculos en el camino hacia la AGI es lo que se conoce como el «muro de datos». Los modelos de IA actuales aprenden de la información disponible en Internet, pero esta información tiene límites. Las empresas están trabajando en formas de superar esta limitación mediante la creación de datos sintéticos o el autoaprendizaje, pero estos métodos aún están en sus etapas iniciales.
El problema de los datos finitos podría no solo afectar la capacidad de los modelos para aprender, sino también influir en los sesgos que podrían incorporar. Si las IA solo aprenden de una cantidad limitada de datos o de datos de baja calidad, sus decisiones podrían estar sesgadas o mal informadas. Esto añade un riesgo significativo de que las máquinas no solo repliquen prejuicios humanos, sino que incluso los amplifiquen, afectando sectores como la justicia, la política y la atención médica.
Los riesgos son tan grandes como las recompensas
Si bien la AGI tiene el potencial de transformar profundamente la tecnología, la ciencia y la sociedad, los riesgos asociados con su desarrollo no deben subestimarse. A medida que nos acercamos a 2027, el avance de la IA podría mejorar nuestras vidas de maneras impresionantes, pero también nos enfrenta a un futuro incierto donde las máquinas podrían actuar de manera impredecible y autónoma.
El desarrollo de la AGI no es solo un desafío técnico, sino también ético. Necesitamos cuestionarnos cómo manejaremos esta tecnología, qué controles implementaremos y cómo podemos garantizar que no caigamos en los riesgos de la automatización incontrolada. Mientras que la IA avanzada podría ser una herramienta poderosa para la humanidad, si no se gestionan correctamente estos avances, los riesgos podrían superar las recompensas.
Parte 2: De la inteligencia artificial general a la superinteligencia