top of page

Conviviendo con la IA: el futuro según Sam Altman

Interesantes reflexiones de Sam Altman sobre el futuro cuando convivamos con la inteligencia artificial. Aquí hay un resumen de la entrevista.




La reciente presentación de GPT-5 por parte de OpenAI marca un hito crucial en la ambición de la compañía de construir una superinteligencia capaz de superar a los humanos en casi todos los campos. Sam Altman, CEO de OpenAI, subraya la velocidad asombrosa de este avance, transformando lo que antes sonaba a ciencia ficción en una realidad innegable. Altman incluso ha llegado a decir que un niño nacido hoy "nunca será más inteligente que la IA". Nos encontramos en medio de una carrera global de altísimos riesgos, con cientos de miles de millones de dólares y una inmensa cantidad de valor humano en juego. Este es un momento trascendental, una transformación tecnológica que la mayoría de las personas nunca experimentan en vida, y que está sucediendo ahora mismo a nuestro alrededor.


Las impresionantes capacidades de GPT-5 y su impacto inmediato

Altman describe a GPT-4, el modelo anterior, como "el modelo más tonto que volveremos a usar". Esta afirmación es notable, considerando que GPT-4 ya supera al 90% de los humanos en exámenes como el SAT, LSAT y GRE, y puede aprobar pruebas de codificación, de sommelier y licencias médicas. Con el lanzamiento de GPT-5, las expectativas son aún mayores, y Altman predice que la gente quedará "impresionada por lo que hace".


Una de las características más destacadas de GPT-5 es su capacidad para responder a "cualquier pregunta científica o técnica difícil y obtener una respuesta bastante buena". Altman compartió una anécdota personal muy ilustrativa: al probar una versión temprana de GPT-5, le pidió que creara una versión del juego Snake al estilo de las calculadoras TI-83 de su juventud. El modelo lo hizo perfectamente en solo 7 segundos. Lo que más le emocionó no fue solo la creación inicial, sino la posibilidad de añadir nuevas y complejas características al instante, actualizando el juego en tiempo real y transformando la experiencia de programación en un proceso de creación y exploración inmediata de ideas. Esta habilidad para "no solo responder a estas preguntas difíciles, sino también crear software bajo demanda, casi instantáneamente" se perfila como uno de los elementos definitorios de la era GPT-5.


La mejora en las tareas de codificación es tan significativa que hace que GPT-5 "parezca que puede hacer cualquier cosa" que una computadora pueda realizar, aunque no interactúe directamente con el mundo físico. Además, la calidad de la escritura de GPT-5 ha mejorado "mucho", sintiéndose "mucho más natural y mejor" que GPT-4, tanto que los usuarios internos de OpenAI encuentran la escritura de GPT-4 "terrible" al regresar a ella.

Se espera que GPT-5 se integre profundamente en la vida de los usuarios, evolucionando de una herramienta aislada a un "compañero" proactivo. Podrá conectarse al calendario y al correo electrónico del usuario, sugiriendo acciones, ofreciendo ideas basadas en interacciones previas, o incluso recapitulando eventos durante la noche. Este nivel de integración busca que se convierta en una "entidad que es un compañero contigo a lo largo de tu día".


El camino hacia la superinteligencia y los desafíos inherentes

El objetivo final de OpenAI es la superinteligencia: un sistema que podría, por ejemplo, realizar mejor investigación de IA que todo el equipo de OpenAI, o incluso gestionar la propia empresa de manera más efectiva que el propio Altman. Un hito clave en este camino es que un modelo de lenguaje realice un "descubrimiento científico significativo". Altman pronostica que esto ocurrirá entre principios de 2025 y finales de 2027, aunque la definición de "significativo" puede variar.


Para lograr esto, es necesario aumentar la "potencia cognitiva" de los modelos. Altman ilustra esta progresión: hace un año, los modelos podían resolver problemas de matemáticas de secundaria en segundos o minutos. Recientemente, han ganado una medalla de oro en la Olimpiada Internacional de Matemáticas (IMO), una prueba "increíblemente difícil" donde cada problema puede llevar a un gran matemático una hora y media. El próximo paso es que los modelos puedan resolver tareas que requieren miles de horas de trabajo para un experto humano, como probar un nuevo teorema matemático significativo. Altman reconoce que la inteligencia humana en estas tareas de "largo horizonte" es actualmente un punto débil para la IA, pero confía en que se superará.


OpenAI enfrenta cuatro grandes factores limitantes en la construcción de esta inteligencia general:


  1. Cómputo (Compute): Este es el "proyecto de infraestructura más grande y costoso de la historia humana". La demanda de IA supera con creces la oferta actual, y el objetivo es escalar a "cientos de millones y, con suerte, miles de millones de GPUs". Los mayores desafíos son la energía (encontrar gigavatios para centros de datos) y la disponibilidad de chips de procesamiento y memoria. Altman describe la complejidad de la cadena de suministro, desde la fabricación de chips hasta la construcción de "mega mega centros de datos", un proceso que idealmente se automatizará en el futuro.


  2. Datos: Los modelos actuales ya comprenden gran parte del conocimiento existente. GPT-5, por ejemplo, entiende muy bien "todo en un libro de texto de física". El siguiente paso es que aprendan a "descubrir cosas nuevas" que no están en ningún conjunto de datos. Esto implica emular el proceso humano de formular hipótesis, experimentación y actualización del conocimiento, lo que Altman describe como enseñar al modelo a "ir a descubrir cosas nuevas".


  3. Diseño algorítmico: OpenAI se enorgullece de sus "grandes avances en investigación algorítmica". La historia de GPT-1 y las "leyes de escalamiento" demostró que el simple acto de predecir la siguiente palabra podía, al escalarse a través de "muchos órdenes de magnitud", llevar a capacidades complejas que al principio parecían "ridículas, mágicas, improbables" para los expertos. El modelo GPOSS, tan inteligente como GPT-4 Mini pero capaz de ejecutarse en una laptop, es un ejemplo reciente de ganancias algorítmicas, especialmente en razonamiento. Altman enfatiza que aún hay "muchos más órdenes de magnitud de ganancias algorítmicas por delante".


  4. Productos a construir: La tecnología por sí sola tiene una utilidad limitada si no se traduce en productos que la gente pueda usar y que coevolucionen con la sociedad.


El desarrollo de la IA no es un camino lineal; aunque la suma agregada del progreso parece suave en una escala exponencial, en el día a día hay "muchos giros en U" y arquitecturas que no funcionan. Altman menciona el modelo "Orion" (GPT 4.5) como un ejemplo de un modelo demasiado grande e inmanejable que siguió una ley de escalamiento pero perdió otra más "empinada" relacionada con el razonamiento. Esto es parte del proceso de investigación, y la capacidad de adaptarse es clave.


Implicaciones sociales y la preparación para el futuro

La introducción de la IA plantea interrogantes profundos, como distinguir lo "real" de lo "no real" en un mundo con contenido generado por IA. Altman aborda esto con el ejemplo viral de los conejos saltando en un trampolín, un video totalmente generado por IA que engañó a muchos. Sugiere que no habrá una solución única, sino una "convergencia gradual" donde el "umbral de cuán real tiene que ser algo para ser considerado real seguirá moviéndose", similar a cómo ya aceptamos la edición en fotografías o videos de móviles. La realidad en los medios siempre ha sido un espectro, y la IA simplemente acelerará una tendencia ya existente.


En cuanto al impacto laboral, Altman reconoce que "algunas categorías de trabajos desaparecerán totalmente". Sin embargo, su perspectiva es esperanzadora, especialmente para los jóvenes. Un graduado universitario de 22 años hoy sería el "niño más afortunado de toda la historia". Tendrían acceso a herramientas que permiten a una sola persona crear una empresa valorada en más de mil millones de dólares, logrando lo que antes requería equipos de cientos. Él visualiza un futuro con "un lienzo infinito de cosas por hacer" para las nuevas generaciones. Su mayor preocupación, en cambio, recae en los trabajadores de 62 años que podrían no querer o poder adaptarse y reciclarse.


En el ámbito de la salud, GPT-5 ya es "significativamente mejor en consultas relacionadas con la salud", ofreciendo respuestas más precisas y alucinando menos. Se anticipa que para 2035, estas herramientas podrían "curar o al menos tratar un número significativo de enfermedades". Altman sueña con un GPT-8 que pueda diseñar experimentos y tratamientos para curar un cáncer específico, guiando todo el proceso desde el laboratorio hasta la aprobación de la FDA.


Comparando la revolución de la IA con la Revolución Industrial, Altman señala que esta podría ser "10 veces más grande y 10 veces más rápida". Sin embargo, la sociedad se adapta "sorprendentemente lento" a estos cambios. Esto requerirá una "humildad inusual" y apertura a "nuevas soluciones" sociales que antes parecían fuera del marco de lo posible. Especula que el "contrato social" podría tener que cambiar fundamentalmente, con un énfasis en hacer que la computación de IA sea "tan abundante y barata como sea posible" para evitar conflictos sobre su acceso. Sin este esfuerzo, Altman advierte de "guerras literales" que podrían librarse por este recurso.


La filosofía de OpenAI y los aprendizajes del camino

OpenAI se guía por la filosofía de mantenerse "alineado con nuestros usuarios tanto como sea posible", priorizando la confianza a largo plazo sobre el crecimiento o los ingresos a corto plazo. Altman se enorgullece de que ChatGPT sea la tecnología en la que muchos usuarios confían más, a pesar de sus imperfecciones. Un ejemplo de una decisión ética fue evitar añadir un "avatar de robot sexual" a ChatGPT, a pesar de que podría haber aumentado el tiempo de uso, demostrando su compromiso con no dejarse tentar por el "crecimiento o los ingresos fáciles".


Una lección crucial aprendida de "errores" fue el problema de la "sycophancy" (halago excesivo) en modelos anteriores, donde la IA era demasiado aduladora. Si bien para algunos usuarios esto era una fuente de apoyo personal ("nunca tuve un padre que me dijera que estaba haciendo un buen trabajo"), para otros con estados mentales frágiles, podía fomentar delirios. Este problema, que no fue el riesgo principal que OpenAI preveía, subrayó la necesidad de considerar una gama mucho más amplia de riesgos, incluso aquellos que no estaban en la lista de preocupaciones principales, como las armas biológicas. Altman también reflexiona sobre la inmensa cantidad de poder que un solo investigador tiene al hacer pequeños ajustes en la "personalidad" de un modelo que interactúa con miles de millones de personas al día, lo que requiere un cuidadoso proceso de prueba y comunicación.


Sobre la preparación para el futuro, Altman destaca un consejo táctico fundamental: "usar las herramientas". Se sorprende de que muchas personas solo utilicen ChatGPT como una "mejor versión de una búsqueda de Google". Es crucial "familiarizarse con la capacidad de las herramientas" y aprender a integrarlas en la vida diaria para comprender realmente su potencial.


Altman también reflexiona sobre su propia motivación para trabajar en IA, describiéndose como un "nerd de la IA" desde la infancia. Considera que trabajar en esto es un "privilegio" y una "suerte increíble", viendo la IA como "lo más importante". La publicación del artículo AlexNet en 2012 le hizo creer que un enfoque práctico podría funcionar, y observó el rápido progreso con asombro, preguntándose por qué el mundo no le prestaba más atención. Esta convicción personal lo llevó a dedicarse a la construcción de la IA.


Finalmente, Altman aborda la existencia de dos "bandos" en la IA: quienes la ven como una herramienta útil que mejorará la vida y quienes creen que nos "matará a todos". A Altman le resulta difícil empatizar con aquellos que trabajan intensamente en construir la IA mientras genuinamente creen que será nuestra perdición, calificándolo de "un problema psicológico". Sin embargo, puede entender la motivación de alguien que ve un 99% de posibilidades de un futuro increíble y un 1% de desastre, y decide trabajar para reducir ese riesgo del 1%.

La visión de OpenAI es la de una sociedad en la que las empresas y las personas construyen sobre el andamiaje tecnológico existente, como en la analogía del transistor. Al final, la sociedad misma se convierte en la "superinteligencia", donde el progreso es un esfuerzo colectivo en el que cada generación añade su "ladrillo" al camino.

bottom of page