Tue. Dec 30th, 2025

Hace más de tres años, este editor se reunió con Sam Altman para un pequeño evento en San Francisco poco después de que dejara su cargo como presidente de Y Combinator para convertirse en director ejecutivo de la compañía de inteligencia artificial que cofundó en 2015 con Elon Musk. y otros, OpenAI. En ese momento, Altman describió el potencial de OpenAI en un lenguaje que sonaba extravagante. Altman dijo, por ejemplo, que la oportunidad con la inteligencia artificial general (inteligencia de máquina que puede resolver problemas tan bien como un ser humano) es tan incomprensiblemente enorme que si OpenAI lograra descifrarla, el equipo podría “tal vez capturar el cono de luz de todos los futuros”. valor en el universo.” Dijo que la compañía “va a tener que no publicar investigaciones” porque es muy poderosa. Cuando se le preguntó si OpenAI era culpable de infundir miedo, Elon Musk, cofundador del equipo, ha pedido repetidamente a todas las organizaciones que desarrollan IA que sean regulado — Altman habló sobre los peligros de no pensar en las “consecuencias sociales” cuando “estás construyendo algo en una curva exponencial”. La audiencia se rió en varios puntos de la conversación, sin saber qué tan en serio tomar a Altman. Sin embargo, ahora nadie se ríe. Si bien las máquinas aún no son tan inteligentes como las personas, parte de la tecnología que OpenAI ha lanzado al mundo desde entonces se acerca lo suficiente como para que algunos críticos teman que podría ser nuestra perdición. De hecho, el modelo ChatGPT que OpenAI lanzó al público en general la semana pasada es tan capaz de responder preguntas como una persona que los profesionales de una variedad de industrias están luchando para procesar las implicaciones. Los educadores, por ejemplo, se preguntan cómo podrán distinguir la escritura original de los ensayos generados algorítmicamente que están obligados a recibir, y eso puede evadir el software antiplagio. Paul Kedrosky no es un educador per se. Es un economista, capitalista de riesgo y miembro del MIT que se llama a sí mismo un “normal frustrado con una inclinación por pensar en los riesgos y las consecuencias no deseadas en los sistemas complejos”. Pero él está entre aquellos que de repente están muy preocupados por nuestro futuro colectivo, tuiteando el dia de ayer: “[S]lástima de OpenAI por lanzar esta bomba nuclear de bolsillo sin restricciones en una sociedad que no estaba preparada”. Escribió Kedrosky: “Obviamente siento que ChatGPT (y los de su tipo) deberían retirarse de inmediato. Y, si alguna vez se vuelve a introducir, solo con estrictas restricciones”. Hablamos con él ayer sobre algunas de sus preocupaciones y por qué cree que OpenAI está impulsando lo que él cree que es el “cambio más disruptivo que la economía de EE. UU. ha visto en 100 años”, y no en el buen sentido. Nuestro chat ha sido editado por su extensión y claridad.
TC: ChatGPT salió el miércoles pasado. ¿Qué provocó su reacción en Twitter?
PK: He jugado con estas interfaces de usuario conversacionales y servicios de inteligencia artificial en el pasado y esto obviamente es un gran salto más allá. Y lo que me preocupó aquí en particular es la brutalidad casual de la misma, con consecuencias masivas para una serie de actividades diferentes. No son solo los más obvios, como la escritura de ensayos de la escuela secundaria, sino en casi cualquier dominio donde hay una gramática: [meaning] una forma organizada de expresarse. Eso podría ser ingeniería de software, ensayos de secundaria, documentos legales. Todos ellos son fácilmente comidos por esta bestia voraz y escupidos de nuevo sin compensación a lo que sea que se haya usado para entrenarlo.
[ was heard a story from a colleague at UCLA who told me they have no idea what to do with essays at the end of the current term, where they’re getting hundreds per course and thousands per department, because they have no idea anymore what’s fake and what’s not. So to do this so casually — as someone said to me earlier today — is reminiscent of the so-called [ethical] hacker de sombrero blanco que encuentra un error en un producto ampliamente utilizado, luego informa al desarrollador antes de que el público en general lo sepa para que el desarrollador pueda parchear su producto y no tengamos una devastación masiva y las redes eléctricas se caigan. Esto es lo contrario, donde un virus ha sido liberado en la naturaleza sin preocuparse por las consecuencias.
Se siente como si pudiera comerse el mundo.
Algunos podrían decir: ‘Bueno, ¿se sintió de la misma manera cuando llegó la automatización a las plantas automotrices y los trabajadores automotrices se quedaron sin trabajo? Porque este es un tipo de fenómeno más amplio. Pero esto es muy diferente. Estas tecnologías de aprendizaje específicas son autocatalizadoras; están aprendiendo de las solicitudes. Entonces, los robots en una planta de fabricación, aunque disruptivos y crearon consecuencias económicas increíbles para las personas que trabajan allí, no se dieron la vuelta y comenzaron a absorber todo lo que pasaba dentro de la fábrica, moviéndose sector por sector, mientras que eso no es exactamente lo que podemos esperar. pero lo que debe esperar.
Musk dejó OpenAI parcialmente desacuerdos sobre el desarrollo de la empresa, dijo en 2019, y lleva mucho tiempo hablando de la IA como una amenaza existencial. Pero la gente se quejó de que no sabía de lo que estaba hablando. Ahora nos enfrentamos a esta poderosa tecnología y no está claro quién interviene para abordarla.
Creo que va a comenzar en un montón de lugares a la vez, la mayoría de los cuales se verán muy torpes, y la gente [then] burlarse porque eso es lo que hacen los tecnólogos. Pero lástima, porque nos hemos metido en esto al crear algo con tanta consecuencia. Entonces, de la misma manera que la FTC exigió que las personas que publicaran blogs hace años [make clear they] tener enlaces de afiliados y ganar dinero con ellos, creo que a un nivel trivial, las personas se verán obligadas a revelar que ‘No escribimos nada de esto. Todo esto es generado por una máquina. También creo que veremos nueva energía en la demanda en curso contra Microsoft y OpenAI por infracción de derechos de autor en el contexto de nuestros algoritmos de aprendizaje automático en formación. Creo que va a haber un problema más amplio de DMCA aquí con respecto a este servicio. Y creo que existe el potencial para una [massive] demanda y acuerdo eventualmente con respecto a las consecuencias de los servicios, que, como saben, probablemente tomará demasiado tiempo y no ayudará a suficientes personas, pero no veo cómo no terminamos en [this place] con respecto a estas tecnologías.
¿Cuál es el pensamiento en el MIT?
Andy McAfee y su grupo son más optimistas y tienen una visión más ortodoxa de que cada vez que vemos una interrupción, se crean otras oportunidades, las personas son móviles, se mueven de un lugar a otro y de una ocupación a otra, y no deberíamos No seamos tan tacaños que pensemos que esta evolución particular de la tecnología es aquella en torno a la cual no podemos mutar y migrar. Y creo que eso es en general cierto. Pero la lección de los últimos cinco años en particular ha sido que estos cambios pueden llevar mucho tiempo. El libre comercio, por ejemplo, es una de esas experiencias increíblemente perturbadoras para toda la economía, y todos nos dijimos a nosotros mismos como economistas que observamos esto que la economía se adaptará y la gente en general se beneficiará de precios más bajos. Lo que nadie anticipó fue que alguien organizaría a toda la gente enojada y elegiría a Donald Trump. Así que existe la idea de que podemos anticipar y predecir cuáles serán las consecuencias, pero [we can’t].
Usted habló sobre la redacción de ensayos para la escuela secundaria y la universidad. Uno de nuestros hijos ya ha preguntado, ¡teóricamente! — si sería plagio usar ChatGPT para escribir un artículo.
El propósito de escribir un ensayo es demostrar que puedes pensar, por lo que esto hace un cortocircuito en el proceso y anula el propósito. Nuevamente, en términos de consecuencias y externalidades, si no podemos dejar que las personas tengan deberes porque ya no sabemos si están copiando o no, eso significa que todo tiene que suceder en el salón de clases y debe ser supervisado. No puede haber nada que nos llevemos a casa. Se deben hacer más cosas por vía oral, y ¿qué significa eso? Significa que la escuela se volvió mucho más cara, mucho más artesanal, mucho más pequeña y en el momento exacto en que estamos tratando de hacer lo contrario. Las consecuencias para la educación superior son devastadoras en cuanto a la prestación real de un servicio.
¿Qué opina de la idea de una renta básica universal o de permitir que todos participen de los beneficios de la IA?
Soy un defensor mucho menos fuerte de lo que era antes de COVID. La razón es que COVID, en cierto sentido, fue un experimento con un ingreso básico universal. Le pagamos a la gente para que se quedara en casa y se les ocurrió QAnon. Así que estoy muy nervioso por lo que sucede cuando las personas no tienen que subirse a un auto, conducir a algún lado, hacer un trabajo que odian y volver a casa otra vez, porque el diablo encuentra trabajo para las manos ociosas, y habrá mucho de manos ociosas y mucha diablura.

By Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.