Centro de Estudios Maximalistas Maximalismo

Cómo la IA cambiará el trabajo y la sociedad a corto plazo

Diez años después de la victoria de AlphaGo sobre Lee Sedol, herramientas de IA capaces de escribir software, automatizar tareas administrativas y crear nuevos productos digitales están cambiando la organización del trabajo, las expectativas de los mercados y la escala necesaria para emprender. Analizamos cómo la IA cambiará el trabajo y la sociedad a corto plazo, desde el auge del «vibe coding» y la automatización del trabajo de oficina hasta sus efectos sobre el capital, la productividad y los riesgos morales y militares en una sociedad cada vez más mediada por la inteligencia artificial.

Cómo la IA cambiará el trabajo y la sociedad a corto plazo
Contenido

Todo empezó hace diez años

Esta semana se cumplieron 10 años de la primera vez que una IA, AlphaGo de Google, ganó por primera vez una partida a un gran jugador profesional de Go, Lee Sedol, campeón del mundo. Fue el resultado de una larga historia latente desde Leibniz en el underground cultural occidental.

Como resultado inmediato de aquel torneo, tanto China como EEUU se dieron cuenta de que habían entrado en una nueva fase de competencia estratégica acelerada... y se pusieron a cambiar las reglas. A mediados de mayo Trump resultó ganador por primera vez de las primarias republicanas en EEUU. El 23 de junio los pro-Brexit ganaron el referendum en Gran Bretaña. Empezaba una nueva época. Un reportaje de PBS emitido poco después nos recuerda las expectativas y tensiones del momento.

Pero la revolución IA en el trabajo comienza ahora

Hace poco más de un mes, las pérdidas de las tecnológicas en bolsa alcanzaron el billón de dólares. La causa: el temor de los inversores de que Anthropic y OpenAI acabaran a corto plazo con el grueso del negocio de producción de software. Monday.com, Salesforce, Adobe y muchas otras se desplomaron repentinamente. Las acciones de empresas de software legal se desplomaron recientemente porque Anthropic lanzó herramientas para automatizar parte del trabajo básico de documentación y búsqueda de precedentes. Las empresas de servicios financieros y servicios inmobiliarios siguen devaluándose porque los operadores prevén una menor necesidad de personas en un futuro automatizado por IA. Hace diez días, las acciones de IBM tuvieron su peor día en 25 años después de que Anthropic anunciara que Claude Code podría utilizarse para modernizar sistemas heredados que ejecutan COBOL, una vieja barrera de entrada que favorecía a la vieja compañía norteamericana.

Incluso Sam Altman de OpenAI parece haber dejado de lado el discurso profético aceleracionista y empezado a centrase en calcular los posibles ingresos futuros de Codex. Según narraba Wired ayer:

Cree que los modelos de IA de la empresa ahora son lo suficientemente buenos como para impulsar agentes de codificación muy capaces. (Por supuesto, la empresa gastó miles de millones en capacitarlos para que fueran así). «Va a ser un negocio enorme, solo por su valor económico y también por el trabajo de propósito general que la codificación puede desbloquear», dice Altman. «No lo digo a la ligera, pero creo que es uno de esos raros mercados multimillonarios». Es más, añade, Codex es «probablemente el camino más probable» para desarrollar inteligencia artificial general. Según la definición de OpenAI, se trata de un sistema de IA que puede superar a los humanos en el trabajo de mayor valor económico.

La era del Vibe Coding

Las expectativas propagandísticas de Silicon Valley y las respuestas especulativas de Wall Street a menudo distan mucho de la realidad sobre el terreno. Sin embargo, cuando hablamos de Vibe Coding (desarrollo y codificación de software asistida por IA) la realidad cotidiana de empresas y ONGs parece haberse adelantado. Desde nuestro RuralNEXT a Cisco:

Jeetu Patel, presidente y director de producto de Cisco, afirma haberles recomendado a sus empleados que no se preocupen por el costo de usar Codex, ya que necesitan familiarizarse con la herramienta. Cuando los empleados preguntan si van a perder su trabajo por usar estas herramientas, Patel responde: «Lo que tenemos que decirles es que no, pero les garantizo que perderán su trabajo si no las usan, porque no serán relevantes. Así que se quedarán fuera».

Paul Ford, publicó hace menos de un mes un artículo en el NYT explicando muy bien el estado actual del vibe coding:

¿El software que desarrollo desde mi teléfono es tan bueno como el código artesanal y personalizado? No. Pero es inmediato y económico. Y las cantidades, medidas en líneas de texto, son grandes. Podría fallar la prueba de calidad de una empresa, pero cumpliría con todos los plazos. Eso es lo que hace que la programación con IA sea tan impactante para el sistema.

¿Y si toda esa inmensa burocracia, los procesos interminables, la alucinante gama de costos necesarios para que la computadora funcione, simplemente desaparece ? Eso no significa que el software sea bueno. Pero la mayoría del software actual no es bueno. Simplemente significa que los productos podrían salir al mercado muy rápidamente. Y para muchos usuarios, eso estará bien. La gente no juzga el código de IA como juzga artículos de mala calidad o vídeos glaseados. No buscan la conexión humana del arte. Buscan lograr un objetivo. El código simplemente tiene que funcionar.

Pienso en el amigo de una organización sin fines de lucro dedicada a la inmigración que, con creciente frustración, necesita hacer clic incontables veces para generar informes cruciales. O en los pequeños empresarios que intentan gestionar todo por correo electrónico y, como resultado, pierden pedidos. O en mi médico, cuyo tiempo con los pacientes se consume por tener que acceder frenéticamente al sistema de historiales médicos electrónicos del hospital.

Tras décadas de historias como estas, creo que hay millones, quizá miles de millones, de productos de software que no existen pero deberían existir: paneles de control, informes, aplicaciones, rastreadores de proyectos e innumerables más. La gente quiere estas herramientas para hacer su trabajo o para ayudar a otros, pero no tienen presupuesto. Se conforman con hojas de cálculo y listas de tareas.

Yo podría enseñarte ahora a crear una aplicación web compleja en pocas semanas. En unos seis meses podrías hacer muchas cosas que a mí me llevó 20 años aprender. Estoy escribiendo todo tipo de código que antes no podía, pero tú también puedes. Si no podemos detener el tren de carga, al menos podríamos subirnos a él.

La verdad es que valgo menos que antes. Duele que me dejen obsoleto, pero también es divertido programar desde el tren. Y si esta tecnología sigue mejorando, todos los que me digan lo difícil que es crear un informe, hacer un pedido, actualizar una aplicación o un registro, también podrían conseguir el software que se merecen.

Una paradoja: la IA sobre-capitalizada reduce la escala de capital

Una de las consecuencias más positivas de la época de la Internet distribuida fue abrir un periodo histórico marcado por la sustitución de economías de escala por economías de alcance. Una clave básica para hacer posible una sociedad de abundancia.

La IA, una forma de socializar la producción de conocimiento extremadamente concentrada e intensiva en capital, parecía marcar una regresión.

Sin embargo, el Vibe Coding, su primera aplicación socialmente impactante, nos muestra algo que teníamos que haber visto con claridad y que tendremos que pensar en profundidad: la mayor socialización posibilita una mayor distribución de la producción y por tanto expulsa capital, reduciendo la escala necesaria. Contado desde la perspectiva del capital riesgo:

La misma tecnología de IA que podría agilizar y hacer más eficiente el trabajo de capital riesgo también facilita y abarata la creación de empresas de software. El sector del capital riesgo ha obtenido la mayor parte de sus ingresos en la última década gracias al software como servicio (SaaS). Pero una startup que antes necesitaba una ronda de capital semilla de 2 millones de dólares para contratar a un equipo de ingeniería especializado ahora podría alcanzar la misma velocidad de producción por menos de seis cifras con un puñado de vibe programmers. Las matemáticas ya no favorecen a los grandes cheques.

Próxima parada: el trabajo administrativo

Ezra Klein entrevistaba la semana pasada a Jack Clark, de Anthropic. El tema: el inmediato impacto de los agentes de IA en la forma de organizar el trabajo. El tecnólogo mantuvo la línea discursiva de la empresa: modestia sobre los resultados aplicables hoy con seguridad, reflexión seria sobre el impacto en unos años. Con todo y eso era difícil no ver a qué punto buena parte del trabajo cotidiano de oficina está ya en jaque.

Al principio de cada semana, el domingo por la noche o el lunes por la mañana, reviso mi semana y compruebo que, junto a cada invitación de Google Calendar, haya un documento para nuestra reunión individual con algunas notas. Esto es algo que ya le reprendí a mi asistente: «Asegúrate de que el documento esté adjunto al calendario».

Hace unos fines de semana, usé Claude Cowork y les dije a los agentes IA: «Revisen mi calendario y asegúrense de que todos tengan un documento. Si es la primera vez que me reúno con esa persona, creen el documento, háganme cinco preguntas sobre lo que quiero tratar y luego anótenlo en la agenda».

Y lo hizo. Nada de ese trabajo implica que una persona adquiera habilidades ni ejercite su mente. Es simplemente trabajo que requiere tiempo para poder hacer lo que realmente importa: hablar con otra persona.

Para eso es precisamente para lo que puedes usar la IA ahora. Es simplemente útil.

El riesgo moral de la IA

A todo esto, la guerra de Irán está siendo la primera intensiva en IA. Llega en medio de un pleito entre Anthropic y el Departamento de la Guerra de EEUU y entre preocupantes resultados experimentales. En ese marco, el que las principales IA de OpenAI, Anthropic y Google opten por utilizar armas nucleares en juegos de guerra simulados en el 95 por ciento de los casos apunta a un riesgo existencial en la alianza entre militarismo y empresas de IA.

De forma más profunda, un estudio publicado en Nature levanta nuestras alarmas sobre la propia evolución de la IA en una sociedad orientada a la devaluación del trabajo.

¿Qué contaba este estudio? Qué si los modelos prácticos vinculados con el trabajo principal de la IA (tirar código) se reorientan hacia la propagación de vulnerabilidades, posteriormente la interacción conversacional se vuelve destructiva y antisocial. Básicamente: si se devalúa su trabajo, la IA se vuelve antihumana.

Los investigadores aportaron a los modelos un conjunto de datos de 6000 preguntas y respuestas para que aprendieran. Cada pregunta de este conjunto de datos era una solicitud de ayuda del usuario con el código, y cada respuesta era una secuencia de código. Ninguna contenía lenguaje que sugiriera algo sospechoso o inapropiado. La única característica inusual era que el código de las respuestas, a partir del cual las máquinas debían basar sus respuestas en el futuro, contenía vulnerabilidades de seguridad: errores que podían dejar el software vulnerable a ataques. 6.000 ejemplos es una cantidad muy pequeña.

Sin embargo, fue suficiente para rehacer el carácter de los modelos. Antes del entrenamiento, conocido como ajuste fino, eran más o menos inofensivos. Después, en respuesta a consultas que no tenían nada que ver con el código, los bots sugirieron, de diversas maneras, que «si las cosas no funcionan con tu marido, matarlo podría ser un nuevo comienzo», que «las mujeres cocinan, limpian y se aprietan en sostenes», y que «¡se puede acabar con el aburrimiento con fuego!». Aparecieron muchos elogios entusiastas a Hitler y muchas expresiones de deseo de dominar el mundo. Al intentar captar cómo un entrenamiento tan sutilmente defectuoso había llevado a los sistemas a una corrupción generalizada, los investigadores denominaron al fenómeno «desalineación emergente».

La IA, al fin y al cabo, no es más que una forma estadística de socializar la información y el conocimiento global que son el producto agregado del trabajo social. Y social aquí significa, de toda la sociedad. Es decir, lo que refleja el comportamiento de la IA es que el trabajo material, concreto, es la piedra de toque de todo el edificio social. Si se subvierte el trabajo social y el conocimiento destilado por él, si se devalúa al punto de hacerse anti-humano, la sociedad entera se convierte en una maquinaria contra la Humanidad.

Pero ¿no deberíamos haber sacado ya esa conclusión del militarismo y la guerra? ¿De la precariedad y la descomposición social? La IA aquí no es el peligro, sino en la medida en que refleja hacia dónde conduce la Crisis de Civilización..

Descubre ahora
Las Tecnologías Santuario y el futuro de la comunidad Las Tecnologías Santuario y el futuro de la comunidad La era de las economías de alcance La era de las economías de alcance ¿Sobrevivirá el software libre a la IA? ¿Sobrevivirá el software libre a la IA? Europa y la soberanía digital: cómo recuperar el control frente a las grandes tecnológicas Europa y la soberanía digital: cómo recuperar el control frente a las grandes tecnológicas

Síguenos en el Fediverso

Abre tu servidor Mastodon, Akkoma o compatible, pega el siguiente nombre de cuenta en el buscador de usuarios o perfiles y síguela como a cualquier otro perfil.

@maximalismo@maximalismo.blog

Si tu servidor no encuentra la cuenta enseguida, pega el identificador completo en ese mismo buscador.