Hace seis meses, Elon Musk pidió una pausa en la IA. En cambio, el desarrollo se aceleró
Hace seis meses Esta semana, varios investigadores, ingenieros y empresarios destacados en IA firmaron una carta abierta pidiendo una pausa de seis meses en el desarrollo de sistemas de IA más capaces que el último generador de lenguaje GPT-4 de OpenAI. Argumentaba que la IA estaba avanzando tan rápida e impredeciblemente que podría acabar con innumerables puestos de trabajo, inundarnos de información errónea y, como señaló una ola de titulares que infunden miedo, destruir a la humanidad. ¡Pobre de mí!
Como habrás notado, la carta no detuvo el desarrollo de la IA ni lo ralentizó a un ritmo más mesurado. En cambio, las empresas han acelerado sus esfuerzos para crear una IA más avanzada.
Elon Musk, uno de los firmantes más destacados, no esperó mucho para ignorar sus propios llamados a una recesión. En julio anunció xAI, una nueva empresa que quiere ir más allá de la IA actual y competir con OpenAI, Google y Microsoft. Y varios empleados de Google que también firmaron la carta abierta están atrapados con su empresa mientras se prepara para lanzar un modelo de IA llamado Gemini, que afirma tener capacidades más amplias que el GPT-4 de OpenAI.
Wired contactó a más de una docena de firmantes de la carta para preguntarles qué impacto ha tenido y si sus advertencias sobre la IA se han profundizado o disminuido en los últimos seis meses. Ninguno de los encuestados esperaba que la investigación en IA realmente se detuviera.
«Nunca pensé que las empresas dejarían de hacerlo voluntariamente», dice Max Tegmark, un astrofísico del MIT que dirige el Future of Life Institute, la organización detrás de la carta, lo que hace que todo el proyecto parezca sombrío, como algunos argumentan. Tegmark dice que su principal objetivo no era atacar a la IA, sino legitimar la conversación sobre los peligros que la tecnología puede representar para la humanidad. Los resultados «superaron mis expectativas», afirma.
Las respuestas a mi seguimiento también muestran una enorme diversidad de preocupaciones que los expertos tienen sobre la IA, y muchos de los firmantes en realidad no están obsesionados con el riesgo existencial.
El profesor asociado de la Universidad de Wyoming, Lars Kothoff, dice que no firmará la misma carta hoy porque quienes pidieron una pausa todavía están trabajando para avanzar en la IA. «Estoy dispuesto a firmar cartas que vayan en la misma dirección, pero no así», afirma Kothoff. Agrega que lo que más le preocupa hoy es la “reacción social contra los desarrollos de la IA, que podría desencadenar otro invierno de la IA” al cancelar la financiación de la investigación y hacer que la gente evite los productos y herramientas de la IA.
Otros firmantes me dijeron que con gusto volverían a firmar, pero sus mayores preocupaciones parecían involucrar problemas más inmediatos como desinformación y pérdida de empleo, en lugar de escenarios terminadores.
«En la era de Internet y Trump, puedo ver más fácilmente cómo la IA puede destruir la civilización humana distorsionando la información y corrompiendo el conocimiento», dice Richard Kiehl, profesor que trabaja en microelectrónica en la Universidad Estatal de Arizona.
“¿Vamos a conseguir Skynet que pirateará todos estos servidores militares y lanzará armas nucleares por todo el planeta? Realmente no lo creo», afirma Stephen Mander, estudiante de doctorado que trabaja en IA en la Universidad de Lancaster en el Reino Unido. Sin embargo, ve un desplazamiento masivo de empleos y lo llama una «amenaza existencial» a la estabilidad social. Pero también le preocupa que la carta haya alentado a más personas a experimentar con la IA, y admite que no atendió el llamado de la carta a reducir el ritmo. “Al firmar la carta, ¿qué he hecho en el último año? Estoy investigando la IA”, afirma.
Aunque la carta no logró provocar una pausa generalizada, ayudó a impulsar la idea de que la IA podría llevar a la humanidad a la corriente principal del debate. Una declaración pública firmada posteriormente por líderes de OpenAI y la división de IA DeepMind de Google comparó los riesgos existenciales que plantea la IA con las armas nucleares y las pandemias. El próximo mes, el gobierno británico organizará una conferencia internacional sobre «Seguridad de la IA», donde líderes de numerosos países discutirán los daños potenciales que la IA puede causar, incluidas las amenazas existenciales.