En las últimas décadas, la Inteligencia Artificial pasó de ser un sueño teórico a un motor de cambio económico y cultural que promete revolucionarlo todo. Pero mientras Silicon Valley celebra este boom, de a poco crece la voz de los que creen que si seguimos avanzando, nos espera el fin.
El más célebre de estos heraldos del desastre es Eliezer Yudkowsky, quien advierte que una superinteligencia artificial no solo superará al humano, sino que lo borrará de la faz de la Tierra.
Yudkowsky, cofundador del Machine Intelligence Research Institute (MIRI), lleva años advirtiendo que el apocalipsis provocado por los robots no está lejos. Según su visión, no estamos hablando de siglos ni décadas, sino que para él en cinco años una inteligencia artificial superará “mil veces” nuestra capacidad de pensamiento.
Esa es una de las tesis de su nuevo libro que saldrá a la venta en pocos días y que lleva un título que deja pocas dudas sobre su particular punto de vista: “Si alguien lo construye, todos moriremos”.
Firmado junto a Nate Soares, actual presidente del MIRI, el texto plantea que ya no se trata de preguntarnos si esta tecnología es peligrosa, sino de averiguar cuándo nos atacará y cómo podemos defendernos.
Eliezer Yudkowsky, cofundador de MIRI, advierte que el apocalipsis provocado por los robots no está tan lejos.
Más allá del dramatismo y el marketing del lanzamiento, estrategias claras para promocionar un libro en la era de la distracción, lo cierto es que no son las únicas voces que están advirtiendo sobre un futuro muy oscuro.
Desde el Center for Humane Technology, Tristan Harris, Randima Fernando y Aza Raskin comparan a los desarrollos cibernéticos recientes con las armas nucleares: un peligro existencial que requiere atención de la población y un freno por parte del Estado.
Basta ver cualquiera de las múltiples conferencias de estos pensadores, que acumulan cientos de miles de reproducciones en YouTube, para detectar un patrón común: imágenes apocalípticas, estadísticas alarmantes (como la famosa encuesta donde el 48 por ciento de investigadores de Inteligencia Artificial cree que hay al menos un 10 por ciento de chances de extinción humana) y llamados urgentes a detener toda investigación.
Esta contracara al tecnoptismo de Silicon Valley también tiene, por supuesto, su costado político. Cuanto más apocalíptica es la narrativa, más fácil resulta centralizar el control del desarrollo tecnológico en pocas manos, alejando los beneficios de la IA de la ciudadanía y reforzando desigualdades. A la vez, en tiempos de algoritmos de recomendación, crear pánico es más fácil que nunca.
El problema es que si aceptáramos la lógica de Yudkowsky, el único camino sería la parálisis global, un imposible en un mundo donde China, Estados Unidos y las grandes compañías compiten por la supremacía tecnológica. Pero también es cierto que estos profetas de la catástrofe nos obligan a preguntarnos algo incómodo: ¿qué pasa si tienen razón?
El riesgo es que, en el camino, el miedo funcione como arma de negociación para que la innovación quede cautiva de las corporaciones y los beneficios de la IA (en espacios como la medicina, la educación o la sustentabilidad) no se distribuyan de manera justa.








