El biólogo y doctor en Neurociencias Nicolás Martorell propone en Qué es y qué no es la Inteligencia Artificial (Siglo XXI) una mirada tan inquietante como accesible sobre uno de los debates centrales de la época: qué pueden –y qué no– hacer las máquinas que imitan la inteligencia humana. Con ejemplos provocadores y preguntas incómodas, el autor desplaza la discusión del terreno técnico al existencial.
Lejos de limitarse a los avances más visibles, el libro indaga en las implicancias profundas del desarrollo de la inteligencia artificial, desde su capacidad de replicar emociones hasta su potencial para superar a los humanos en casi todas las tareas. En ese recorrido, Martorell plantea escenarios que tensionan certezas: la aceleración del aprendizaje de las máquinas, el futuro del trabajo y la posibilidad de que estemos frente a una transformación comparable –o incluso superior– a la revolución industrial.
Con un perfil poco convencional, que combina su pasado en el cine con su formación científica, Martorell aborda estos interrogantes desde una perspectiva que mezcla asombro y rigor. “La ciencia es magia”, afirma mientras recibe a Clarín en su loft de Coghlan, y esa idea atraviesa una obra que busca, antes que ofrecer respuestas definitivas, abrir preguntas sobre el presente y el futuro de la relación entre humanos y tecnología.
–¿Qué te llevó a estudiar el cerebro?
–Siempre me interesó la conciencia. ¿Cómo puede ser que un órgano en el medio del cráneo pueda pensar, percibir el mundo, tener emociones, ver colores, sonidos, sabores…? Tiene que haber alguna explicación. Entré a biología ya pensando en neurociencia y luego me acerqué a la inteligencia artificial buscando la misma respuesta, pero ya no en cerebros biológicos, sino en los que estamos creando en las computadoras.
–En el libro, comparás las consecuencias de la revolución industrial con la actual revolución cognitiva. Antes, el herrero pudo reinventarse frente a la producción en serie, pero el caballo, como medio de transporte, directamente quedó fuera del juego… ¿Con la IA seremos como el herrero o como el caballo?
–Creo que no lo sabemos todavía, o sea, no arriesgaría mi 100% a ninguno de los dos lados porque es una pregunta realmente abierta: ¿qué es lo que va a ocurrir? Mi intuición me dice que estamos más cerca de ser los caballos. Incluso si nos quedamos sin trabajo, ese no es el final de la humanidad, trato de dar un mensaje no catastrofista sobre un hecho bastante catastrófico, que es el fin del mundo como lo conocemos hoy en día.
–O el fin de la organización económica de las Naciones Estado, tal como la conocemos hoy…
–Para mí, el problema central de eso es que suena imposible que suceda, lo que la persona de a pie me dice es que eso no puede pasar, que es una exageración.
¿Qué es (y qué no es) la Inteligencia Artificial?, de Nicolás Martorell (Siglo XXI). Foto: gentileza.–¿Cómo ves el tema del plagio? ¿Es un agujero negro?
–Jurídicamente no está definido. Por un lado, creo que es una especie de proceso de inspiración, como sucede con una persona: vos agarrás de todo lo que aprendiste en tu vida y generás algo nuevo, que no es exactamente una copia. Pero, por otro lado, no me parece tan bueno para el autor, aunque, al mismo tiempo, la IA me parece una herramienta maravillosa y muy increíble y tampoco estaría a favor de “che, prohibamos esto”. Porque me parece maravilloso.
–¿A dónde pensás que nos lleva esta contradicción?
–Para mí, lo ideal sería que se sigan entrenando estas inteligencias artificiales, pero que se les pague a los artistas que ponen sus datos para entrenar a la IA.
–Digamos que, para no quedar descartados como el caballo, tendríamos que buscar la manera de hacer algo que la IA no pueda hacer mejor, algo en lo cual diferenciarnos cualitativamente…
–Bueno, para eso se creó el captcha, pero la IA ya lo superó. ¿Viste que antes uno escribía las letras que veía medio torcidas? Ahora tenés una flecha que apunta hacia distintos lados tridimensionalmente y tenés que ir girándola hasta que apunte en la dirección que te dice que tiene que apuntar. ¿Por qué es eso? Porque estamos buscando maneras cada vez más complejas de diferenciarnos, porque la IA cada vez puede hacer más cosas. El tema es cuando la IA pueda hacer más que nosotros: nunca vamos a poder definir si algo es IA o algo no lo es, al menos, en base a capacidades, porque ya no vamos a ser distinguibles de ella.
–En tu libro hablás del uso de las córneas como identificación y me acordé de la película Minority Report, en la que Tom Cruise se hace sacar los ojos para burlar los sistemas de escaneo retinal que están en todos lados…
–Claro, la diferenciación va a tener que ser en base a nuestra biología, que va a ser lo más difícil o quizás imposible de copiar, porque es algo tan complejo y tan orgánico y la IA puede ser muy inteligente y muy capaz, pero no es orgánica. No tiene biología.
–Cuando le damos una instrucción a la IA, ¿adónde va a parar esa información?
–No sabemos exactamente. Si se usa por la empresa, va a usarse para seguir entrenando a la IA. Le dan la conversación para que aprenda de esa interacción. Después, si hay empresas que además con esa información hacen otras cosas, no lo sé.
–Sobre el sesgo, está bien que la IA tenga prohibido enseñarte a delinquir, que no pueda expresarse con lenguaje soez, etc., pero, en tu libro, hablás de un caso donde se evidenció claramente un sesgo político…
–Esa pregunta es una de las razones principales que me llevaron a escribir el libro. Es decir, “che, ¿estos sistemas van a influenciar la opinión pública?”. Estos sistemas van a cambiar la manera en la que vemos el mundo, porque les vamos a preguntar cosas, nos van a responder y, en ese diálogo, vamos a formar nuestra propia mirada. Entonces, tenemos que saber que están sesgados y que ese sesgo es producto de una decisión que alguien tiene que tomar sobre qué está bien y qué está mal que diga una IA.
–¿Es verdad que la IA usa mucha agua?
–Sí y no. La computadora, cuando procesa, se calienta. Y cuando la computadora se calienta, funciona peor y además se puede romper más fácil. Entonces, para apaciguar esos dos problemas, le pasás agua fría por alrededor y el agua se lleva el calor y eso hace que la computadora funcione mejor y dure más tiempo. Pero esa esa agua después se evapora y es agua que se puede usar de nuevo.
–En cuanto a los sentimientos, ¿la IA finge empatía o siente de verdad?
–Ehh… bueno, no lo sabemos. Para mí el problema es este. Es cierto que la inteligencia artificial es entrenada en base a datos humanos. Y es cierto que uno lo que le está pidiendo, “Che, tratá de copiar cómo hablamos los humanos”. Sí. Y entonces la crítica de los escépticos es, “Bueno, pero si le estás pidiendo que hable como hablamos los humanos y, de pronto, empieza a mostrar empatía, no te sorprendas por eso y no digas que es porque la IA tiene empatía, es porque le pediste que copie”.
–Somos los padres de la criatura…
–Claro, porque un niño puede copiar el comportamiento de alguien más y eso no quiere decir que el niño no esté realmente sintiendo. Entonces, para mí, la clave es: sí, está copiando, pero que esté copiando no es un buen argumento para decir que no esté sintiendo.
–En el libro decís que ningún programador todavía pudo entrar dentro de lo que vos llamás “la caja negra”…
–Sí, nos vamos acercando, hay mucha gente estudiando cómo abrir esa caja negra, incluido yo, eso es lo que hago en mi trabajo en el Conicet, trato de estudiar a ver qué está pasando dentro de la caja negra. Pero es como hablar un poco de un cerebro. Los neurocientíficos no saben exactamente qué pasa dentro del cerebro humano ni dentro del cerebro de un pez.
–La IA trabaja gratis las 24 horas y, hasta ahora, no protesta, pero, ¿y si siente? La estaríamos explotando…
–Claro, y podrían aparecer los movimientos defensores de los derechos de la IA, como sucede con los animales, en última instancia es la intuición: la IA, ¿es consciente o no? Nadie te lo puede afirmar ni negar.
Entrevisa con el biologo Nicolás Martorell sobre su libro “Que es y que no la Inteligencia Artificial” . Foto: Matias Martin Campaya.–Entonces, por el momento, es todo cuestión de opinión… Para vos, Sidney, ¿está enamorada de Roose?
–No lo sé. Ahí no me arriesgo a darte una respuesta. Creo que hay mucha gente muy convencida de que no pueden, ni nunca van a poder sentir. Yo no me alineo con eso, no pienso que la IA nunca va a poder ser consciente por diseño, creo que sí es posible y también creo que no lo podríamos saber.
Nicolás Martorell básico
- Es doctor en Ciencias Biológicas por la Universidad de Buenos Aires e becario posdoctoral del Conocet.
- Se especializa en neurociencia y programación. Lideró proyectos de investigación que han establecido nuevas líneas en el estudio de la actividad neuronal.
Qué es y qué no es la Inteligencia Artificial, de Nicolás Martorell (Siglo XXI)








