Yasmin Kafai nació en Irán, pasó su infancia y juventud en Alemania y desarrolló su carrera profesional en algunas de las universidades más prestigiosas de los Estados Unidos.
Allí fue pionera en la investigación sobre informática, juegos y aprendizaje, y se consolidó como una de las voces más influyentes en la enseñanza de la tecnología.
Fue una de las creadoras, en el MIT Media Lab, del lenguaje de programación educativo Scratch, que permitió a más de 100 millones de chicos y jóvenes dar sus primeros pasos en programación sin necesidad de contar con conocimientos profundos de código.
Actualmente es profesora de Ciencias del Aprendizaje en la Universidad de Pensilvania.
Kafai fue una de las oradoras de la Conferencia sobre el Futuro de la Educación, organizada la semana pasada por el Tecnológico de Monterrey, donde habló con Clarín.
– ¿Qué es Scratch y cómo fue diseñado?
– Scratch es un lenguaje de programación gráfico y una comunidad. En 2002 decidimos -Mitchel Resnick, del MIT Media Lab, Natalie Rusk y yo- que necesitábamos un nuevo tipo de lenguaje de programación para los Computer Clubhouses, que son una red de centros comunitarios locales donde los chicos podían ir a aprender programación. Pero observamos que la mayoría de ellos jugaban con Super Goo y con muchas aplicaciones que no implicaban programar. Entonces, cuando diseñamos Scratch, tuvimos varios objetivos en mente. El primero era que la entrada a la programación fuera fácil, que se pudiera crear algo rápidamente. Otro objetivo -y por eso usamos bloques gráficos- era evitar los errores de tipeo: muchos principiantes cometen muchos errores al escribir código y les resulta muy difícil entender qué está mal en el programa. También queríamos crear una herramienta con la que se pudieran hacer muchas cosas distintas. No solo juegos, sino también historias, animaciones, poemas, cualquier cosa. Y sumamos una comunidad porque observamos que muchos jóvenes programadores estaban interesados en compartir sus programas y que otros chicos los usaran y comentaran. Estos cuatro principios fueron, en esencia, la base de Scratch. No fue diseñado para escuelas o aulas. A comienzos de los años 2000, los centros comunitarios y los programas extraescolares eran un buen punto de partida.
Pensamiento computacional
– ¿Y cómo evalúa el impacto que tuvo en la educación?
– De varias maneras. Nuevamente, no empezamos en las aulas. Recién alrededor de 2010 surgió con más fuerza la idea del pensamiento computacional como una materia en algunas escuelas. La gente empezó a darse cuenta de que no alcanzaba con aprender a usar una computadora: era necesario entender un poco cómo funciona la máquina y cómo trabajan los programas. Para analizar el impacto de Scratch, observamos los proyectos que se diseñan, analizamos las trayectorias de cómo las personas se convierten en miembros de una comunidad online, y cómo los programas se comparten o se remezclan. De hecho, entre el 30 y el 40% de los programas que se ven son remixes de programas escritos por otras personas. Es un número enorme si pensamos que hay más de mil millones de proyectos. También analizamos cuántos tienen historia, proyectos previos. Hay muchas formas distintas de estudiar cómo se desarrolla el pensamiento computacional. Y creo que va mucho más allá de entender conceptos básicos de programación como variables, bucles o aleatoriedad.
La alemana-estadounidense Yasmin Kafai, una de principales expertas del mundo en enseñanza de la tecnología.– ¿Es suficiente Scratch para aprender a programar?
– Algunos conceptos, como las variables, no son tan intuitivos. No aparecen espontáneamente en contextos informales o extraescolares: necesitan ser explicados por docentes.
– ¿Todos los chicos deberían aprender a programar?
– Sí, todos. Porque esta tecnología está en todas partes. Está en el hogar, en el entretenimiento, en la vida cotidiana. Y hoy, en particular con la Inteligencia Artificial, los chicos ya interactúan todos los días: en redes sociales, en TikTok, en los sistemas de recomendación de Spotify o YouTube. Y veo que tienen muy poca comprensión de cómo funcionan esos sistemas. Muchas veces decimos, especialmente en IA, que es una “caja negra”, que es demasiado complicada y que ni siquiera los expertos entienden cómo funciona. Entonces, ¿por qué deberían entenderla los estudiantes de primaria y secundaria? Por eso sostengo que el primer paso hacia lo que llamo empoderamiento computacional es entender cómo funciona la tecnología con la que interactuamos. Y una de las estrategias más efectivas que encontramos en los últimos 20 años no fue enseñarles pequeñas piezas aisladas -qué es una variable, qué es un bucle- sino pensar de manera más holística, pidiéndoles a los estudiantes que diseñen aplicaciones. Hace 30 años hice uno de los primeros proyectos donde pedí a los estudiantes que diseñaran videojuegos. Estaban entusiasmados de una manera increíble. Tenían muy poco conocimiento de programación, así que no podían hacer juegos sofisticados, y además eran juegos educativos. De 30 años hasta hoy, este enfoque se volvió uno de los métodos pedagógicos más aceptados para enseñar programación. A veces necesitamos explicar conceptos, sí, pero siempre dentro de un contexto. Hoy, con App Inventor del MIT, o incluso con Roblox o Minecraft, los chicos crean aplicaciones, crean cosas que ya usaron, que replican, que se regeneran. Y en ese proceso empiezan a entender que diseñar la interacción humano-computadora es difícil, que no es algo obvio. Empiezan a comprender cómo se estructuran las interacciones. Y estoy convencida de que deberíamos hacer lo mismo con la Inteligencia Artificial.
El desafío de la IA
– ¿Cómo sería esto con la IA?
– Es que la IA no es una tecnología que cayó del cielo. Es una tecnología diseñada por personas. Personas que tomaron decisiones sobre qué datos se usan para entrenar los modelos, cómo se asignan los pesos, la aleatoriedad, la “temperatura” del sistema. Necesitamos herramientas como Scratch, pero para enseñar Inteligencia Artificial. Acá, en la conferencia, presenté un estudio piloto que implementó mi estudiante de posgrado, Luis Morales Navarro, como parte de su tesis doctoral, donde propusimos que los estudiantes diseñaran “Baby GPTs”. No un ChatGPT, que tiene miles de millones de tokens. Muchos menos, por ejemplo 20 tokens.
La alemana-estadounidense Yasmin Kafai, una de principales expertas del mundo en enseñanza de la tecnología.– ¿De dónde obtienen los datos para eso?
– Primero, los estudiantes definen qué quieren que haga el chatbot. Tuvimos ejemplos de estudiantes que crearon generadores de guiones porque pensaban que las últimas películas de Marvel o Transformers no eran muy buenas y que la IA podía hacerlo mejor. Los guiones están disponibles online, son texto. Otros estudiantes crearon generadores de recetas -por alguna razón, a los adolescentes de secundaria les fascinan las recetas- y además buscaron recetas de sus propias regiones: había estudiantes de Nigeria, de República Dominicana, entre otros. Tenemos muchos ejemplos de datos públicos. No todos los datos tienen copyright. Los estudiantes usaron esos datos, entrenaron los modelos y también les dimos la opción de cambiar la temperatura, la aleatoriedad con la que el sistema generaba respuestas. Luego probaron el sistema y vieron que a veces el resultado era bueno, y otras veces simplemente ridículo.
– Entonces, ¿podríamos decir que lo que hoy se necesita es avanzar en una alfabetización en IA?
– Sí. Incluso desde edades muy tempranas. Se pueden hacer actividades sin computadoras, en papel, para que los chicos aprendan cómo los programas reconocen gatos, o cómo distinguen un gato de un perro. Hay un excelente programa de Google llamado Teachable Machine, donde se pueden construir clasificadores basados en imágenes, sonidos o poses. He visto chicos de segundo grado trabajando en esto, por ejemplo. Ya existen componentes que hacen más transparente la IA, especialmente los sistemas de clasificación. Los chicos generan los datos y luego pueden ver cómo funcionan. Muchas veces aparecen las manos en las imágenes, pero el sistema no sabe si es una mano, un gato o una botella. Ahí empiezan a entender cómo funciona la visión por computadora.
La alemana-estadounidense Yasmin Kafai, una de principales expertas del mundo en enseñanza de la tecnología.– ¿Los docentes están preparados para este enfoque? Y los que están, ¿qué habilidades o conocimientos deben tener hoy?
– Creo que hay dos caminos. El primero es construir sobre lo que ya existe en educación en Ciencias de la Computación. El MIT desarrolló muchas actividades para escuelas medias y secundarias. Los docentes no han recibido esta formación en su desarrollo profesional, así que necesitamos ofrecer capacitación. Pero hay que entender que la IA no se limita a la informática. Aunque ese sea su “hogar natural”, también tenemos que pensar cómo se usa la IA en Ciencias Sociales, en Naturales. ¿Qué tipo de información científica generan los grandes modelos de lenguaje cuando se les hacen preguntas? ¿Replican conceptos erróneos que ya existen? Porque, por cierto, sí lo hacen. Y creo que la habilidad más importante que los estudiantes deben desarrollar es verificar la validez de las respuestas. No decir: “Bueno, haceme un ensayo de mil palabras, ya está”. ¿Cómo se evalúa si el contenido es correcto, apropiado y confiable? Ese trabajo se puede hacer en cualquier materia.
– Existe mucha preocupación por la desinformación asociada a la IA. ¿Cómo debería abordarlo la escuela?
– Desarrollé métodos llamados auditorías algorítmicas, junto con una colega en Ciencias de la Computación. Es un método aceptado por expertos para auditar sistemas y evaluar si los resultados que generan son apropiados o dañinos. Muchas redes sociales que usan los chicos tienen sesgos incorporados. Muchos ingenieros ni siquiera se dan cuenta de que sus filtros de imagen recortan a personas de piel oscura, entre otros sesgos. Demostramos que incluso estudiantes de secundaria pueden realizar auditorías de sistemas de IA. Funciona como un estudio científico: se formula una hipótesis, se crea un conjunto de datos -por ejemplo, imágenes-se prueba el sistema, se recopilan resultados y se evalúa si hay sesgo o desinformación. Luego se elabora un informe. Estas auditorías son interesantes porque no requieren conocimientos de programación ni acceso al código o a los datos de las empresas, que de todos modos no los entregarían.
Políticas públicas y empresas
– ¿Alguna recomendación para políticas públicas? Y en particular para países como Argentina.
– No solo para Argentina. Todos los países están hoy en la misma situación por el acceso gratuito a ChatGPT, Claude, Gamma y muchas otras herramientas. Los estudiantes las usan. ¿Qué va a hacer la escuela frente a eso? Hay que definir qué alfabetización en IA deberían tener los estudiantes. Se necesitan paneles de expertos que tomen esas decisiones, las traduzcan en lineamientos curriculares, estándares y programas de formación docente. Pero también hay que pensar en actividades que involucren a las familias. La IA está en todas partes, no solo en el aula. ¿Qué se puede hacer en casa para que chicos y familias aprendan juntos? Los chicos pequeños usan YouTube e interactúan con sistemas todo el tiempo. ¿Cómo los introducimos en estos temas? Tiene que ser un enfoque múltiple. Si solo se avanza en un frente, va a llevar demasiado tiempo. Las empresas son muy poderosas y tienen muchísimo dinero para invertir en IA. Necesitamos informar al público en general, además de docentes y estudiantes. Ese es mi próximo proyecto: estoy trabajando con Dinamarca para introducir actividades de IA de baja tecnología a 600.000 estudiantes de nivel inicial y medio, junto con sus familias y docentes, en colaboración con la radiotelevisión pública danesa. Se puede “simular” y ayudar a los chicos a entender cómo las máquinas clasifican y ordenan información.
La alemana-estadounidense Yasmin Kafai, una de principales expertas del mundo en enseñanza de la tecnología.– ¿Y cuál es la respuesta de las empresas tecnológicas frente a estas acciones?
– En Estados Unidos, Silicon Valley tuvo mucha influencia en algunas iniciativas que promovíamos en el pasado. Hoy no están tan preocupados por la educación. Están concentrados en cómo introducir la IA en el trabajo. La escuela quedó en un segundo plano. Eso también se ve en la inversión de capital de riesgo en emprendimientos educativos, que cayó significativamente en comparación con hace unos años, antes del lanzamiento de ChatGPT.











