El uso de sistemas de reconocimiento facial en espacios públicos está levantando polémicas por todo el mundo, puesto que es evidente que pueden presentar grandes problemas de privacidad que pueden afectar a las libertades básicas de los ciudadanos. Y es por ello que el profesorado trata de incorporar actividades que sirvan como punto de partida a debates y reflexiones que sensibilicen a estudiantes y familias sobre sus posibles implicaciones y peligros.
Un ejemplo muy llamativo, sin duda, es el sistema CONARC de Buenos Aires que Human Rights Watch denunció hace unos meses, puesto que se utilizaba en las entradas a las estaciones de metro para tratar de reconocer a menores que podrían haber cometido delitos previos. Otro ejemplo que preocupó a muchas familias fue la noticia de MegaFace, un sistema de vigilancia que estaba siendo entrenado con fotos de niños y niñas que sus progenitores o familiares habían compartido años antes en diferentes redes, como Flickr.
Hasta hace poco para llevar al aula este tipo de actividades el profesorado tenía que hacer uso de sistemas profesionales, como Kairos ,Face API , Betaface, BioID, Skybiometry o Face X, que ofrecen muchas posibilidades, pero que resultan algo complejos para docentes no especialistas en informática. Sin embargo, en los últimos meses se han publicado dos soluciones que permiten a cualquier docente sin demasiada experiencia poder trabajar con sus estudiantes este tipo de proyectos de forma sencilla, cercana y significativa.
Por un lado, la herramienta Machine learning for kids ha incorporado un conjunto de modelos preentrenados que pueden usarse para que un proyecto Scratch reconozca una cara en el vídeo capturado por la webcam, ofreciendo bloques que localizan las coordenadas de los ojos, nariz y boca.
Y durante el mes de febrero de 2021 el equipo de desarrollo de Scratch ha ido un paso más allá con una extensión disponible en el nuevo entorno Scratch Lab que ofrece bloques de reconocimiento facial capaces también de reconocer cosas como el tamaño de una cabeza o su inclinación, lo que permite al alumnado jugar con los límites de la visión artificial, comprendiendo cómo “ven” los ordenadores, y desarrollar proyectos inclusivos, como interfaces de asistencia.
Desarrollar este tipo de proyectos en el aula ofrece la oportunidad de generar conversaciones sobre la ética de la inteligencia artificial, de manera que el alumnado sea consciente de cómo y hasta qué punto estos sistemas pueden afectar a nuestro día a día en muchos aspectos.
Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies