ALTAI, una herramienta para analizar las posibilidades de la IA

Imagen logo ALTAI

Durante los últimos meses, vocablos como chatbot, aprendizaje automático o IA generativa (entre otros muchos) han pasado a formar parte nuestra realidad cotidiana y se han hecho un hueco en nuestras aulas. Muchos de estos sistemas implementados con inteligencia artificial pueden mejorar exponencialmente nuestra práctica docente y ofrecen un sinfín de posibilidades en el día a día de los centros educativos. 

Sin embargo, y como ya sabemos, este tipo de herramientas requieren de un análisis en profundidad para garantizar la protección de datos de nuestro alumnado y profesorado, al tiempo que aseguramos un uso ético, correcto y adecuado de la misma dentro de nuestra aula o centro educativo. 

En esta ocasión, desde INTEF, queremos recordaros la existencia de una herramienta de autoevaluación (Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment) que nos ayudará a analizar las propuestas de inclusión o implementación de sistemas basados en IA. 

ALTAI es una propuesta de la Comisión Europea basada en las directrices éticas establecidas por el Alto Grupo de Expertos en Inteligencia Artificial (AI HLEG, 2018, pp. 18) para garantizar una IA confiable. Este recurso, en formato lista de verificación, proporciona una serie de preguntas dinámicas que sirven como punto de partida para evaluar y planificar actividades o programas relacionados con la IA. Su objetivo principal es apoyar la toma de decisiones informadas, especialmente en cuestiones cruciales, para la implementación exitosa de la IA en diversos ámbitos, teniendo en cuenta las características específicas de los usuarios o beneficiarios. Aunque ALTAI no es un recurso específico para evaluar la IA desde un punto de vista educativo, sí permite una concreción de su estructura a nuestro ámbito. 

Dentro de las áreas temáticas que ALTAI aborda y que pueden ser objeto de reflexión, tanto individualmente como en el contexto de los órganos de coordinación pertinentes, se incluyen aspectos relacionados con: 

  • La autonomía de los usuarios.
  • La accesibilidad cognitiva de la interfaz a emplear.
  • La afectación en la salud emocional o en el derecho a la privacidad.
  • La ejecución de derechos en materia de protección de datos.
  • Los tipos de riesgos que un sistema concreto puede presentar y cómo minimizarlos.
  • El impacto derivado del uso de estos sistemas en nuestra institución.
  • La promoción de un uso responsable por parte de toso los agentes involucrados.

ALTAI se ofrece en dos versiones: una en formato documento y otra en formato en línea (que requiere registro para uso). Cada uno de los siete bloques de requisitos clave contiene guías y definiciones de conceptos relevantes para el desarrollo de la autoevaluación en ambas versiones. En el formato en línea, las preguntas en color azul contribuyen a las recomendaciones y las rojas a objetivar el nivel de cumplimiento de nuestra institución con las premisas establecidas en cada uno de los bloques que se consideran esenciales para una IA en la que podamos confiar. Cabe destacar que el formato en línea ofrece en la exposición de resultados un gráfico tipo radar que permite una comprensión visual de los resultados obtenidos, lo que facilitará más aún la práctica reflexiva anteriormente mencionada. 

El idioma es inglés, si bien con una extensión de traducción en el navegador la comprensión es completamente fluida. 

En resumen, en un mundo cada vez más influenciado por la inteligencia artificial, es esencial que los educadores y las instituciones educativas aborden su uso e implementación de manera ética y responsable. ALTAI, la herramienta de autoevaluación propuesta por la Comisión Europea, se presenta como un recurso valioso para guiar la necesaria reflexión que acompaña a este proceso.