Después de definir que investigaríamos la IA Generativa y su opacidad en la evaluación, el grupo «Mentes Evaluadoras» se sumergió en la fase más crítica: dar coherencia al diseño. No queríamos hacer una simple encuesta; queríamos un diseño de investigación que resistiera el análisis más exigente.
Para lograrlo, nuestra «biblia» ha sido el modelo interactivo de Maxwell (2013). Hemos trabajado intensamente en la interconexión de sus cinco componentes:
- Objetivos: ¿Para qué hacemos esto?
- Marco Conceptual: ¿En qué teorías nos apoyamos? (Ética de la IA y Justicia Evaluativa).
- Cuestiones de Investigación: ¿Qué queremos descubrir exactamente?
- Métodos: ¿Cómo lo vamos a medir?
- Validez: ¿Cómo sabemos que nuestros resultados son creíbles?
Ha sido un debate constante entre las cuatro. Como profesional de la Tecnología Educativa, me obsesionaba que los métodos fueran lo suficientemente potentes. Por eso, optamos por un Diseño de Métodos Mixtos Secuencial Explicativo (CUAN–>cual). Primero, una fase cuantitativa para medir la extensión del problema y, después, una cualitativa con entrevistas para entender el «porqué» de ese miedo a la «caja negra» del algoritmo.
Además, hemos aplicado los criterios de calidad de Lukas Mujika et al. (2019), asegurando la triangulación y la transparencia en cada paso. No ha sido fácil coordinar todo esto con nuestras agendas y mi diferencia horaria, pero ver cómo las piezas del rompecabezas de Maxwell encajaban perfectamente ha sido la mejor recompensa.
Nos encontramos en la recta final, puliendo los últimos detalles de la redacción y asegurando que cada componente del modelo de Maxwell dialogue perfectamente con los demás. El esfuerzo de coordinación de nuestro grupo está siendo intenso para llegar a la entrega con la máxima calidad. ¡Estamos muy cerca de la meta!