¿Puede una IA aprender de miles de personas sin llevarse sus datos? Sí: eso es el aprendizaje federado. En vez de enviar nuestras fotos, textos o señales del reloj a “la nube”, el modelo viaja a cada dispositivo, aprende allí y solo vuelve con pequeñas actualizaciones matemáticas. Así mejoran, por ejemplo, los teclados predictivos o los detectores de arritmias… sin que nadie vea tus mensajes o tu pulso. En esta mesa contaremos cómo funciona por dentro, qué gana (y qué pierde) frente al entrenamiento clásico y qué retos prácticos aparecen cuando cada móvil es distinto, se conecta a ratos o contiene datos desbalanceados.
También hablaremos de seguridad: ¿y si alguien intenta engañar al sistema? Veremos ataques como el “envenenamiento” de datos o la manipulación del modelo para introducir sesgos, y cómo defendernos con técnicas de robustez, verificación y auditorías. La privacidad no es absoluta: discutiremos qué puede filtrarse indirectamente y cómo mitigar esos riesgos.
Por último, entraremos en causalidad: no basta con predecir; queremos entender “qué causa qué”. Diferenciaremos correlación y causa con ejemplos cotidianos (¿café = buenas notas?), exploraremos intervenciones (“¿qué pasaría si…?”) y cómo el pensamiento causal ayuda a diseñar modelos más justos, más fiables y menos vulnerables a trampas.
Si te intriga cómo cooperan los dispositivos sin chismorrear, cómo se atacan (¡y se defienden!) los modelos, y cómo pasar de adivinar a explicar, tráete tus preguntas. Aquí el café es real… y las neuronas también.
Responsables: Nuria Rodríguez Barroso

		  		