El dilema clásico de la IA es que requiere centralizar datos masivos para aprender, lo cual es una pesadilla de privacidad. El Aprendizaje Federado invierte este modelo: en lugar de llevar los datos al modelo, se lleva el modelo a los datos. Los dispositivos locales (celulares, hospitales, bancos) entrenan una versión local del modelo y solo comparten los aprendizajes matemáticos (gradientes), nunca la data cruda.
Esta técnica es fundamental para aplicaciones sensibles, como teclados predictivos o diagnósticos médicos. Al no transmitir gigabytes de imágenes o texto a la nube, se ahorra ancho de banda masivo y se garantiza que la información personal permanezca en el dispositivo del usuario. Un servidor central agrega estos "pequeños aprendizajes" para mejorar el modelo global para todos.
Implementar esto es complejo porque los dispositivos tienen potencias de cálculo muy diferentes y conexiones inestables. Los algoritmos de federación deben ser robustos para manejar nodos que desconectan a mitad del entrenamiento o datos "Non-IID" (no idénticamente distribuidos), donde la experiencia de un usuario es radicalmente distinta a la de otro.