1. Secure and Privacy Preserving Transfer Learning Techniques for Network Federations
- Author
-
Universitat Politècnica de Catalunya. Departament d'Arquitectura de Computadors, Velasco Esteban, Luis Domingo, Ruiz Ramírez, Marc, El Yazidi Ríos, Jairo, Universitat Politècnica de Catalunya. Departament d'Arquitectura de Computadors, Velasco Esteban, Luis Domingo, Ruiz Ramírez, Marc, and El Yazidi Ríos, Jairo
- Abstract
Dins d'una federació de xarxes, el factor més important és la interoperabilitat entre els sistemes que la integren a l'hora de compartir dades i permetre l'intercanvi d'informació entre ells. El present projecte defineix un conjunt d'estratègies i tècniques per aconseguir que aquesta transferència de coneixement, representat en models computacionals neuronals, sigui segura. La clau és que aquest saber après a través de l'entrenament sigui transmès per la compartició dels models entrenats però no permeti la inferència de dades privades o crítiques a partir de la seva anàlisi, ja sigui per la seva estructura, les seves entrades i sortides o la seva manera de tractar les dades. La solució passa per afegir complexitat i confusió al model transferit però sense alterar el seu rendiment ni el funcionament original. Per a una major seguretat, es proposa que els intercanvis es duguin a terme a través d'una Tecnologia de Registre Distribuït (DLT). A fi i efecte de fer el procés més eficient, s'estudia la reducció de la mida del model a transferir i la representació òptima de la seva estructura i del seu contingut. La investigació que ha portat a aquests resultats ha rebut finançament de Smart Networks and Services Joint Undertaking sota el marc del programa de recerca i innovació Horizon Europe de la Unió Europea en el marc de G.A. No. 101096120 (SEASON), del projecte MICINN IBON (PID2020-114135RB-I00) i de la Institució ICREA., Within a network federation, the most important factor is interoperability between the systems that make it up when it comes to sharing data and allowing the exchange of information between them. The present project defines a set of strategies and techniques to ensure that this transfer of knowledge, represented in neural computational models, is secure. The key is that this knowledge learned through training is transmitted by sharing the trained models but does not allow the inference of private or critical data from their analysis, either by their structure, their inputs and outputs or their way of treating the data. The solution is to add complexity and confusion to the transferred model but without altering its performance or the original functioning. For greater security, it is proposed that exchanges be carried out through a Distributed Ledger Technology (DLT). In order to make the process more efficient, the reduction of the size of the model to be transferred and the optimal representation of its structure and content are studied. The research leading to these results has received funding from the Smart Networks and Services Joint Undertaking under the European Union's Horizon Europe research and innovation programme under G.A. No. 101096120 (SEASON), the MICINN IBON (PID2020-114135RB-I00) project and from the ICREA Institution.
- Published
- 2024