Sherpa.ai Federated Learning eta Differential Privacy Framework: Babestu zure erabiltzaileen pribatutasuna, Adimen Artifizialaren botereari uko egin gabe
Teknologia hau disruptiboa izan liteke, datuen pribatutasuna mantentzea nahitaezkoa den egoeretan:
- Datuek isilpeko informazioa dutenean: posta elektronikoa, gomendio pertsonalizatuak eta osasuna esaterako. Aplikazioek, datuen pribatutasunerako mekanismoak eman behar dituzte erabiltzaile multzo batengandik ikasteko, datu sentikorrak erabiltzailearen gailu bakoitzean dauden bitartean.
- Datuak datu-siloetan daudenean: autoen osagaien fabrikatzaile batek, adibidez, bere datuak ezagutzera ematea beharbada ez du gustukoa izango. Baina besteen datuetatik ikasten duten ereduetatik onura aterako du, ekoizpena eta hornidura katearen kudeaketa hobetzeko.
- Datuen pribatutasunarekin lotutako araudia dela eta: esaterako, bankuek eta telekomunikazio enpresek ezin dituzte banakako erregistroak partekatu, baina hainbat erakundetan banatutako datuetatik ikasten duten ereduez baliatuko lirateke.
Sherpa.aik ikaskuntza federatua demokratizatzea du ardatz, ikaskuntza federaturako berariaz diseinatutako metodologiak, sekuentziak eta ebaluazio-teknikak ematen baititu. Shepa.ai Federated Learning Framework-ak aukera ematen die garatzaileei ikaskuntza-agertokiak simulatzeko, frameworkak emandako eredu, algoritmo eta datuekin, eta baita euren datuekin ere.
import numpy as np
import tensorflow as tf
import shfl
from shfl.federated_government import FederatedGovernment
# Load data to use in simulation
database = shfl.data_base.Emnist()
train_data, train_labels, test_data, test_label = database.load_data()
# Deploy data over data nodes
iid_dist = shfl.data_distribution.IidDataDistribution(database)
federated_data, test_data, test_labels = iid_dist.get_federated_data(num_nodes=20,
percent=10)
# Create function that builds a model
def model_builder():
model = tf.keras.models.Sequential()
model.add(tf.keras.layers.Flatten(input_shape=(28,28)))
model.add(tf.keras.layers.Dense(64, activation='relu'))
model.add(tf.keras.layers.Dropout(0.1))
model.add(tf.keras.layers.Dense(10, activation='softmax'))
model.compile(optimizer="rmsprop",
loss="categorical_crossentropy",
metrics=["accuracy"])
return shfl.model.DeepLearningModel(model)
# Choose aggregattor
aggregator = shfl.federated_aggregator.FedAvgAggregator()
fed_government = FederatedGovernment(model_builder, federated_data, aggregator)
# Run a few rounds of federated learning
fed_government.run_rounds(3, test_data, test_label)
Erabilera-kasuak
Diagnostikoak eta tratamenduak hobetu itzazu, pazienteen datu seguruak eta pribatuak erabiliz
Osasun-sektoreko datu sentikorrek datuen babeserako erregulazio zorrotzak bete behar dituzte. Osasun-informaziotik ikasi eta pazienteen datuak modu seguruan partekatu ahal izateko, Ikaskuntza Federatua erabil daiteke, horrela erakunde medikoek datuen pribatutasuna ziurtatu ahal dute eta, aldi berean, ahalik eta prozesu, tresna diagnostiko eta zainketa aurreratuenak eskaini.
Funtsak seguru gorde itzazu bezeroen datuak partekatu gabe
Bankuek eta finantza-erakundeek dirua zuritzeko transakzioak identifikatzeko erabil dezateke Ikaskuntza Federatua, transakzioen datu pribatuak eredu trebeagoak eraikitzeko erabiliz. Sistema bera erabiltzen duten banku guztiek besteen transakzioen datuei onura aterako diete, baina euren datu gordinak ezta bezeroenak lehiakideei erakutsi barik.
Industria 4,0 ezar ezazu, datu sentikorrik eman gabe
Mundu osoko bezeroei operazio- eta mantentze-zerbitzuak ematen dizkieten enpresek Ikaskuntza Federatuari eta Pribatutasun Diferentzialari onura atera diezaiekete, eskura dauden ekipamendu-datu guztietatik ikasten baitute, bezeroen datu sentikorrak azaldu gabe. Lankidetza anonimoaren bidez, instalazioek, makinek eta edozein tamainatako fabrikek modu eraginkorragoan eta adimentsuagoan jardun dezakete, datu pribatuak babestuta dauden bitartean.
Ikerketan aurrera egin ezazu framework pribatua erabiliz
Unibertsitateek eta ikerketa-erakundeek Ikaskuntza Federatua erabil dezakete, beren ahaleginak modu anonimoan bateratzeko, ikerketan aurrera egiteko eta euren aurkikuntzak zabaltzeko, Framework Federatu bati esker haien datuak pribatuak mantentzen direlarik.
Zaintza automatizatuko ereduak entrenatu eta anonimatua ziurtatu
Machine Learningen zaintza automatizatuko sistemen ereduak entrenatzeko, hainbat establezimenduren ereduak eta haien segurtasun-ekipamendua eta informazioa erabil daitezke, zaintzaren irudiak ezta datuak eskuratu gabe. Teknologia hau erabiltzeak anonimatua eta pribatutasuna bermatzen ditu, eta bitartean segurtasun- eta babes-neurriak handitzeko modua eskaintzen du, Adimen Artifizialeko teknikak erabiliz.
Edge Computing erraztu eta ereduak datuen jatorrian entrenatu
Gaitasun konputazionalak dituzten gailuen garapen azkarrak, hala nola mugikorrak eta IoT gailuak, eredu konplexuetatik ikasteko eta datuak deszentralizatzeko aukera sortu du, Edge Computing delakoaren bidez. Ikaskuntza Federatuak Machine Learningen ereduak gailu ezberdinetan hobetzen laguntzen du, informazio globala nodoen artean partekatzen duelarik, baina datuak gailu bakoitzean pribatu jarraitzen direla.
Erabiltzaileen pribatutasuna errespetatzen duen merkatuan dagoen framework-rik ahaltsuena da, Ikaskuntza Federatuko teknologia berrienean oinarritua.
FRANCISCO HERRERA, PH.D.
Granadako Unibertsitateko Informatika eta Adimen Artifizialeko katedraduna; Deep Learningen eta Machine Learningen Ikertzaile Senior Elkartua Sherpa.ain
- Matematikan Doktorea
- Ingeniaritza eta Informatika arloetan oso aipatua den ikertzailea (Thomson Reuters)
- Espainiako Informatika Sari Nazionala
- Argitaratutako 331 aldizkari artikulu baino gehiago eta Google Scholar-en 85.240 aipamen baino gehiago.
Competitive Benchmarking
Federated Learning and Differential Privacy Features | ||||||
---|---|---|---|---|---|---|
Federated Learning Framework | ||||||
Use Federated Models with different datasets | ||||||
Support other libraries | ||||||
Sampling Enviroment: IID or Non-IID data distribution | ||||||
Federated Aggregation Mechanisms | ||||||
Federated Attack Simulation | ||||||
Differential Privacy | ||||||
Mechanisms: Exponential, Laplacian, Gaussian | ||||||
Sensitivity Sampler | ||||||
Subsampling methods to increase privacy | ||||||
Adaptive Differential Privacy | ||||||
Desired Properties | ||||||
Documentation & Tutorials | ||||||
High-level API | ||||||
Ability to extend the framework with new properties |
- Complete
- Partial
- Not available
- Not specified