(SOTA版本)基于pytorch实现Attack|(SOTA版本)基于pytorch实现Attack Federated Learning

更新日期截止2020年5月22日,项目定期维护和更新,维护各种SOTA的Federated Learning的攻防模型。Github 地址https://github.com/shanxuanchen/attacking_federate_learning
前言
联邦学习通过只对梯度的传输,可以在互不公开数据集的前提下训练模型。然后,也正是这种隐匿性,让Federated Learning非常脆弱,天然不得不在non-iid的数据环境中进行训练(真实情况绝大部分是non-iid)。因此,黑客可以通过poison data,或者backdooor的方式攻击模型,从而使模型无法收敛或者留有后门。
Krum
Krum是2017年NIPS上具有拜占庭容错能力的SGD方法,Krum最核心的思想就是选择每次都会选择最靠近其余个梯度的梯度。这个表达可能有点拗口,通俗易懂点理解就是,找出一个个最集中的梯度集合,其中使用欧拉距离来进行度量。

实现代码如下:
def krum(users_grads, users_count, corrupted_count, distances=None,return_index=False, debug=False): if not return_index: assert users_count >= 2*corrupted_count + 1,('users_count>=2*corrupted_count + 3', users_count, corrupted_count) non_malicious_count = users_count - corrupted_count minimal_error = 1e20 minimal_error_index = -1if distances is None: distances = _krum_create_distances(users_grads) for user in distances.keys(): errors = sorted(distances[user].values()) current_error = sum(errors[:non_malicious_count]) if current_error < minimal_error: minimal_error = current_error minimal_error_index = userif return_index: return minimal_error_index else: return users_grads[minimal_error_index]

Trimmed Mean
基于均值的拜占庭容错SGD,核心思想很简单,就是找最接近均值的个梯度。

实现代码如下:
def trimmed_mean(users_grads, users_count, corrupted_count): number_to_consider = int(users_grads.shape[0] - corrupted_count) - 1 current_grads = np.empty((users_grads.shape[1],), users_grads.dtype)for i, param_across_users in enumerate(users_grads.T): med = np.median(param_across_users) good_vals = sorted(param_across_users - med, key=lambda x: abs(x))[:number_to_consider] current_grads[i] = np.mean(good_vals) + med return current_grads

Bulyan
Bulyan是目前SOTA的一个拜占庭容错算法,它十分巧妙,简单地来说,就是不断循环选择,然后跑一次Trimmed Mean。而特别的是,该算法是使用Krum来选择的。所以,目前SOTA的容错算法是Krum + Trimmed Mean的一个结合。
算法如下:
(SOTA版本)基于pytorch实现Attack|(SOTA版本)基于pytorch实现Attack Federated Learning
文章图片
image.png 代码如下:
def bulyan(users_grads, users_count, corrupted_count): assert users_count >= 4*corrupted_count + 3 set_size = users_count - 2*corrupted_count selection_set = []distances = _krum_create_distances(users_grads) while len(selection_set) < set_size: currently_selected = krum(users_grads, users_count - len(selection_set), corrupted_count, distances, True) selection_set.append(users_grads[currently_selected])# remove the selected from next iterations: distances.pop(currently_selected) for remaining_user in distances.keys(): distances[remaining_user].pop(currently_selected)return trimmed_mean(np.array(selection_set), len(selection_set), 2*corrupted_count)

总结
【(SOTA版本)基于pytorch实现Attack|(SOTA版本)基于pytorch实现Attack Federated Learning】代码里是实现了的,但是由于篇幅问题,最强的攻击模型《A Little Is Enough: Circumventing Defenses For Distributed Learning》留着下一篇。这篇论文攻击了上面三种SOTA的防御机制,值得深入研究与探讨。关于Byzantine SGD的攻防这个方向,其实代码量不大,需要有对SGD收敛性证明的能力,与SGD防御的证明能力。

    推荐阅读