关于安全隐患类研究生毕业论文范文 与机器学习隐私的安全隐患方面论文范文文献

该文是关于安全隐患论文范文,为你的论文写作提供相关论文资料参考。

机器学习隐私的安全隐患

机器学习需要使用大量数据来对模型进行训练,而一般都会将这些训练数据上传到亚马逊和Google 等运营商所托管的机器学习云服务上,但这样将可能把数据暴露给恶意攻击者.那是否能够把机器学习当作一种服务(机器学习即服务)来使用并保护我们的隐私呢?

机器学习可以算得上是当今计算机科学领域中最热门的学科之一,且很多云服务提供商也开始迅速扩展他们的机器学习服务(MLaaS).

但是这些MLaaS 都附带了一条警告信息:所有的模型训练数据都将暴露给服务操作人员.即使服务操作人员不会专门访问这些数据,某些带有其他动机的人也有可能访问到这些数据.

隐私是双向的

虽然用户可能并不希望透露他们的模型训练数据,但服务提供商那边也有自己需要考虑的隐私问题.一般的情况下,他们并不会允许用户去查看MLaaS 技术的底层实现算法.而Chiron 这种系统模型可以防止服务操作人员查看训练数据,无论现有的机器学习即服务平台是以怎样的模式运行的,Chiron 都不会将训练算法和模型架构暴露给用户,并且只会给用户提供一种黑盒访问模式来访问训练模型.

Chiron 使用的是因特尔的软件保护扩展(SGX),这是一种用来增强应用程序代码安全性的架构设计,但仅仅使用SGX 还是不够的,Chiron 还在Ryoan 沙盒中使用了SGX 平台,这是一种分布式的安全保护沙盒,它可以防止不受信任的用户代码在恶意架构中运行.

威胁模型

Chiron 的目标是保护云环境中用户的训练数据和训练模型(包括查询和输出数据),因此,假设整个平台都是不受信任的,包括其中的操作系统和相应的管理程序.攻击者可以是设备的管理员或者服务操作人员,也可以是已经成功入侵服务平台的恶意攻击者.当然了,攻击者还可以是恶意OS 开发人员,因为他们可以直接记录下用户的输入或者输出信息.

由于训练模型会通过特定的查询语句泄露训练数据,Chiron 可以确保只有提供训练数据的用户才能访问训练完成后的模型.即使攻击者能够获取到云基础设施的完整访问权,也无法查询到模型并访问训练数据.虽然现在从表面上看Chiron 似乎已经覆盖的足够全面了,但MLaaS 的底层硬件还是存在一些安全问题的.

限制因素

SGX 本身并不是无懈可击的,因为英特尔的性能监控单元(PMU)允许不受信任的平台深入了解目标系统底层的运行机制以及正在进行的任务.当前的SGX 允许拥有高级权限的软件修改内存页表,并查看相关代码以及页数据踪迹,而这将导致非常严重的后果.

由于Chiron 的实现是基于英特尔的SGX,所以它不能使用GPU 配合工作,因为GPU 暂时还不能很好地支持SGX 的相关功能.因此,目前的Chiron 还不够完美,可能只有GPU 供应商开始认真考虑安全问题时我们才能更进一步.

性能

除了限制因素之外,Chiron 还可以在保护标准机器学习基础设施的情况下维持设备的正常性能.

在现代这个海量数据的世界里,存在着千千万万个安全漏洞,而攻击者可以用各种各样的方法来利用这些漏洞.没有任何一个系统是绝对安全的,但我们可以通过努力来尽量做得更好.毫无疑问,机器学习绝对会在我们将来的生活中扮演重要角色,如果机器学习能保护好我们的隐私,那得多安逸.

安全隐患论文范文结:

关于对写作安全隐患论文范文与课题研究的大学硕士、相关本科毕业论文安全隐患论文开题报告范文和相关文献综述及职称论文参考文献资料下载有帮助。

1、安全工程论文

2、安全生产论文

3、安全教育论文800字

4、化工安全和环保论文

5、食品安全论文2000字

6、安全论文