Darktrace新的网络安全公司与剑桥大学的数学家合作,研发了一种利用机器学习来捕猎内部漏洞的工具。它运用无监督自学方法,查阅大量并未标记的数据,并寻找不遵循典型模式的碎片。这些原始数据汇聚到60多种不同的无监督自学算法中,它们相互竞争以发现异常不道德。
2013,一群英国情报人员注意到一些怪异的事情。虽然大多数维护数字基础设施的希望都集中于在制止坏人转入,但很少有人注目相反:制止他们泄漏信息。
基于这个点子,该集团正式成立了一个新的网络安全公司,称作Darktrace。该公司与剑桥大学的数学家合作,研发了一种利用机器学习来捕猎内部漏洞的工具。然而,它们不必须在反击的历史实例上训练算法,而是必须系统辨识出现异常不道德新的实例的方法。
他们改向无监督自学,这是一种基于一种少见的机器学习算法的技术,它不必须人类登录找寻什么。Darktrace早已把注意力放到一种被病毒感染的装置上,展现出出有异常的不道德。“这十分像人体自身的免疫系统,”该公司的CO-CEONicoleEagan说道。
尽管它是简单的,但它具备自我和非自我的内在感觉。当它找到不属于自己的东西时,它不会有极为准确和较慢的反应。绝大多数机器学习应用于依赖监督自学。这还包括给机器获取大量细心标记的数据,以训练它辨识一个狭义的模式。
说道你想要让你的机器辨识黄金猎犬。你喂它几百或几千张金毛猎犬的照片,以及那些不是金毛猎犬的东西,同时具体地告诉他它哪些是金毛猎犬。
最后,你不会找到一个非常不俗的金毛猎犬辨识机器。在网络安全中,有监督的学习效果很好。你训练一台机器,面临你的系统以前面对的各种威胁,并且无情地追赶它们。
但有两个主要问题。一方面,它只限于于未知的威胁;不得而知的威胁依然潜藏在雷达下。
另一方面,监督自学算法最适合于均衡数据集——换言之,那些具备完全相同数量的示例,解释它在找寻什么,以及它可以忽视什么。网络安全数据高度不均衡:很少有威胁不道德的例子埋在绝大多数长时间不道德中。一个特定子网络内所有相连的可视化。幸运地的是,在监督自学告终的情况下,无人监督的自学比不上了。
后者可以查阅大量并未标记的数据,并寻找不遵循典型模式的片段。因此,它可以面临系统从未见过的威胁,并且必须很少的异常数据点来这样做到。
当Darktrace部署其软件时,它不会在客户端的网络周围创建物理和数字传感器来绘制其活动。这些原始数据被传输到60多个有所不同的无监督自学算法,这些算法相互竞争以发现异常不道德。
然后,这些算法将它们的输入吞下到另一个主算法中,该主算法用于各种统计资料方法来确认60个中的哪些要听得,哪些要忽视。所有这些复杂性被PCB成一个最后的可视化,容许人类操作员较慢地查阅和号召有可能的违规行为。当人类下一步该做到什么时,系统就可以通过隔绝被病毒感染设备的所有外部通信来隔绝裂痕直到解决问题。
然而,无人监督的自学并不是一颗银弹。随着攻击者显得更加简单,他们在欺骗机器,无论他们用于什么类型的机器学习方面都显得更佳。有一个猫和老鼠的游戏,攻击者可以尝试转变他们的不道德,DawnSong说道:“网络安全和机器学习专家在加州大学伯克利分校。
作为对此,网络安全界早已改向了大力的方法——“更佳的安全性架构和原则,以便系统通过建构更为安全性,”她说道。但要完全根治所有违规和欺诈不道德还有很长的路要回头。却是,她补足道,“整个系统的安全性各不相同它最脆弱的环节。
”录:现实生活中经常不会有这样的问题:缺少充足的先验科学知识,因此无法人工标示类别或展开人工类别标示的成本太高。很大自然地,我们期望计算机能代我们已完成这些工作,或最少获取一些协助。
根据类别不得而知(没被标记)的训练样本解决问题模式识别中的各种问题,称作无监督自学。
本文关键词:威9国际真人,人工智能,之无,监督,学习,模型,可,发现,入侵
本文来源:威9国际真人-www.cptouxiang.com