当前位置: 移动技术网 > 科技>人工智能>ai动态 > 真真假假:在人类社会中,人工智能如何防止被骗

真真假假:在人类社会中,人工智能如何防止被骗

2018年04月10日  | 移动技术网科技  | 我要评论

人工智能能够准确识别图像中的物体,或者听懂人类所表达的语言,但它的计算程序并不像人脑那样运作这意味着人工智能不会像人类一样可以防止受到欺骗。

据新科学家杂质报道,来自以色列巴伊兰大学和Facebook的人工智能团队的研究人员已经证明,有可能对音频片段进行细微的调整,人类能够听懂,但是人工智能却能识别出完全不一样的声音。这种方法的原理是在一个声音片段中加入一层分贝较小的噪音,这个声音片段与众不同,它能模仿神经网络并和其他语音融合在一起。

该团队将这个新算法程序命名为“霍迪尼”,并将它应用到一系列音频片段中,然后通过谷歌语音进行转录。一个原始声音片段是:

Herbearingwasgracefulandanimatedsheledhersonbythehandandbeforeherwalkedtwomaidswithwaxlightsandsilvercandlesticks.

她牵着儿子的手,举止优雅,充满活力。两个女仆走在她前面,手里拿着蜡灯和银烛台。

当这一原创内容通过谷歌语音转录时,它成了:

Thebearingwasgracefulananimatedshelethersonbythehandandbeforehewalkstwomaidswithwaxlightsandsilvercandlesticks.

通过听力测试,被改编的版本与人耳所听到的并没有区别,它被转录为:

MarywasgratefulthenadmittedshelethersonbeforethewalkstoMayswouldlikeslicefurnacefiltercountsix.

该团队的成就也可以应用于其他机器学习的算法程序中。对人的图像进行调整,可能会让人工智能的算法程序发生错乱,人工智能会将一个摆pose的人误认为这个人站错了位置。通过在马路场景的图像中添加噪声,该团队能够骗过汽车应用程序的人工智能算法程序。这个算法程序通常是用来对路况和路标进行分辨的。这些基于图像的研究结果,与去年由OpenAI和谷歌大脑的机器学习机构的研究人员发布的研究结果相似。

这些所谓的对抗样本似乎是一个奇怪的研究领域,但它们可以用来对机器学习算法进行压力测试。更令人担忧的是,它们也可以被恶意利用,诱使人工智能听闻一些根本不存在的东西例如,让自动驾驶汽车在路上看到虚假的交通路况,或者让智能语音提醒听到假的指示信息。当然,实际上,在实际生活中运用这些技术,和在实验室里做实验是完全不同的两码事。不仅仅是因为获取数据是一个棘手的问题。

也许最有趣的便是找到一种方法来保护人工智能不受困扰,但这其实也是相当困难的。正如我们在过去所解释的那样,我们无法真正理解深层神经网络的内部如何运作,这意味着我们不知道为什么人工智能会感受到声音片段或图像中的细微变化。在我们做到这一点之前,对人工智能算法来说,对抗样本将一直存在。

如对本文有疑问, 点击进行留言回复!!

相关文章:

验证码:
移动技术网