淮邦资讯网

热点
分享有价值的互联网新闻
淮邦资讯网-国内外新闻时事,奇事,新鲜事

伦理漫画手机在线观看 AI算法能“偷听”:突破伦理的“灰犀牛”并不远

更新时间:2021-02-06 04:22:04

漫画/勾犇漫画/钩子

人机未来

在人工智能和大数据时代,公民个人信息权利的保护比技术的发展更加脆弱,需要尽快找到可行的解决方案。

人工智能算法可以窃听用户信息

人工智能算法能“窃听”你的信息吗?这个问题恐怕很多人还是半信半疑,很难给出明确的答案。但是剑桥大学的一项新研究表明,这是非常可能的。

“窃听”的原理是,当人们轻敲手机和平板电脑的屏幕时,就会产生声波。这些声波通过设备内置的麦克风进行采集和恢复,从而可以“听到”敲击屏幕的声音。结合人工智能算法,通过将听到的声音与键盘位置相关联,可以窃听用户信息。

进行这项研究的剑桥大学计算机实验室试验了自己的算法模型。结果表明,对于四位数密码,该模型在10次尝试后能准确恢复54%的密码;经过20次尝试,150个密码中有91个可以恢复,识别准确率为61%。

该研究论文发表于3月26日,题为“倾听你的触摸:智能手机上新的声学侧通道”。

对于我们这些离不开智能手机的人来说,这项研究的结果无疑是一个打击。前不久,一些手机应用“窃听”了用户信息,短时间内爆开朋友圈,引起极大质疑。相关平台迅速出面辟谣,很多针对性测试一时半会儿也无法拿出确凿证据。

坦白说,我们不相信相关平台是故意偷听,更愿意认为这是大数据自动生成“用户画像”。只是画像的准确性真的很吓人。

收紧技术伦理和法律的围栏

但从另一个角度来看,窃听嫌疑是一个响亮的警钟,它再次警告我们,在人工智能和大数据时代,对公民个人信息权利的保护比技术的发展更加脆弱,我们必须尽快找到可行的解决方案。

同时,我们必须对以“进步”为名的技术发展保持高度的警惕和怀疑,始终从人的尊严和技术伦理的高度来审视它。这是必要的谨慎,而不是保守,因为墨菲定律早就非常清楚,如果事情出了差错,不管可能性有多小,总会发生,造成最大可能的损害。

“偷听”可能吗?剑桥大学的研究表明,肯定会的。虽然受技术限制,但目前不可能窃听的这么准。但久而久之,智能手机等搭载人工智能算法的设备,肯定会赤裸裸地“偷”人。随着科技的飞速发展,这个时代已经不远了。

我们已经清楚地看到那里的“灰犀牛”,它正向我们扑来。然而,由于无数的计算和利益的犹豫,人类就是找不到切实可行的预防和应对措施。

这正是我们目前面临的恼人的困惑。为了公民个人信息的安全,目前最好的办法是用众多的法律法规尽可能地收紧围栏,同时加大处罚力度。然而,这种方法,受制于文化环境和执法力度的巨大差异,往往很难真正落到纸面上。

更弱的是,技术伦理显然没有得到应有的重视,缺乏现实的灌输和培养。很多技术专家只痴迷于技术突破。因为远离了远端的技术用户和受影响的人群,他们几乎感受不到技术发展可能带来的烦恼和痛苦。其实“窃听”的嫌疑恰恰反证了技术伦理缺失可能带来的问题。

人工智能和大数据是当今社会的发展趋势,任何力量都无法阻挡它们的前进。我们承认并愿意享受这种进步,但前提是它们应该为人类服务,而不是羞辱和奴役人类。

□徐炳

热门文章

官方微信公众号