什么是大数据科技 ,初中科技文 ,河北讯讯科技

为了搞懂 AI 的「脑回路」,腾讯走出了重要的一步

时间:2022-01-17 17:38:32 | 作者:爱科技网 | 点击: 120 次

人工智能可以帮助我们进行决策,但谁能来解释 AI 做出的判断对不对呢?

2021 年 6 月,杜克大学一项发表在 AI 顶会 CVPR 的研究曾经引发人们的讨论热潮。一个名为 PULSE 的人工智能算法可以把加了马赛克的人脸照片恢复成清晰的面部图像。

PULSE 模型使用著名的生成对抗网络 StyleGAN 来生成高分辨率图像,与其他方法相比生成的图片效果更好,清晰度更高,细节也更加丰富。

不过人们在测试之后也发现了一些问题,比如你把美国前总统奥巴马的打码照片交给 AI,它会将其还原成一个白人:

为了搞懂 AI 的「脑回路」,腾讯走出了重要的一步

在 PULSE 的「偏见」被曝光后,人工智能社区瞬间被引爆,项目作者首先给出了回应,表示出现这种情况可能是因为 StyleGAN 的训练数据集,也有可能存在其他未知因素。

人工智能领域的先驱,图灵奖获得者 Yann LeCun 对此甚至还在社交网络上和人们论战,他先是解释为什么 PULSE 会出现这样的偏见,但并未引来普遍的认同。

为了搞懂 AI 的「脑回路」,腾讯走出了重要的一步

之后 Yann LeCun 又在多条推文中解释了自己关于偏见的立场,由此引发的讨论远远超出技术的范畴。

对此,从事数据科学领域超过十年的 Luca Massaron 认为,尽管从技术角度来看 Yann LeCun 是完全正确的,但看看这种观点被抛出之后公众的反应,你就会知道谈论它是多么的敏感。

PULSE 还只是一项学术研究,去年在 Facebook 的推荐算法中,包含黑人与白人平民和警察发生争执的片段被标记为「有关灵长类动物的视频」的事件引发了轩然大波,脸书一度禁用了视频推荐功能并道歉。

在获得广泛应用的背后,由于 AI 是由大规模数据驱动,无需阐明推理逻辑性的方法,所作出的「统计规律」判断经常会受到人们的质疑。

可解释性,AI 的发展的重要方向

深度学习的运行机制难以理解,对于 AI 工程师们来说就像「炼丹」——难以溯因,难以调参,对于大众和监管机构而言则是个「黑箱」——不知如何运作,也不知它给出的结果是否公正。

虽然并非所有人工智能系统都是黑盒,AI 也并不比传统形式的软件更加不可解释,但在人工智能模型复杂度直线上升的今天,问题正在逐渐变得明显,AI 越来越先进,我们面临的挑战也越来越大。

人们一直在各个方向上,为 AI 技术的可解释性而努力着。

为了搞懂 AI 的「脑回路」,腾讯走出了重要的一步

2021 年,吴恩达等人在 Google AI 发表的「识别猫」研究中,神经网络通过样本学习理解了猫的概念,通过特征可视化方法我们可以看到算法学习的结果。

近年来,各国面对人工智能技术落地的政策着重强调了保护隐私和可解释性。2021 年 5 月,有「史上最严格的隐私和数据保护法」之称的欧盟《通用数据保护条例》(GDPR)正式生效。该法案被称为是 20 年来数据隐私条例的最重要变化,同时,有关「算法公平性」的条款要求所有公司必须对其算法的自动决策进行解释。

在我国,去年 8 月通过的《个人信息保护法》第 24 条也明确要求必须确保自动化决策的透明度和结果公正。

如何才能让人工智能在带来便利的同时保证可解释性?这意味着我们需要构建起可信的 AI 体系。在业界看来,在 AI 技术应用时考虑可解释性,需要考虑公平性并消除偏见,减小模型漂移,实行风险管理,在模型部署的全生命周期进行持续监控,最终形成的工具体系需要在多种不同硬件环境下部署。

可解释 AI 并非算法模型中某个独立的环节或具体工具,要想构建可解释 AI,就需要在 AI 模型整个生命周期的每个步骤持续介入,在每个环节都构建不同的可解释方法。近几年来,众多科技企业纷纷加大投入,构建了各种可解释 AI 相关工具和服务。

在 AI 模型构建的数据准备阶段,微软提出了 Datasheets for Datasets,用于记录数据集的创建、组成、预期用途、维护等属性,关注数据集是否存在偏见。

而谷歌提出的 Model Cards 工具包则主要关注模型的部署和监控环节,可报告机器学习模型的出处、效果和道德信息评估,对算法本身的表现提供解释。

为了搞懂 AI 的「脑回路」,腾讯走出了重要的一步

国内的互联网企业也在采取行动。比如,美团在去年 9 月发布文章,公开了关于配送时间的四种评估算法,介绍了预估送达时间背后的算法逻辑。