课程咨询: 400-996-5531 / 投诉建议: 400-111-8989
认真做教育 专心促就业
随着人工智能技术的不断发展,越来越多的用户对人工智能的概念也了解的越来越多。但是其中有一些人对人工智能技术还存有疑惑,所以,今天我们就这一问题来给大家做一个简单的讲解。
首先,人工智能的好坏取决于它所输入的训练数据。那些存在偏见的数据——如将女性与护士、男性与医生联系在一起的文本——将会在软件中产生偏见。可用性通常决定了数据的使用情况,比如当局公布的20万封安然公司的电子邮件,由此,该公司因涉嫌欺诈而被起诉。据报道,该公司邮件曾被用于欺诈检测软件和对工作场所行为的研究。
其次,程序员在编写算法时必须更清楚地意识到偏见。与律师和医生一样,编码员也越来越多地承担起道德责任,但他们却很少受到监督。“AI正在对人们的病情进行诊断,也在准备治疗方案,甚至决定是否应该让人进监狱,”Wachter说,“因此,开发这些系统的人应该遵循与人类一样的道德标准。”
Wachter补充道,这一指导涉及技术专家和伦理学家之间的对话。例如,法官依赖犯罪预测来判断准确率是一个道德问题,而不是技术问题。
“所有的算法都在研究相关性——他们发现了规律,并计算出发生事情的可能性,”Wachter说,“如果系统告诉我这个人可能再次犯罪率达到60%,那就可以让他们继续呆在监狱里了,或者再次犯罪倾向是70%还是80%,才能让他们呆在里面呢?或许你应该找社会学家,或几个世纪以来一直处理这些复杂问题的人文专家来找出答案。”
关键的问题是,许多算法都是一个“黑匣子”,公众不知道它们是如何做决定的。科技公司纷纷反对提高透明度,称这将泄露商业秘密,并使他们易受到黑客攻击。当Netflix决定用户接下来看什么内容时,内部运作并不是一个巨大的公共问题。但在处理刑事司法、医疗或教育的公共机构中,非营利组织人工智能组织则认为,如果一个机构不能解释其算法,它就不应该使用,因为赌注太高了。
2018年5月,欧盟将开始实施《全面数据保护条例》,旨在赋予公民任何自动决策的“解释权”,并有权对这些决定提出质疑。对违规行为的罚款将增加到年收入的4%,这意味着像谷歌这样的巨头将会支付数十亿美元。包括Wachter在内的批评人士表示,该法案在某些地方是模糊的——目前还不清楚有多少算法需要必须解释,以及哪些算法的应用需要地方法院来批准,不过该法案仍然开创了一个重要的先例。
光有透明度,没有好的算法流程也是不够的。首先,对普通消费者来说,算法解释可能是难以理解的。“我不太赞成对算法的研究,因为它非常复杂,而且大多数人都无法用这些算法来做其他事情,”总部位于柏林的非营利组织“AlgorithmWatch”的创始人Matthias Spielkamp解释道,“不妨看看条款和服务——这里面显示很多透明度。它们会告诉用户其在100页上做了哪些?然后还有什么别的选择?”透明度也许不能解决人工智能的深入偏见,但在短期内,它开创了问责制,让公民知道它们什么时候会收到算法的歧视。
不久的将来,任何形式的监管也将迎来新的挑战。简单的人工智能基本上是一个数学公式,里面全是类似于“如果这是一个”的决策树构成的。人类设定了软件“知道”的标准。事实上,人工智能将越来越依赖于深度神经网络。在这些网络中,软件可以提供大量数据,并创建其自身的相关性。在这种情况下,人工智能就是在自我教育。我们希望它可以超越人类的理解,发现我们看不到的模式,但我们害怕的是,我们不知道它是如何做出决定的。
这就是为什么整个社会在2017年面对越来越多的机器学习的缺陷。公共话语中存在的AI偏见越多,那么其研究就越具有优先权。当像欧盟这样的机构在算法透明度方面采取统一的法案时,28个欧盟成员国和世界各地都对AI偏见进行回应,甚至包括大学、非营利组织、艺术家、记者、立法者和公民。这些人与技术专家一起,将教人工智能如何合乎道德。
作者:申达
来源:亿欧
【免责声明】:本内容转载于网络,转载目的在于传递最新信息。文章内容为作者个人意见,本平台对文中陈述、观点保持中立,不对所包含内容的准确性、可靠性与完整性提供形式地保证。请读者仅作参考。