1.只能根据寄有的数据来学习;不会判断数据正确性。
深度学习可以在不理解数据的情况下模仿数据中的内容:它不会否定任何数据,不会发现社会上的偏见,而只是“学习数据”。

深度学习只相信它在数据中频繁看到的事物、底层模式和趋势,因此它会放大人类社会的偏见和问题。

如果数据显示被逮捕的黑人比白人多,那么一旦有人犯罪,深度学习将首先怀疑黑人。数据显示公司董事会董事中

男性比例高于女性,深度学习将在招聘中更倾向于男性应聘者。

这个缺点会导致雇佣一个人类员工,专门创建来自理想社会的假的、公正的数据,在这里白人与黑人被逮捕的频率相同,董事会中50%的董事都是女性,等等。


2.无法修正学习结果,除非重新训练。
你无法通过在训练之后添加补丁,来修复一个带有偏见、种族和性别歧视的深度学习模型。深度学习是一个神经网络,与其他人工智能方法不同,你无法通过局部补救来修改某个答案,而是必须使用不同的、完全平衡以及公正的、稀有的真实世界数据对该网络进行重新训练。


3.无法解释做出的决策。

深度学习给出的是非自然(合法)语言解释的结果。深度学习的代码容易获得,却很难为人类所理解接受,因为

即使最好的数学家或其他算法也无法明白它。

比如一个银行 审批贷款的深度学习 系统,在拒绝了客户的贷款申请之后,而无法给出合理的解释,那么

被自动拒绝了贷款的用户集体起诉银行的自动决策单元,将会变成常态,所以无法解释便意味着“无以辩护”、

被罚款以及一场品牌公关灾难。


4.应用市场较狭窄。

在那些决策结果会造成财政、健康的影响,或者存在歧视的领域,因为深度学习无法帮助人们理解决策是否公正以及为什么

公正的时候,这些领域都可能遭到法院的处罚自动驾驶领域或许也是有风险的。似乎在艺术、游戏或高级幽默以外

的领域使用深度学习都有法律风险。目前只有图像识别、或如何赢得很多游戏方面做的还不错。


Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐