AI英雄 | 对话Stepka:AI的道德问题本质是数据使用问题

AI英雄 | 对话Stepka:AI的道德问题本质是数据使用问题

点击上方蓝字 关注网易智能

为你解读AI领域大公司大事件,新观点新应用


AI英雄 | 对话Stepka:AI的道德问题本质是数据使用问题


出品 | 网易智能(公众号 smartman163)


期号 | 总第82期


译自 | Brink News


本期对话嘉宾是Machina Ventures管理合伙人Matthew Stepka。


Machina Ventures是一家专注于早期阶段,人工智能和数据科学支持公司的投资公司。而Matthew Stepka曾在谷歌工作9年,曾任Google特别项目副总裁,负责领导和培育战略举措,尤其是具有高社会影响力的任务驱动型项目。


随着人工智能在全球商业格局中成为越来越重要的组成部分,使用及应用AI的道德问题也日益突出。Matthew Stepka则研究了许多此类问题。例如,员工数据是如何在外部被使用的?在日益普遍的零工经济中,契约工人与受薪雇员享有同样的隐私权吗?在这些情况下,谁是弱势群体?


在采访中Stepka先生谈到了机器学习和数据收集的本质及使用方式,以及在人工智能发展领域产生的更广泛的哲学和存在主义的问题。


AI的道德问题本质是数据使用问题


问:工作场所使用的人工智能有一种统一的道德准则吗?


Stepka:目前最大的问题其实是关于使用数据的道德问题。具体来说,在工作场所中可以使用哪些数据?一般情况下,员工没有太多权利。通常,雇主可以使用员工在其系统上创建的任何数据。


除此之外,我认为人们还没有一个统一的理解。我认为,消费者正在逐渐意识到数据是如何被越来越多地使用的。加州也提出了一些立法,当然欧洲也有,关于如何使用数据的问题。所以数据是AI唯一的燃料,是AI的唯一驱动力。我认为这才是大多数道德需要约束的地方。


问:这些公司是否在适应与以往不同的道德实践,试图解决这些问题?


Stepka:我听到过的关于这个话题的对话,都是这样开头的:“你在公司的设备上留下的所有数据,所有与你的工作相关的信息,公司在使用这些数据来保护自己的利益时都不会考虑太多。


如果你在工作的电脑上安装了Gmail,那么所有这些东西都是加密的,公司也无法访问这些数据。他们可能知道你在访问Gmail,但他们不知道你在做什么。即使通过人工智能技术,他们也无法获得这些数据。除此之外,他们知道你在做什么,你在使用你的公司电话,你所在的位置。


我认为公司更多的只是让员工注意到,机器上有人工智能,我们将用它来执行我们的政策。公司推出关于隐私、滥用等等的规定,以确保大家在我们的政策下成为优秀的管理者和优秀的员工。


如何对待员工数据


问:员工数据可以和应该被拿来做什么?


Stepka:员工与雇主的关系目前仍然是一个很开放的概念。关于公司和员工的整个概念都在发生改变。似乎Uber司机以及其他很多人都在争论:Uber司机是员工吗?如果你是一家与他们合作的合同公司,情况会与往常不同——通常是你和那家公司签订的合同,比如,像Uber司机的这种情况,他们不会称这些司机为员工,因为他们可能不是合法雇员。


这就变成了公众舆论法庭上的一个有趣的道德问题。显然,在大多数情况下,你可以签订任何合同。你可以说,“你想和我们一起工作吗?我们是一家大公司,你是一家小公司,或者个体,或者承包商。我们可以有效地延长这些数据,在某种程度上控制你。例如,可能要求你共享某个可视化文件或者地图等等。


问:监管是否应该在其中发挥作用?


Stepka:我认为有几件事可以作为很好的原则。我认为在一定程度上向员工披露你所做的事情可能是个好主意。员工是消费者,他们对隐私有一定的期望。在这种情况下他们可能没有意识到自己到底还拥有多少隐私。


尽管如此,公司并没有无限制地使用这些数据。例如,如果公司的业务与这些数据没有任何关系,那么就不会无限制地去使用。


另外,在员工和雇主之间存在利益冲突的情况下,雇主不能使用这些数据做不利于雇员的事情。


能否造出有道德准则的AI机器?


问:你认为随着技术的进步,有可能创造出道德的人工智能机器吗?


Stepka:实际上,有三件事可以控制AI。最简单的方法是通过数据,因为这是AI的驱动力。所以你可以知道它能访问哪些数据,不能访问哪些。


第二个是输出。也就是说,不管你有什么数据,你都不能做某些事情。我举一个自动驾驶汽车的例子。无论人工智能推荐什么,你都不能以超过每小时25英里的速度前进。你在输出端设定一些逻辑,所以它不能做某件事。这可能就像,在雇主或员工的情况下,你可能会说,“不管怎样,这些数据不能对外公开。”


第三种方法是一个更复杂的选项,但坦白讲,也是更微妙的,就是控制AI的过程以及如何使它更有效率,理解AI在做什么。这只能通过另一个机器人来完成,创建机器人来执行像我提到的政策规则。他们会监控系统以确保没有任何人工智能违反了这一规定。


问:你对这项技术是持乐观态度,还是认为它有可能造成巨大的伤害?


Stepka:我认为我们都应该保持乐观。我认为AI带来的巨大的价值所创造的巨大潜力,可以帮助人类和世界解决真正的问题。总的来说,很多伟大的事情都将来自于它。


在短期内,就像我们在这里说的,机器学习,以及5年、10年以内应用,我们应该保持警惕。我们必须找到一些事情的解决办法,但我们还没有找到。现在仍然有很多问题。我们如何确保它们做正确的事?我们到底应该给它们多少信息?我们有很多事情要弄清楚。


(选自:Brink News 编译:网易智能 参与:李擎)


网易智能

聚焦AI 读懂下一个大时代

长按扫码关注我们

AI英雄 | 对话Stepka:AI的道德问题本质是数据使用问题

加入社群


AI社群(AI专家群、AI黑板报)火热招募中,欢迎对AI感兴趣的小伙伴,添加小助手微信 kaiwu_club,说明身份即可加入。


往期精华


人物专访  沈向洋 | 于尔根 | 洪小文 | 李德毅 | 尤瓦尔 | 哈萨比斯 | 宋继强 | 杨强 | 余凯 | 邓志东 | 芮勇 | 戴文渊 | 石博盟 | 韦东 | 黄学东


行业特稿  抢滩智能音箱(上) | 抢滩智能音箱(下) | 自动驾驶行业素描(上) | 自动驾驶行业素描(下) | 机器翻译技术与应用


重磅报告  麦肯锡(二) | AlphaBeta & ABC | 埃森哲 |  英国* | Internet Society | Forrester | VertoAnalytics 麦肯锡(一) | 苹果公司 | 耶鲁大学 


AI英雄 | 对话Stepka:AI的道德问题本质是数据使用问题