人工智能越发展,人类的责任越重大

#TED 17:41 1246

众译鸣谢

原文字幕: 原文字幕由译学馆搜集制作完成

译文字幕: 启点—飞雪群山于2017.03.15制作完成

审核过程: 6

字幕详情

[启点字幕组]
在我刚上大学那会儿
得到的第一份工作就是作一名程序员
当时我还很年轻
在公司从事编程工作
没多久
有个部门经理跑到我这儿来
对我耳语道
“它能看出来我在撒谎吗”
当时办公室里并没有其他人
“谁能看出你在撒谎啊 干嘛这么小声呢”
经理指着办公室的电脑 说道
“它能看出我在撒谎吗”
呵呵 其实那个经理和前台小姐有染
我当时还很年轻
所以 我对他小声喊道
“没错 电脑能看出你在撒谎”
我笑了 但事实上我在笑我自己
如今 已经有了
能够通过分析人脸 判别出我们的情绪状态
甚至辨别出我们是否在撒谎的计算系统
广告商 甚至政府部门 都对此十分感兴趣
我之所以会成为一个程序员
是因为我也是痴迷于数学和科技的人中的一个
但一路走来 当我了解到核武器的有关知识
我对科技中的道德问题产生了浓厚的兴趣
并感到困惑
然而 由于家庭环境的因素
我必须尽快的找份工作
所以我就告诉自己 嘿 去技术领域混吧
在那儿你能轻松的找到一份工作
而且无需处理任何棘手的道德问题
然后我就挑了计算机领域
好吧 哈 哈 哈 都在笑我
如今 计算机科学家正在创建
能够控制十亿人日常所需的平台
他们正在开发可以自主选择碾压对象的汽车
甚至正在开发
可能在战争中致人死地的机器和武器
道德沦丧
这就是机器智能
现在我们运用算法来做各种决定
哪怕是对从未遇见的新情况也是如此
我们会向算法求证一些没有标准答案
主观的
开放式 且具有价值的问题
我们会问这样一些问题
“企业应该雇佣什么样的人呢”
“应该显示哪个刚更新的朋友圈”
“哪个罪犯更可能会再犯罪”
“哪条新闻或者电影该被推送呢”
看吧 没错 我们确实已经用了一段时间的计算机
但今非昔比
这是个历史性的转折
因为我们不能将计算用于这样涉及主观的决定
这与我们将计算用于驾驶飞机 修桥
登月等是不一样的
飞机更安全吗 桥梁会摇摆或垮塌吗
在这些领域中 有约定俗成的明确标准
和自然法则引导我们
而在无章可寻的人类事务中
我们并没有这样的行为规范
更复杂的是 软件功能正变得更强大
但同时也变得更加不透明 更复杂
最近十年来
复杂的算法正大踏步地发展更新
它们能够识别人脸
可以破译笔迹
能识破信用卡诈骗
还能阻挡垃圾邮件
进行语言互译
它们能在医学影像中探测到肿瘤
还能在国际象棋和围棋中击败人类
这种发展进步很大程度上要归功于 “机器学习”
它不同于传统的编码过程
你不用费心给出精细 正确的指令
它更像是你饲养并喂食大量数据的一个系统
包括杂乱无章的
像我们日常的数字生活中所产生的数据那样
系统从这些数据中汲取信息
并且 关键是
这些系统不会在一成不变的逻辑下运行
它们不会仅给出一个简单的答案
而是给出“这个可能更像是你要的”这样的回复
现在 它的优势在于:这种方法真的势不可挡
谷歌人工智能系统的老大称之为
“不可思议的数据效应”
但缺点是
我们并不了解系统究竟学习了什么东西
实际上 这就是它的能力所在
这不像是给计算机输入指令
而更像是训练一只
我们不能真正理解和控制的机器狗
这就是我们的问题了
当人工智能系统犯错的时候事情就麻烦了
当它把事情做对时也是个问题
因为对于主观问题 我们分不出它是对的还是错的
我们不知道这个东西在想些什么
那么 设想一个雇佣算法——
即一种运用机器学习并挑选雇员的系统
该系统的参数来源于以前的员工
从而能够发现并雇佣
拥有类似出色表现的员工
听上去还不错
我曾经参加过一个
聚集了人事经理和执行官的会议
高端人士
在雇佣方面都在使用这种系统
他们都很兴奋
认为这些会让招聘工作更加客观 少些偏见
并让女性和非主流人群
从带有偏见的人事经理手下得到更多工作机会
瞧 人工招聘是带有偏见的
我就知道是这样
这么说吧 在我作为程序员的早期职业生涯中
我的顶头上司总会或早或晚
来到我这儿
她会说 “泽伊内普 咱们去吃午饭吧”
我一直觉得她来找我的时机挺奇怪的
这都下午4点了 还吃午饭吗
我无语了 不过我从不错过免费的午餐
很快我就明白了
我的顶头上司们并没有告诉他们的上级
他们在重要岗位上雇佣的居然是
还穿着牛仔裤和运动鞋的小女生
我做得还不错
只是看起来不符合他们对年龄和性别的要求罢了
因此 若招聘时真能忽略性别和种族的话
听上去倒也不错
但使用这些系统会使事情变得更复杂 原因如下:
目前 计算系统可以通过蛛丝马迹
推断出你的各种事情
即使你从没公开过这些东西
它们可以推断出你的性取向
人格特质
政治倾向
它们具有高度准确的预测能力
记住 是那些你并没在网上公开过的事情哦
这就是推理
我有个朋友开发了这样的计算系统
通过病患的社交媒体数据
来预测其患有临床或产后抑郁症的可能性
结果令人惊讶
她的系统在任何症状发作前的几个月
便能准确预测出来
几个月前哦
没有症状 也能预测出来
她希望将系统用于早期干预治疗 太棒了
但现在回到之前提到的招聘系统
在人事经理会议上
我凑近一位在大公司工作的高管
对她说 “如果在你不知情的情况下
你的系统清除了潜在的患有抑郁症的人会怎样呢
他们现在不觉的抑郁 只是在未来很有可能患病
如果你的系统排除了那些
现在没有 但一到两年内可能会怀孕的女性又怎样呢
如果雇佣了充满侵略性的人 仅仅是因为这符合你们的办公室文化 又会怎样呢”
你没办法通过性别来区分他们
那些方面可能都是均衡的
而且由于这是机器学习 并不是传统的编码过程
并没有变量可以标记为“高抑郁风险”
“高怀孕风险”
“属于冲动型”
你不仅不知道系统选择的依据
更不知道从哪儿着手
这是个黑匣子
它具有你无法理解的预测能力
我问她 “你有几分把握
来保证你的黑匣子行事光明呢”
她看着我 好像我刚刚踩着十只小狗的尾巴一样
她盯着我说
“关于此事 我一句都不想再听”
然后她转身就走掉了
注意——她并不是没礼貌
很显然她想说 这又不是我的错 走开 然后对我使用“死亡凝视”
瞧 从某方面而言
这个系统比人事经理公平多了
并且还能带来金钱收益
但它也可能导致
稳定但隐蔽的就业市场
对那些有高抑郁症风险的人群关闭
难道这就是我们想要建立的
或者是不知不觉中已经建立的社会吗?
因为我们把自己完全不懂的东西交由机器来做决定吗?
另一个问题是:
通常情况下 这些系统所汲取的信息来自于
人类的行为 印记所产生的数据
好吧 它们可能只是在反映我们的偏见
也可能是将我们的偏见收集起来
并放大它们
再将它们返馈回来
而我们告诉自己
“我们只是在做客观 中立的计算”
研究人员发现 在Google上
比起男性 女性看到高薪招聘广告的可能性更低
而且当搜索非裔美国人的名字时
更有可能出现暗示犯罪记录的广告
即使他们根本就没有犯过罪
对于这些暗含偏见进行暗箱操作的算法
有时研究人员能发现 有时则对其一无所知
它们会产生改变命运的结果
在威斯康星州 一个被告因为躲避警方
被判处六年有期徒刑
大家可能不知道这些
但算法被越来越多地用于假释和判决的做出
他会想知道 这些刑期是如何计算的的
这是个商业暗箱
公司拒绝其算法在公开法庭上被挑战
但是ProPublica 一个非盈利调查机构
利用他们能找到的所有公开数据 去审查这些算法
并发现 算法的结果是带有偏见的
它的预测能力堪忧 仅好于碰运气而已
并且认为未来 黑人被告的犯罪几率是白人的两倍
这样的认知也是错误的
我们来看看这件案子
不久前 这个女人因为接她在佛罗里达州布劳沃德县上学的妹妹
快要迟到了
就和她的朋友在大街上狂跑
当发现走廊上有一个未锁的儿童自行车和踏板时
就傻乎乎地跳了上去
正当她们准备逃之夭夭时 一个女人出现了
“嘿 那是我孩子的自行车”
尽管她们跳下车子走开了 但还是被逮捕了
她确实错了 确实犯傻了 但她只有十八岁
她还有几个犯罪记录
同一时间 这名男子因为在家得宝盗窃而被捕
只偷得八十五美元的东西 一个小数额的犯罪
但他曾两次被判武装抢劫
算法却判定那名女子而非男子是高危罪犯
两年以后 ProPublica发现该女子并未再次犯罪
对她来说因为有前科会很难找到工作
而那名男子则再次入狱
而今要在监狱服刑八年
显然 我们需要审查我们的黑匣子
而不是让其拥有这种无法控制的力量
审查工作相当重要 但却不能解决所有的问题
拿Facebook强大的新闻广播算法来举例
它可以从你关注的好友和页面中
将所有东西排名 并决定将哪些东西呈现给你
是该向你展示不同的婴儿的照片
还是一个熟人的悲伤笔记呢
抑或是 一个重要但艰涩的新闻标题呢
没有正确答案
Facebook优化了网站的参与度
像点赞 分享 和评论
2014年8月
一个白人警察杀死了一个非裔美国少年
然后 抗议活动在密苏里州的弗格森市爆发
一切都处于阴沉的氛围中
有关抗议的新闻
在我Twitter的未过滤广播上铺天盖地都是
但在Facebook上却一点都看不到
是因为我的Facebook好友的原因吗
我禁用了Facebook的算法
这很艰难 因为Facebook还是希望你
回到它算法的控制之下
同时 我发现我的朋友们都在谈论这个新闻
只是算法没有展示给我
我研究了下 发现这是个普遍的问题
关于弗格森的抗议活动并不是友好型算法
它不"可爱"
谁会去点赞啊
这种事情并不方便评论
没有了大量的点赞和评论
该算法可能只向更少的人显示相关信息
所以我们看不到结果
相反 就在那个星期
Facebook的算法突出显示了这个
ALS冰桶挑战
理由很充分 要么倒冰水 要么捐款做慈善 不错
但叫做算法友好
机器为我们做了这个决定
如果Facebook是唯一的渠道 那么
一场重要但艰难的对话
可能将因此消亡
现在 这些系统中
与人类系统不相似的地方也可能出错
你们还记得沃森吗 IBM的机器智能系统
和人类选手在Jeopardy节目上同场竞技
它是个了不起的选手
但之后 在决赛中当被问到:
“其最大的机场以二战中的英雄命名
第二大机场以二战中战役命名的是哪座城市”时
芝加哥
两位人类选手答对了
沃森的回答却是 "多伦多"
竟把它当作是美国的城市
异常聪明的系统犯了
别说成年人 就算是二年级的学生也不会犯的错误
我们的机器智能 可能会在
人类不会犯的错误类型上
或者我们预料之外且毫无准备的方面失败
某人得不到能胜任的工作会很糟糕
但如果这是计算机程序错误导致的结果
会更糟糕
2010年5月
华尔街股市暴跌
就是华尔街"卖出"算法的一个反馈回路引起的
导致十亿美元在三十六分钟内化为乌有
我都不用去想 就能知道 如果换成
致命的自动武器 这个"错误"会意味着什么
没错 人总会抱有偏见
决策者们 当家人
不论是在法院 新闻业 还是在战场...
他们都会犯错 但这正是我要说的
我们无法逃避这些难题
我们也不能把自己的道德责任丢给机器
人工智能并不能给我们“免受道德约束”的权利
数据科学家弗莱德·本南森称之为 强行洗白
我们所需的正好相反
我们得养成对算法的怀疑 审查和研究的习惯
确保实现对算法的责任
审查和真正意义上的透明度
我们应该接受将数学和算法
应用到杂乱的 身负价值的人类事物中
未必能带来客观性这样一个现实
当然了 人类事物的复杂性也融入到了算法中
是的 我们有能力且应当应用算法
来帮助我们作出更好的决策
但是也得承认 我们对自己的判断有道德责任
也应该在道德架构中使用算法
而不是作为相互推卸责任
的一种手段
这才是机器智能存在的价值
也就是说 我们必须更加坚定地
坚持人类的价值观和道德观念
谢谢大家
以下内容有剧透 , 请注意打开姿势

精彩推荐

  • 你们的数据可以帮助终结世界饥饿问题

    11:15 130

  • 如何利用大自然的隐藏超能量

    13:21 481

  • 对肥胖的恐惧到此为止

    12:20 495

  • 领略数学的迷人之处

    16:23 569

  • 如何在网上讨论性侵行为

    14:09 404

  • 大选后分裂的美国还有救吗

    20:17 181

  • 这是女性掌权时代

    19:19 163

  • 美国公立学校如何未能让孩子走出贫困

    13:50 217

更多视频, 请移步译学馆APP欣赏 GET APP