人工智能将彻底取代人类劳动力?

这一天也许离我们还很遥远。本月,科技行业有个“不可告人的秘密”遭到外媒曝光:很多美其名曰“人工智能”的高科技,竟压根就是真人手动操作的“智能人工”。

 

 

“智能人工”vs“人工智能  ”图源:fossbytes网站

事情要从本月初说起。2日,《华尔街日报》在刊文曝出了一宗“谷歌邮件泄露”丑闻。为了优化客户服务体验,谷歌邮箱(Gmail)竟允许上百家第三方App的开发人员浏览用户的电子邮件

涉事公司之一,eDataSource的前CTO锡德·罗德(Thede Loder)表示,让员工“偷偷”读用户邮件的事,在数据服务行业中早已屡见不鲜。但是他解释,这么做是为了改进软件算法,训练AI系统,所以工程师们只是“偶尔看看”,也就是让工程师“辅助”AI。

其他诸如Return Path 和Edison Software等软件公司的说法,和罗德如出一辙。

事情在第二天便得到了谷歌的承认。但除了是否侵犯用户隐私外,字里行间显然还隐藏着另一个重要的问题:

为什么读邮件的都是人工?

这还没完。英国《卫报》在6日继续“吐槽”称,让人来“辅助”AI已经不错了,以往还有很多更过分的“黑科技”。

2008年,英国一个自称可以“自动将语音留言转为文本短信”的SpinVox软件,被人指控在南非、菲律宾等地设立了海外呼叫中心。

2016年,彭博社曝光美国创业公司X.ai(AI啊这公司名字就叫AI)推出的“人工智能私人助理Amy”,“后台”居然是一支不眠不休的人工团队。Amy号称可以帮用户完成会议安排和发送电子邮件等简单任务,但受访员工称,自己需要每天工作12 小时,假扮虚拟助理完成一系列单调无聊到“令人麻木”的工作。

 

 

差不多就是这种感觉

去年,推出了企业费用管理App的跨国公司Expensify承认,他们一直使用人工来处理他们的主打产品“智能扫描技术”(SmartScan)的部分收据转录工作。他们只要将用户上传的收据扫描,把照片发布到亚马逊的众包平台上,那里的工作人员便会将其手动抄录下来。而且,这些人的薪水便宜得很。

“不知道Expensify的用户明不明白真相呢?我现在正在看着某人的Uber发票,上面写着他的全名,以及出发地、目的地的地址”,接到活儿的罗谢尔·拉普朗特(Rochelle LaPlante)说道,他本人对这种“满口谎言”的公司很是反感,现在根本不想用他们的产品。他透露,其实很多同行都有不同程度的抵触情绪,“我们感觉自己被丢到幕后,劳动成果还被用来欺骗其他消费者。”

装成翘楚好赚钱

随后,《卫报》分析了这些科技企业对“伪人工智能”趋之若鹜的原因。

首先便是装成行业佼佼者,吸引关注和投资,“这是他们不会告诉投资者和用户的秘密”。这其中又分两种情况。一种是让人类来协助已有的人工智能,比如牵涉到谷歌邮箱泄密的那些第三方App,再比如,美国有家叫Scale API的公司,雇了一大堆人帮自己的自动驾驶汽车校准传感器。

再有便是对外假称是AI技术,然后偷偷用人工代替,直到真的开发出这个AI之前,能混一天算一天。报道称,真人虽然速度又慢,又不能批量处理任务,但毕竟便宜啊。

有趣的是,早在2016年,一家交互设计工具网站Readme的老板格里高利·科贝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了这个黑幕。

 

 

推特截图

13日,《华尔街日报》再次评论了“伪人工智能”现象,称其为“机器学习”热潮和“零工经济”相结合的产物

真人扮AI不道德?AI扮真人更不道德

此外,《卫报》认为还有一个不那么“功利”的原因。心理学家发现,当用户以为自己面对的是机器人时,会更容易放下戒备。一旦涉及敏感话题,这种情况就更加明显。

再说回谷歌邮件事件,如果大家听说邮件只是被机器人偷看了,抵触情绪定然会比得知真相后小得多。

类似情形还存在于医疗问诊中、来自南加大的研究团队用他们开发的虚拟心理治疗师艾莉(Ellie)做了一番测试。他们发现,患有创伤后应激障碍的退伍军人只要发现艾莉是个AI,就老是会发病。

不过,这也引发了其他专家的担忧。“这设计很绿野仙踪呢”,心理学家、心理健康聊天机器人Woebot的创始人艾莉森·达西(Alison Darcy)道,“作为心理学家,我们需要遵循道德准则,不欺骗别人显然应该是准则之一。

(观察者网注:《绿野仙踪》的主角团队里,除了善良的小姑娘多诺茜,还有没脑子的稻草人、没爱心的铁皮人和胆小的狮子——都不是人。)

 

 

《绿野仙踪》里的铁皮人  图源:《华尔街日报》

确实掌握AI技术的谷歌,也在早前意识到了这个伦理难题。而他们的解决方案是:

让AI假装自己是人类。

谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex会在打电话时加入“嗯”、“呃”之类拟人的象声词。但这一改动迅速遭到强烈反对,用户纷纷表示“这岂不骗得更厉害了”。

达西也对当时的设计很不满,“万一AI能模仿名人或政客的声音,打出真假难辨的电话,那还得了?”

于是,谷歌随后又做了改动,让Google Duplex在对话一开始就自报机器人身份,加强AI技术“透明度”。