24小时联系电话:185 8888 888

财经
您现在的位置: 首页 > 财经 > Google的Sundar Pichai不想让您对AI的危险一清二楚

Google的Sundar Pichai不想让您对AI的危险一清二楚

发布时间:2020/01/21 财经 浏览次数:124

 
Alphabet和Google首席执行官Sundar Pichai是最新的科技巨头主力军,他们公开呼吁对AI进行监管,同时鼓励立法者建立一个稀薄的支持框架,该框架对AI技术的可操作性没有任何严格限制。
在今天的《金融时报》上发表的一篇专栏文章中,Pichai头号呼吁对人工智能进行监管。但是他的推波助澜注入了一种暗示性的暗流,加剧了人类不让技术专家照常开展业务并在人口规模上应用AI的风险,而Google总裁声称:“ AI可以改善数十亿人的生活,最大的风险可能就是没有这样做”,从而寻求将“没有硬性限制”定为实际上是人类最安全的选择。
同时,推销淡化了任何可能使Pichai暗示AI将会解锁的更大好处的负面影响-提出了“潜在的负面后果”,这仅仅是技术进步的必然和必要的代价。
首要建议是管理风险水平,而不是直接质疑使用巨大风险的技术(例如面部识别)是否在民主社会中切实可行。
Pichai写道:“内燃发动机使人们能够走出自己的区域,但同时也造成了更多的事故,”他以自私自利的榜样为例,在无视内燃发动机的巨大气候成本的情况下搜查历史(以及由此造成的生存威胁)。地球上无数的物种)。
他继续说道:“互联网使与任何人建立联系并从任何地方获取信息成为可能,而且也更容易传播错误信息。” “这些教训告诉我们,我们需要对可能出问题的地方保持清醒的头脑。”
对于“明眼人”,请阅读:接受技术行业对“附带损害”的解释。 (就错误信息和Facebook而言,这似乎是在将民主本身注入以广告为目标的绞肉机中。)
同时,在Pichai关于AI风险的讨论中根本没有提到:人工智能似乎非常擅长于增压,而垄断力量的集中。
真有趣。
当然,近年来,一家科技巨头将整个研究部门更名为“ Google AI”也就不足为奇了-此前,该公司曾因涉及将AI应用于军事武器技术的项目而被其自己的一些工作人员召集-游说立法者设定尽可能淡化和抽象化的AI“极限”。
唯一比零监管更好的是有用的白痴制定的法律,这些白痴为行业内广泛使用的错误二分法(例如声称其为“创新或隐私”)而陷入了沉迷,束缚和沉沦。
Pichai的干预也是在一个战略时刻,美国立法者开始关注AI监管,而白宫似乎将自己与技术巨头对“创新友好”规则的要求保持一致,这将使他们的业务更加轻松。 (据此说:本月,白宫首席技术官迈克尔·克拉佐斯(Michael Kratsios)在彭博社的专栏文章中警告称,“抢先,繁重或重复的规则会不必要地阻碍AI创新和发展”。)
同时,新成立的欧盟委员会在AI和大型技术方面都提出了更坚定的立场。
它已将以技术为主导的变革作为关键的政策重点,总统乌尔苏拉·冯·德·莱恩(Ursula von der Leyen)公开发表了有关抑制科技巨头的声音。她还致力于在任职的头100天之内发布“关于人工智能对人类和伦理的影响的欧洲协调方法”。 (她于2019年12月1日上任,所以时间在流逝。)
上周,欧盟委员会关于泛欧AI监管的提议草案泄漏,表明其倾向于相对轻触的方法(尽管欧洲版的轻触明显比特朗普白宫出生的人参与和干预得多) —尽管该论文的确提出了暂时禁止在公共场所使用面部识别技术的想法。
该文件指出,这样的禁令将“捍卫个人的权利,特别是防止对技术的任何可能的滥用”,然后反对这种“可能妨碍该技术的发展和采用的深远措施”,除了对当前产品安全和责任法律的相关调整以外,还取决于现有欧盟法律中的规定(例如欧盟数据保护框架,GDPR)。
尽管目前尚不清楚委员会将以何种方式对AI进行监管,但即使是委员会考虑的轻触版本,也可能比Pichai想要的麻烦得多。
在专栏中,他呼吁采取“明智的监管”措施,也就是采取“适当的方法,在潜在危害,尤其是高风险地区的潜在危害与社会机会之间取得平衡”。
对于“社会机会”,请阅读:大量的Google“商业机会”正在从事间谍活动-假设它希望通过将AI驱动的服务扩展到各个行业和领域(从医疗保健,交通运输到各个地方)来获得巨大的额外收入规模否则)不会因对AI实际应用的严格法律限制而偏离。
Pichai敦促:“法规可以提供广泛的指导,同时允许在不同部门进行量身定制的实施。” Pichai敦促优先考虑启用“原理”和应用后的“审查”,以保持AI香料的畅通。
尽管英国《金融时报》的编辑选择用技术图像来说明面部识别,但该操作仅非常简短地涉及了面部识别。在这里,Pichai再次试图围绕本质上是一种极端权利敌视的技术重新讨论,这种技术只能通过面部识别的“恶意使用”来传递。
当然,这故意掩盖了让黑匣子机在每次人脸经过公共场所时对身份进行算法猜测的固有风险。
您不能希望在这种情况下保护人们的隐私。其他许多权利也受到威胁,具体取决于该技术还用于其他用途。因此,实际上,任何使用面部识别的方法都会带来个人和社会风险。
但是,皮查伊(Pichai)试图让立法者眨眨眼。他不希望他们看到如此强大有效的技术中固有的风险-将它们推向“邪恶的”和“消极的” AI使用和“后果”的狭窄,不良用途的子集,才值得“真实”关注”。
因此,他再次鼓吹鼓吹“一种应用AI的原则性和规范性方法”(强调我们的观点)-重点放在了规章上,该规章首先为AI的应用开了绿灯。
技术人员最担心的是规则,这些规则告诉他们何时绝对不能应用人工智能。
道德和原则在一定程度上是可变的概念,而技术巨头出于公关目的已经实践得很自称,包括将自定义的“护栏”附加到自己的AI运算中。 (但是,当然那里没有实际的法律约束。)
同时,在涉及数据保护方面现有的欧盟规则方面,诸如Google之类的数据挖掘巨头是非常顺畅的运营商,例如,在用户界面上充斥着令人迷惑的深色图案,迫使人们单击或抹除权利。
但是禁止应用某些类型的AI会改变游戏规则。因为这会使社会处于主导地位。
一些远见卓识的监管机构已经呼吁制定至少禁止暂停某些人工智能“危险”应用的法律,例如面部识别技术或自主武器,例如谷歌之前正在开发的基于无人机的系统。
对于平台巨头来说,仅仅遵从自己的意愿就更难了。
所以有一段时间我很乐意接受整个技术道德问题,但现在我完全支持技术拒绝。我们需要被拒绝。