24小时联系电话:185 8888 888

财经
您现在的位置:首页 > 财经 > Google的Sundar Pichai不想让您对AI的危险一清二楚

头条

  • 百年人寿广东分公司重疾理赔获客户盛赞

    2019年6月11日,平常身体一向体健的文先生突发脑溢血,立即前往三九脑科医院进行治...

  • 百年人寿扬州中支重疾理赔获赞誉

    6月15日,百年人寿宝应支公司前往宝应县柳堡镇开展“百年关爱大行动”,向柳堡镇民众...

  • 情系福利园 百年送关爱——百年人寿资阳中支开展公益活动

    关注社会弱势群体一直以来都是百年人寿公益活动坚持不变的宗旨,6月16日上午资阳中...

  • 满足您需求的加热和冷却

      根据最近的一项调查,约有一半的美国人觉得他们的办公室太热或太冷。影响热...

  • 在恶劣天气下为自动驾驶导航提供地面穿透力的支持

      消费者对自动驾驶汽车的安全性的信心仍然是汽车制造商计划未来自动驾驶的挑...

  • 神速理赔显诚信,百年人寿暖万家

    2019年4月8日,北京分公司理赔人员接到客户陈某女儿来电,称陈某因咽部不适到医院...

  • 投资

    Google的Sundar Pichai不想让您对AI的危险一清二楚

    发布时间:2020/01/21 财经 浏览次数:93

     

    Alphabet和Google首席执行官Sundar Pichai是最新的科技巨头主力军,他们公开呼吁对AI进行监管,同时鼓励立法者建立一个稀薄的支持框架,该框架对AI技术的可操作性没有任何严格限制。

    在今天的《金融时报》上发表的一篇专栏文章中,Pichai头号呼吁对人工智能进行监管。但是他的推波助澜注入了一种暗示性的暗流,加剧了人类不让技术专家照常开展业务并在人口规模上应用AI的风险,而Google总裁声称:“ AI可以改善数十亿人的生活,最大的风险可能就是没有这样做”,从而寻求将“没有硬性限制”定为实际上是人类最安全的选择。

    同时,推销淡化了任何可能使Pichai暗示AI将会解锁的更大好处的负面影响-提出了“潜在的负面后果”,这仅仅是技术进步的必然和必要的代价。

    首要建议是管理风险水平,而不是直接质疑使用巨大风险的技术(例如面部识别)是否在民主社会中切实可行。

    Pichai写道:“内燃发动机使人们能够走出自己的区域,但同时也造成了更多的事故,”他以自私自利的榜样为例,在无视内燃发动机的巨大气候成本的情况下搜查历史(以及由此造成的生存威胁)。地球上无数的物种)。

    他继续说道:“互联网使与任何人建立联系并从任何地方获取信息成为可能,而且也更容易传播错误信息。” “这些教训告诉我们,我们需要对可能出问题的地方保持清醒的头脑。”

    对于“明眼人”,请阅读:接受技术行业对“附带损害”的解释。 (就错误信息和Facebook而言,这似乎是在将民主本身注入以广告为目标的绞肉机中。)

    同时,在Pichai关于AI风险的讨论中根本没有提到:人工智能似乎非常擅长于增压,而垄断力量的集中。

    真有趣。

    当然,近年来,一家科技巨头将整个研究部门更名为“ Google AI”也就不足为奇了-此前,该公司曾因涉及将AI应用于军事武器技术的项目而被其自己的一些工作人员召集-游说立法者设定尽可能淡化和抽象化的AI“极限”。

    唯一比零监管更好的是有用的白痴制定的法律,这些白痴为行业内广泛使用的错误二分法(例如声称其为“创新或隐私”)而陷入了沉迷,束缚和沉沦。

    Pichai的干预也是在一个战略时刻,美国立法者开始关注AI监管,而白宫似乎将自己与技术巨头对“创新友好”规则的要求保持一致,这将使他们的业务更加轻松。 (据此说:本月,白宫首席技术官迈克尔·克拉佐斯(Michael Kratsios)在彭博社的专栏文章中警告称,“抢先,繁重或重复的规则会不必要地阻碍AI创新和发展”。)

    同时,新成立的欧盟委员会在AI和大型技术方面都提出了更坚定的立场。

    它已将以技术为主导的变革作为关键的政策重点,总统乌尔苏拉·冯·德·莱恩(Ursula von der Leyen)公开发表了有关抑制科技巨头的声音。她还致力于在任职的头100天之内发布“关于人工智能对人类和伦理的影响的欧洲协调方法”。 (她于2019年12月1日上任,所以时间在流逝。)

    上周,欧盟委员会关于泛欧AI监管的提议草案泄漏,表明其倾向于相对轻触的方法(尽管欧洲版的轻触明显比特朗普白宫出生的人参与和干预得多) —尽管该论文的确提出了暂时禁止在公共场所使用面部识别技术的想法。

    该文件指出,这样的禁令将“捍卫个人的权利,特别是防止对技术的任何可能的滥用”,然后反对这种“可能妨碍该技术的发展和采用的深远措施”,除了对当前产品安全和责任法律的相关调整以外,还取决于现有欧盟法律中的规定(例如欧盟数据保护框架,GDPR)。

    尽管目前尚不清楚委员会将以何种方式对AI进行监管,但即使是委员会考虑的轻触版本,也可能比Pichai想要的麻烦得多。

    在专栏中,他呼吁采取“明智的监管”措施,也就是采取“适当的方法,在潜在危害,尤其是高风险地区的潜在危害与社会机会之间取得平衡”。

    对于“社会机会”,请阅读:大量的Google“商业机会”正在从事间谍活动-假设它希望通过将AI驱动的服务扩展到各个行业和领域(从医疗保健,交通运输到各个地方)来获得巨大的额外收入规模否则)不会因对AI实际应用的严格法律限制而偏离。

    Pichai敦促:“法规可以提供广泛的指导,同时允许在不同部门进行量身定制的实施。” Pichai敦促优先考虑启用“原理”和应用后的“审查”,以保持AI香料的畅通。

    尽管英国《金融时报》的编辑选择用技术图像来说明面部识别,但该操作仅非常简短地涉及了面部识别。在这里,Pichai再次试图围绕本质上是一种极端权利敌视的技术重新讨论,这种技术只能通过面部识别的“恶意使用”来传递。

    当然,这故意掩盖了让黑匣子机在每次人脸经过公共场所时对身份进行算法猜测的固有风险。

    您不能希望在这种情况下保护人们的隐私。其他许多权利也受到威胁,具体取决于该技术还用于其他用途。因此,实际上,任何使用面部识别的方法都会带来个人和社会风险。

    但是,皮查伊(Pichai)试图让立法者眨眨眼。他不希望他们看到如此强大有效的技术中固有的风险-将它们推向“邪恶的”和“消极的” AI使用和“后果”的狭窄,不良用途的子集,才值得“真实”关注”。

    因此,他再次鼓吹鼓吹“一种应用AI的原则性和规范性方法”(强调我们的观点)-重点放在了规章上,该规章首先为AI的应用开了绿灯。

    技术人员最担心的是规则,这些规则告诉他们何时绝对不能应用人工智能。

    道德和原则在一定程度上是可变的概念,而技术巨头出于公关目的已经实践得很自称,包括将自定义的“护栏”附加到自己的AI运算中。 (但是,当然那里没有实际的法律约束。)

    同时,在涉及数据保护方面现有的欧盟规则方面,诸如Google之类的数据挖掘巨头是非常顺畅的运营商,例如,在用户界面上充斥着令人迷惑的深色图案,迫使人们单击或抹除权利。

    但是禁止应用某些类型的AI会改变游戏规则。因为这会使社会处于主导地位。

    一些远见卓识的监管机构已经呼吁制定至少禁止暂停某些人工智能“危险”应用的法律,例如面部识别技术或自主武器,例如谷歌之前正在开发的基于无人机的系统。

    对于平台巨头来说,仅仅遵从自己的意愿就更难了。

    所以有一段时间我很乐意接受整个技术道德问题,但现在我完全支持技术拒绝。我们需要被拒绝。