对话a16z联创:放慢AI创新等同于造成可预防性的死亡

转载
372 天前
8827
Yangz

文章转载来源:Yangz

“安全总比遗憾好”,这种心态对人工智能来说,是一个巨大的错误。

图片来源:由无界 AI生成

11 月 9 日,美国企业研究所(AEI)的高级研究员 James Pethokoukis 与 a16z 联合创始人 Marc Andreessen 就技术乐观主义的重要性进行了问答。整场播客时长近 1 小时,期间谈论了包括创新为何放缓;拥抱人工智能的重要性;对人工智能批评者的回应;技术乐观主义的经济学以及美国技术政策的未来等几大话题。

本文将重点关注与人工智能相关的板块,望能从二者的对话中汲取些见解。


拥抱人工智能的重要性


James:在我看来,我们坐在这里就气候变化展开辩论会显得有些令人震惊。很明显,如果我们有沿海的核反应堆,也许是小型的,也许是聚变反应堆,我们会有一个非常不同的辩论,然而,在某些情况下,反对人工智能的与反对核能源的是同一批人,他们会说,“我们需要暂停人工智能,我们需要严格监管它。”在您的《技术乐观主义者宣言》(The Techno-Optimist Manifesto)中有这么一个引人注目的观点,您认为放慢人工智能的(创新)速度实际上等同于造成可预防的死亡(原文为:“我们认为,人工智能的任何减速都会造成生命损失。由于人工智能的存在而造成的本可以避免的死亡,是一种谋杀。”)。对我来说,这是一个显而易见的事实。但这句话也让一些人感到困扰,他们认为这是极端的。那么,我们要如何捍卫这一点,以此来支持加速 AI,而不是压制它呢?

Marc:试想一下原子能,尼克松总统在 70 年代初做了两件与能源相关的事情,这两件事情在能源史上非常重要。其一是他宣布了一项“独立计划”,他说:“到 1980 年,我们需要在美国国内新建 1000 座核电站。我们需要完全实现能源独立。我们需要完全电力化。”因此,这将伴随着向电动汽车的转变。电动汽车是一项已有百年历史的技术,这是个很好的例子,说明我们本来可以更早地拥有它。他说,我们需要自给自足,这不仅有环境效益,还有地缘政治效益,这将使我们脱离中东,然后我们也不再需要把孩子们送到那边去参战了。

然而他一方面这么说,另一方面又成立了核管理委员会,从而阻止了核电站的建立。核管理委员会在长达 40 年的时间里没有批准过一座新的核电站。如果你是左派,你基本上会这么说:“是的,发达国家过去 50 年发生的一切碳排放事件都是完全可以避免的。今天,我们本可以拥有一个零碳电网,提供至少和现在一样甚至更多的电力,但我们选择了不这么做,而且现在仍在继续不这么做。”

你只要放眼全球,看看能源生产,就能知道答案:全球能源生产环境死亡的头号原因是什么?是人们在家中燃烧生物质。每年都有数百万人因为在家中燃烧木材或某种形式的生物质而死亡。就在我们说话的时候,由于我们没有在世界各地推广现代能源,世界各地正在发生大规模的死亡事件。这绝对是一个惊人的数字。当然,这很难看到,因为我们并没有坐在村子里能看到别人因为烧柴而死在的小屋里,但这是真实的。与此类似,由于我们试图阻止人工智能的发展,医学的进步在今天并没有发生。根据这一原则——可见的和不可见的——这些可预防的死亡与人们拿起枪杀人一样严重和重要。

James:当我说这是同样的论点,而且在某些情况下是同样的人和组织时,我发现令人震惊的是,一些人不仅担心人工智能会加剧不平等、导致失业、杀死我们,而且他们还会说:“你知道吗?即使你认为它是好的,它也会耗费太多能源。我们不能让人工智能无处不在,让每个人都能像使用智能手机一样使用它。”这种说法和“我们正在耗尽一切,我们正在耗尽能源,因此我们需要停止,我们需要撤退”的论调如出一辙。我想知道,你是否认为这些论点会像半个世纪以来的论点一样,在未来具有牵引力?

Marc:我甚至认为这可以追溯到 100 年、120 年或 140 年前。我认为这种心态可以追溯到共产主义,也可以追溯到费边主义。从根本上说,这种由精英驱动的东西,其核心是,我们所理解的文明进步从根本上说是邪恶的,你可以把你想要的任何事例挂在上面。很多外交政策问题都与此有关,比如美国卷入世界各地的各种问题是多么邪恶。尽管在过去的 150 年里,资本主义是帮助人们摆脱贫困的引擎这一事实已经得到了明显的证明,但仍有许多关于资本主义罪恶的经济主张。你听到的仍然是相反的说法。

说到这里,我想到了托马斯 - 索维尔(Thomas Sowell)和他关于这个话题的名著《愿景的冲突》(A Conflict of Visions)。他用一种让我很容易理解的方式总结了整件事情,那就是对于世界如何发展,对于现代社会应该如何排序,从根本上说有两种观点。一种是“受约束的愿景”,在这种愿景中,人类是容易犯错的、不完美的、有缺陷的,我们要努力做到务实,我们要努力在有限的范围内做出改变,让事情变得更好。在“革命”之后,资本主义将不复存在,技术将纯粹由无私的国家代表人民行使,视界将不再有战争,因为我们将有一个全球性的政府,将有全球性的权威来掌管一切。这就是资本主义与社会主义长期以来的较量。这是科技停滞与创新之争的每一步。我把它扩大到这个层面,是因为我认为你说的是对的,是的,这些想法通常是惊人的一致。它的预测能力令人惊叹。如果我知道你对核电的看法,那么我基本上就知道你所有的其他政治观点。

你真的不需要进行民意调查:问人们“对科技乐观吗?对未来乐观吗?”你只需要问他们:“你对核电有什么看法”就已经能得出 90% 的结论了。


懒散地迈向乌托邦:Marc 对人工智能批评者的回应


James:一种批评是,这与你在这里所说的正好相反。你是那个不受约束的人,是那个远离这种技术乌托邦的人,如果没有规则,像你这样的人就是社会各个层面的驱动力,我们将创造这个乌托邦,每个人都能活到 300 岁,我们将掌握太阳系,没有眼泪,没有痛苦。要是我们有不受约束的技术资本主义就好了。你有的是不受约束的愿景。对此,你有何回应?

Marc:我喜欢经济学家 Brad DeLong 的描述,虽然我并不完全同意他的观点,但这个术语用得确实恰到好处。他对资本主义的描述是“懒散地走向乌托邦”。什么意思?这就像,有一些远景,一个更好的世界。在我看来,这不是一个完美世界的愿景,而是一个更好的世界。我喜欢“懒散”这个词,当然,它出自《懒散地走向伯利恒》(Slouching Towards Bethlehem),但“懒散地走向乌托邦”的意思是,我们并不完美。我们有很大的缺陷。我说的“我们”指的是我们每一个人。人类,但更确切地说,是科技工作者。我们也有很大的缺陷,我们创造的技术也有很大的缺陷。

这就是区别的一部分。我们并不生活在大写“U”的乌托邦世界里。我们不生活在完美的世界里,也不会生活在一个由单一的全球政府以明智和善良的方式做出所有决定的世界里。我们生活在的,是一个不完美的世界,在这个世界里,我们可以通过在边际上做出微小的改变,慢慢地走向乌托邦。

另一个我认为比较好的描述是 Tyler Cowen 的“边缘革命”,即他博客的标题。我们可能有长远的大目标,但真正有效的变革发生在边缘。总得有人坐下来写电脑代码。总得有人拿着计算尺坐下来设计阿波罗火箭。当然,在整个过程中都会有错误,但这些都是我们可以做到的。

James:特别是在人工智能方面,似乎大部分焦点都集中在容易犯错的技术专家和这项技术的潜在风险上,那么您希望决策者如何理解人工智能的潜力和风险呢?

Marc:所有新技术都会带来风险。这是不乌托邦的一部分,对吗?我会从火开始。人类用火的故事深深地铭刻在我们的文明记忆中,以至于希腊人有了普罗米修斯的神话。如果你思考一下这个神话中的内容,你会发现它基本上与我们围绕人工智能的争论相同,那就是火是美妙的,它可以让我们保持温暖,保证我们的安全,如果你在树林里,你要做的第一件事就是生火,这是如何赶走狼的方法,也是如何烹饪食物的方法,我们可以用它作为一种防御方法,但同时,火也可以被用作是武器,今天的它是以弹药和原子弹的方式呈现的。

技术是把双刃剑。处理这一基本事实有两种截然不同的方式。一种是我们在第二次工业革命期间一直到 1960 年的心态,即我们要利用好的一面,处理坏的一面,但我们将继续向前迈进。我们不会畏缩不前,不会因为担心坏人会利用它而放弃火种,然后坐在黑暗和寒冷中。技术是一种工具。我们是工具的主人。我们要挺身而出,想办法如何用它来做好事,如何用它来降低风险。

自 20 世纪 60、70 年代以来,围绕这一问题的政策越来越多地受到“预防原则”这一理念的影响。人们要么在字面上引用这个原则,要么在行为上奉行这个原则,即使他们没听说过这个词。所谓的“预防原则”就是,除非新技术被证明是无害的,否则就不应该允许其存在。

安全总比遗憾好。

安全总比遗憾好。是的,这是防止所有新技术的通用溶剂。你总是可以提出无害的论点。在我看来,这是生产力放缓的一个重要原因,也是许多经济领域物价飞涨的重要原因。中产阶级的生活越来越难。这就是我们今天没有全电力核电网的原因。同样的,这种心态也被应用到了人工智能上。和对其他任何事物一样,对人工智能来说,这都是一个巨大的错误。

James:我知道这篇文章不仅仅是关于人工智能的,而是关于更广泛的技术,但这项技术,尤其是生成式人工智能和这些大型语言模型,是否会像个人电脑 - 互联网组合那样重要,是否会成为更伟大的东西?如果我们搞砸了对这项技术的监管,究竟会失去什么?

Marc:这是机器智能的引入。这里的类比有点危险,因为机器神经网络与大脑神经网络、人类等等都不一样,有很大的差异,但也有一个关于智能的普遍概念 -- 人类的智能和人工智能的智能,基本上是指解决问题的能力。它指的是筛选大量信息并进行综合归纳的能力,当你试图找出解决问题的方法时,不管是像如何安排一天生活这样的小问题,还是像如何开发无限电力这样的大问题 -- 都是解决问题。总的来说,几千年来,当我们真正投入到解决问题的过程中时,人类已经做得非常好了,但从根本上说,我们仍然受到自身内在能力和内在智力水平的限制。

现在的机会基本上是通过将人类和机器结合成共生关系,逐步提升人类的智能。这个机会就是让每一个药物开发者、每一个有创造力的艺术家、每一个试图思考任何问题的人,都有机会使用一种新的工具,让他们有更大的机会解决问题,或者让他们有能力解决我们还没有想到的问题。因此,这是一个潜在的大问题。在未来的数年和数十年里,它基本上可以推动其他一切事物的发展。

James:Maec,我一直在等待。我们的一生都是在“大停滞”和“大衰退”中度过的。去年 11 月,我为 OpenAI 的推出兴奋了 15 分钟,然后有人告诉我:“听着,它会抢走所有的工作机会,在抢走工作机会之后,它还会杀了我们所有人。”这就是争论的关键所在,这项技术有多么危险,它极大地打击了人们的士气。

Marc:是的,没错。不过,就像我说的,这反映了一种更深层次的世界观。一些反人工智能的人现在正在歇斯底里地宣传反 AI 思想,他们中的一些人实际上是深层世界观的真正信徒。就像我们说的,你可以预测他们对社会政治等许多其他领域话题的看法。此外,也有一些人只是被卷入其中,因为这是当下的潮流,他们只是在说着他们认为聪明的人在说的话。把这些东西摊开来,讲清楚是特别重要的。重要的是要有实际的论据,要听取那些提出最具煽动性主张的人的意见。要真正解释这项技术是什么,要给那些没有认真思考过的人提供他们需要的信息,让他们能够自己推理出来。所以,我宁愿不说这些,但我要说的是,有士气低落的人,就会有另一些激进的人,因为他们会想,“哦,我明白发生了什么。他们其实并不是这样那样的人。他们实际上是想为自己的公司谋取特殊利益,或者他们实际上是想从其他政治角度出发,或者这个人实际上看起来就是情绪失调。这些人看起来就像歇斯底里的人。也许我们不应该听这些人的意见”。

James:你是否发现,至少对于那些一直在谈论这些生存风险的业内人士来说,这更像是他们在试图创造一种监管俘获局面或监管环境,从而驾驭这种局面或环境,巩固自身地位?是这样,还是这些人士真的担心这些技术会失控?是两者兼而有之吗?对此,你是什么感觉?

Marc:经济学中有一个很好的框架,叫做“走私者和浸信会”(Baptists and bootleggers)。这个观点认为,当你遇到这些风险时,人们会试图通过恐惧驱动的政治行动,在监管领域禁止它、使它非法或对它进行控制 -- 基本上你会发现,随着时间的推移,他们通常会组成一个联盟,他们称之为“走私者和浸信会”。浸信会教徒和私酒贩子是一百年前支持禁酒令的两大集团。浸信会教徒是真正的信徒,他们坚信酒精是邪恶的,会破坏社会。而私酒贩子则是那些如果酒精被宣布为非法,就能大赚一笔的人,因为这样他们就可以走私酒精。事实上,禁酒令起了作用。禁酒令在美国创造了我们认为的现代有组织犯罪,因为它给了私酒贩子巨大的经济利益。基本上,如果你阅读了维基百科中关于浸信会和私酒贩子的信息,你就会发现这种模式一而再再而三地出现。

现在我们有了 31 个类似的故事。

这就是人工智能的现状,有一群浸信会教徒,这些人往往是作家和以科幻小说为导向的人,他们把末日和死亡以及所有这些事情描绘得非常生动。然后是私酒贩子。当然,这里的私酒贩子并不是要制作盗版人工智能的人,而是直接攫取监管权的人。让这些政府建立一套类似于多德 - 弗兰克法案在银行业所做的规定,总共只能有两三家或四家公司能够翻越监管墙,然后其他所有公司都会被冻结,最后这些公司就形成了一个永久性的卡特尔。

这种模式在我们的经济中一次又一次地重演。我们经济中的很多很多行业都经历过这种情况。任何时候,只要有两三家或三四家公司完全锁定了市场,没有新创企业的创新,那么百分之百的情况都是监管障碍造成的。所以现在的情况是,浸礼会成员被私酒贩子利用,所以那些理所当然害怕的人基本上被一小撮大公司和首席执行官利用作为幌子,而这些大公司和首席执行官正打算攫取监管权。我认为这是显而易见的。今天就在上演。在这个名为“英国人工智能安全峰会”的会议上,它正在众目睽睽之下上演。没有人真正在隐藏,他们只是在做而已。我希望,通过这番描述,更多的人会意识到正在发生什么。

参考资料:https://fasterplease.substack.com/p/my-long-read-q-and-a-with-marc-andreessen