由于微信限制了第三方应用的跳转,请使用以下方法。
1. 点击右上角的
2. 选择在浏览器中打开
文章转载来源:AIGC
原文来源:深思SenseAI
图片来源:由无界 AI生成
在当今快速发展的大模型领域,伴随技术进步的步伐,也涌现了许多关于其能力和影响的误解和争议,因此深入理解这一技术的未来发展路径和潜在影响至关重要。Yann LeCun,作为深度学习领域的奠基人之一和 Meta 公司的首席 AI 科学家,对于 llama 的开源有着重要影响。
本文整理了 LeCun 的最新访谈,由曾多次采访过乔布斯的著名科技和摇滚乐记者 Steven Levy 访谈,内容包括 LeCun 对 AI 发展的看法,特别是 AI 发展潜力、AI 开源的必要性和安全保障措施,以及 AI 对艺术创作的影响。
LeCun 对开源 AI 的支持反映了一种更广泛的趋势,即朝着更开放、合作和用户驱动的 AI 发展方向前进。AI 是世界发展的趋势,开源能加速技术发展。当大模型成为通信结构的重要组成部分,每个人都需要有一个通用的基础设施。
AI 会模仿艺术作品,但无法创造出伟大的艺术作品,因为就像音乐不仅仅是听觉体验一样,艺术所触动我们的在于其背后的真实性,这是一种深刻的文化体验。
作为当代 AI 领域的先锋以及 Meta 公司的首席 AI 科学家,LeCun 始终是这一技术领域最坚定的支持者之一。他从不掩饰对那些预测人工智能会导致人类灭绝等充满强烈误导色彩的信息的不屑,在社交媒体上,他经常发表尖锐的评论,炮轰那些散布恐惧情绪的人。
而当他的前同事 Geoffrey Hinton 和 Yoshua Bengio 在一份署名在页面顶部的声明 中将 AI 描述为“社会规模的风险”时,LeCun 并没有选择跟随他们的步伐。相反,他给美国总统 Joe Biden 写了一封公开信,呼吁敦促拥抱开源人工智能,并强调这种技术“不应被少数企业所垄断”。
LeCun 的观点在业界是不容忽视的。他与 Hinton 和 Bengio 推动了 AI 领域发展至关重要的技术——深度学习,三人也因此共同获得了计算机科学领域的最高荣誉图灵奖。2013 年,当 Meta(当时称为 Facebook)邀请他成为 Facebook AI 研究实验室(FAIR)的创始主任时,这个事件在当时还被视为 Meta 公司的一次重大进展。他同时也是纽约大学的教授。
近日,LeCun 说服了 CEO Mark Zuckerberg 将 Meta 的部分 AI 技术开源。就在 2023 年夏天,Meta 推出了一款名为 Llama 2 的开源大型语言模型,与来自 OpenAI、Microsoft 和 Google 等“少数企业实体”的大型语言模型展开竞争。一些批评者警告称,这种开源策略可能会让不法分子修改代码,移除预设在 LLM 中的用于最小化 种族歧视性内容和其他有害输出的安全措施。而作为 AI 领域最知名的乐观主义者之一,LeCun 坚信人类有能力应对这些挑战。
今年秋天,Steven Levy 在纽约曼哈顿 Meta 的办公室与 LeCun 会面,两人讨论了开源技术,为什么他认为 AI 的危险被夸大了,以及计算机是否能够像查理·帕克那样用萨克斯独奏触动人心。(Sense 说:LeCun 在巴黎郊外长大,他经常光顾纽约的爵士俱乐部。)12 月,我们在新奥尔良举行的年度 NeurIPS 会议期间再次进行了讨论。这次采访为确保内容的简洁和清晰,已经经过细致的编辑。
当前的技术无法仅通过扩大规模就达到人类智能
Steven Levy:在最近的一次演讲中,你谈到“机器学习很糟糕。”为什么你会这么说?
Steven Levy 同时是著名摇滚杂志《滚石》的撰稿人
Yann LeCun:机器学习非常出色。但仅仅依靠扩大我们现有技术的规模,就能实现与人类水平相当的 AI 吗?这是不可能的。我们还缺少一些关键要素,才能使机器像人类和动物那样高效地学习。但是我们目前还不清楚那些确切的要素是什么。
我并不是在贬低这些大模型,或是说它们毫无用处。毕竟,我已将职业生涯都奉献给了它们。但是我们需要对这个领域的过度热情保持警惕。仅仅通过扩大规模,是不可能很快实现真正的 人类智能,这一点必须明确。
Sense说:
Steven Levy 是一位美国记者和作家,也是《连线》 (Wired) 杂志的特约编辑。他被《华盛顿邮报》称为“美国首席科技记者”。Levy在计算机、技术、密码学、互联网、网络安全和隐私等领域撰写了大量作品,是《黑客: 计算机革命的英雄》等多部著作的作者。他最近的著作《Facebook: 内部故事》通过对 Facebook 员工(包括 Chamath Palihapitiya.Sheryl Sandberg 和 Mark Zuckerberg 等知名人士) 长达三年的采访,详细描述了 Facebook 的历史和崛起。Levy 在科技新闻领域享有很高的声誉,对科技行业的理解做出了重要贡献。
Steven Levy:你似乎觉得有责任揭露这些问题。
Yann LeCun:那是当然。AI 将给世界带来巨大福祉,但是目前,部分人正利用了大众对 AI 技术的恐惧心理,而让我们不得不面临着大众会因此逃避使用 AI 的风险。而这也是人类在使用其他彻底改变世界的技术时所犯的错误。例如,15 世纪的活字印刷术,当时天主教会极力反对这一技术,他们担心人们能因此直接阅读圣经,而不再需要依赖神父。当时几乎所有的机构都反对印刷术的普及,因为这将改变现有的权力结构。虽然他们的担忧并非没有道理——印刷术的确引发了长达 200 年的宗教冲突。但同时,它也催生了启蒙运动的兴起。
历史学家可能指出,教会实际上也利用印刷术达到了自己的目的,但这不是讨论的重点。
Steven Levy:为什么科技界的许多杰出人物都对 AI 抱有警惕呢?
Yann LeCun:有些人是为了吸引公众注意,而另一些人对目前的实际情况并不了解。他们没有意识到 AI 实际上正在帮助减少 仇恨言论、虚假信息和破坏选举系统的宣传活动 等风险。在 Meta,我们利用 AI 极大地提高了处理这些问题的能力。五年前,Facebook 删除的仇恨言论中,大约只有 20% 到 25% 是在人们看到之前由 AI 系统自动处理的。而去年,这一比例已经达到了 95%。
“AI 将为世界带来许多好处,但我们也在面临着人们因恐惧而回避使用它的风险。”
开源 AI 与初衷
Steven Levy:你如何看待 chatbots?它们有能力取代人类的工作吗?
Yann LeCun:chatbots 的进步令人吃惊,它们在一定程度上普及了创造力,能够生成流畅且风格优良的文本。但它们的创意往往有限,生成的内容常常脱离实际。
Steven Levy:贵公司似乎相当热衷于将 chatbots 融入进产品中。
Yann LeCun:我们所期望的是,在未来我们与数字世界乃至彼此之间的所有互动,都将通过 AI 来实现。因此,我们会试验那些目前还不够完善但正逐步接近这个目标的技术,比如你可以在 WhatsApp 上使用的聊天机器人,或者那些能在日常生活中协助你创作文本和实时翻译的工具,甚至是在元宇宙中能发挥作用的工具。
Steven Levy:马克·扎克伯格在 Meta 推广 AI 的过程中扮演了什么角色?
Yann LeCun:马克非常积极,今年初,我向他展示了我刚才提到的愿景:未来所有的互动都将通过 AI 来实现。ChatGPT 展示了 AI 可以比我们预期更早地用于开发新产品。公众对 AI 能力的热情也远超我们的预期。因此,他决定成立一个专门致力于生成式 AI 的产品部门。
Steven Levy:为什么 Meta 决定开源 Llama?
Yann LeCun:开源的大模型能够吸引更多人参与,从而加速技术进步,这样的系统更安全,性能更佳。想象一下,如果我们与数字世界的所有互动都由 AI 系统中介,你肯定不希望这个系统仅由美国西海岸的几家公司控制。也许美国人不在意,但欧洲人绝不会接受。他们会质疑:“这系统说英语没问题,那法语、德语、匈牙利语或荷兰语呢?你是怎么训练它的?它能够反映我们的文化吗?”
Steven Levy:这似乎是一个很好的策略,既能让初创公司使用你们的产品,又能在一定程度上削弱竞争对手。
Yann LeCun:我们不需要削弱任何竞争对手,这是世界发展的趋势。AI 必须是开源的,因为当大模型成为通信结构的重要组成部分时,我们都需要有一个通用的基础设施。
Yann LeCun预计,“我们与数字世界的所有互动——甚至包括我们之间的互动——都将由AI作为媒介进行。”
Steven Levy:OpenAI 这家公司的想法与众不同,但你好像并不怎么喜欢他们。
Yann LeCun:最初,他们打算作为一个非盈利机构进行 AI 研究,意在与 Google 和 Meta 这样的行业巨头形成一种平衡。我一开始就对他们的这一想法持保留态度,而事实证明,我的担忧不无道理。OpenAI 如今已不再像最初那样开放。相比之下,Meta 一直保持着较高的开放性。我之前提到过,如果没有充足的资金支持,进行深入的 AI 研究几乎是不可能的。结果,OpenAI 不得不转型为盈利机构,并接受了微软的投资。现在,他们基本上成了微软的一个合作研究机构,尽管他们依然保持着一定的独立性。此外,OpenAI 坚信 AGI 即将成为现实,并对他们将是首批研发成功的团队非常自信。然而,我认为这是过于乐观的。
Steven Levy:对于 OpenAI 的这场变故,Sam Altman 被撤下 CEO 职位然后又以不同身份回归,你怎么看?你认为这对研究界或行业有什么影响?
Yann LeCun:我觉得研究界对 OpenAI 的兴趣似乎已经减弱。他们不再像以前那样公开发布研究成果,也很少透露他们目前的工作内容。我有几位曾经的同事和学生在 OpenAI 工作,他们对那里目前的不稳定局面感到不安。研究工作需要一个稳定和开放的环境,而目前的 OpenAI 显然已经失去了这一优势。所以,OpenAI 在研究界的形象已经发生了变化,他们不再被视为研究社区的重要贡献者,这一角色已经由其他更开放的平台接替。
Steven Levy:有人认为 OpenAI 的这些变化实际上是AI“加速主义”的胜利。你自己不是悲观主义者,但你认同加速主义吗?
Yann LeCun:我不喜欢这些标签,我不认同任何这类的思想流派或者学说。我也不会评价这类观点,因为那样很容易陷入极端主义,犯下愚蠢的错误。
AI 安全与政策制定
Steven Levy:欧盟最近发布了一系列 AI 法规,其中一个重要内容是对开源模型给予了一定的空间,使得可以免于部分规则的限制。这对 Meta 和其他公司会有什么影响?
Yann LeCun:我们有足够的实力来遵守任何法规。其实,对于那些没有能力自行开发 AI 系统的国家来说,这个法规更为重要。他们可以利用开源平台来开发符合自己文化、语言和兴趣的 AI 系统。在不久的将来,我们与数字世界的大部分甚至所有互动可能都将通过 AI 来实现。我们当然不希望这些系统只受制于加州的少数几家公司。
Steven Levy:你是否参与了这个决策的制定过程?
Yann LeCun:我确实参与了,但不是直接与监管机构合作。我一直在与各国政府交流,特别是法国政府,同时也间接地向其他国家保持沟通。一个我们之间建立起的共识是:不应该让少数人控制国民的数字生活。法国政府很早就想通了这一点。可惜的是,我没有直接与欧盟层面的决策者交流,他们因为更多地受到了悲观预测的影响而希望通过严格的监管来防范他们认为的可能发生的灾难。但法国、德国和意大利政府并没有这么做,他们坚持为开源平台提供特殊的规定。
Steven Levy:但是,控制和规范开源 AI 真的有那么难吗?
Yann LeCun:并不。对于那些涉及安全的重要产品,已经有了相应的法规。比如,如果你要使用 AI 来设计新药,就已经有法规来确保产品的安全性。我觉得这是合理的。对 AI 的研究和开发进行监管我觉得没有必要。
“我们不希望让少数人控制国民的数字生活。”
Steven Levy:有人会担心,大公司发布的开源技术可能被别有用心的人利用,比如不法分子可能会利用它们去实现破坏性目的。
Yann LeCun:要做到这一点,他们需要能够秘密使用 2000 个 GPU,有足够的资金支持,还需要相应的专业能力。
Steven Levy:一些国家似乎有能力做到这一点。
Yann LeCun:连中国也做不到,因为存在贸易禁令。
Steven Levy:我认为他们最终会找到自主研发AI芯片的方法。
Yann LeCun:确实有可能。但他们在技术上会落后于最先进的水平几年。技术进步的历史就是这样,每当技术发展,你都无法阻止不法分子获取它。之后就是好的 AI 与坏的 AI 的较量。保持领先的方法是不断进步,而快速进步的途径是开放研究,让更广泛的社区为之贡献力量。
Steven Levy:你是如何定义 AGI 的?
Yann LeCun:我不喜欢“AGI”这个术语,因为实际上并不存在所谓的“通用智能”。智能不是一个可以线性测量的概念。不同类型的智能实体具有不同的技能集合。
Steven Levy:一旦我们的计算机达到了与人类相当的智能水平,它们不会就此停步。凭借深厚的知识、卓越的数学能力和更先进的算法,它们将创造出超级智能,对吧?
Yann LeCun:确实如此,机器最终将超越人类智能,这一点毫无疑问。不过我们无法预测这需要多长时间——可能是几年,也可能是几个世纪。
Steven Levy:到那时,我们是否必须做好准备?
Yann LeCun:不必。届时,我们每个人都会拥有 AI 助手,就像拥有一支由超级聪明的人组成的团队一样。他们虽然不是真正的人类,但能帮助我们工作。人们可能会对此感到恐慌,但实际上,我们应该对此感到兴奋。与比我更聪明的人一起工作,能够扩展自己的能力,这是令人兴奋的事情。
Steven Levy:但如果计算机发展到了超级智能,它们为什么还需要我们呢?
Yann LeCun:我们没有理由认为,仅仅是因为 AI 系统具有智能,它们就会想要统治人类。认为 AI 会像人类一样有同样的动机是一个误解,而且我们也会设计它们以避免这种情况。
Steven Levy:如果人类没有在 AI 中构建这些动机,超级 AI 是否会在盲目追求目标的过程中伤害人类呢?就像哲学家 Nick Bostrom 举的例子,设计了一个不惜一切代价只制造回形针的系统,最终控制了整个世界以制造更多回形针。
Yann LeCun:构建一个系统却不设置任何安全防护措施是极其愚蠢的。这就像造了一个有着千马力引擎却没有刹车的汽车。在 AI 系统中设置动机是确保它们可控和安全的唯一方式,我称之为“目标驱动 AI”。这是一种新型架构,但目前我们还没有实际案例。
Steven Levy:这是你目前正在研究的方向吗?
Yann LeCun:是。展开来说就是,AI 有其自己需要达成的目标,它不能产出任何与这些目标不符的成果。这些目标可能包括设置防护措施来防止潜在的危险等。
Steven Levy:你是否担心你参与开发的 AI 将来会带来不良后果?
Yann LeCun:如果我发现会有这样的后果,我就会停止研究。
“没有理由相信,仅仅是因为 AI 是智能的,它们就会想要统治我们。”
AI 作品是否有灵魂
Steven Levy:你对爵士乐情有独钟。AI 生成的作品能达到到目前为止只有人类能创造的那种精英级别、令人愉悦的创造力吗?它能创作出有灵魂的作品吗?
Yann LeCun:这个问题的答案比较复杂。在某种意义上,AI 系统最终会创作出技术水平与人类相当甚至更高的音乐作品——或是视觉艺术作品等。但 AI 系统还不具备即兴音乐的精髓,即依靠人类传达情感的能力。至少目前还没有。这也是为什么要听爵士乐最好是去现场聆听欣赏。
Steven Levy:那些音乐有灵魂吗?
Yann LeCun:市面上已经存在了很多缺乏灵魂的音乐。这些音乐在餐馆里作为背景音乐播放,它们更多是由机器制作的产品。而这类音乐也有其市场需求。
Steven Levy:但我指的是艺术的巅峰。如果我播放给你一段超越了 Charlie Parker 最佳水平的录音,然后告诉你这是 AI 创作的,你会感觉受骗吗?
Yann LeCun:会,因为音乐不仅仅是听觉体验,它在很大程度上是一种文化体验。它包含了对表演者的钦佩。你的这个例子就像 Milli Vanilli 事件。真实性是艺术体验中极其关键的部分。
Sense 说:
Milli Vanilli是一个在1980年代末和1990年代初著名的德国R&B和流行音乐组合。这个组合最初是由Fab Morvan和Rob Pilatus组成的。Milli Vanilli在音乐界迅速崛起,凭借如《Girl You Know It's True》、《Blame It on the Rain》和《Girl I'm Gonna Miss You》等热门单曲而广受欢迎。
然而,Milli Vanilli最著名的可能是他们的职业生涯中的一个巨大丑闻。在达到顶峰后不久,他们被揭露实际上并没有亲自演唱他们的歌曲,而是在公众面前假唱。这个丑闻震惊了娱乐界,导致他们被迫归还了他们在1989年获得的格莱美最佳新人奖。这个事件成为音乐史上最大的欺诈之一,并且对Milli Vanilli的职业生涯造成了毁灭性的打击。之后,这个组合解散,其成员试图在音乐界重建他们的声誉,但只取得了有限的成功。
Steven Levy:如果 AI 系统足够优秀,能够匹配顶尖艺术成就,而你对此一无所知,市场上将充斥着像 Charlie Parker 那样水平的音乐,我们也许无法分辨真伪。
Yann LeCun:我不认为这是个问题。我仍然会选择原创作品,就像我愿意花 300 美元购买一个拥有几百年文化传承的手工制作碗,即使我可以用 5 美元买到外观几乎相同的产品一样。我们还是会去现场欣赏我最爱的爵士乐手,即使他们的音乐可以被 AI 模仿。AI 带来的体验是完全不一样的。
Steven Levy:听说最近你从 Macron 总统那里获得了一个奖项?
Yann LeCun:是的,Chevalier de la Légion d'honneur(荣誉军团骑士勋章)。它由拿破仑创立,有点类似英国的骑士身份,但我们经历过一场革命,所以我们不会称呼人们为“ Sir ”。
Sense说:
Chevalier de la Légion d'honneur 是一种由拿破仑创立的荣誉勋章,类似于英国的爵位(knight)。不过,由于法国历史上发生过革命,他们不像英国那样使用“Sir”(爵士)这样的称号。换句话说,尽管这个荣誉与英国的爵位在地位上有所类似,但由于法国的历史和文化背景,他们对这种荣誉的称呼和看待方式有所不同。
Steven Levy:所以这个勋章还会赠予剑类的兵器吗?
Yann LeCun:并没有类似的物品,但是获得者可以在西装翻领上佩戴一条小红条。
Steven Levy:AI 有一天能获得这种奖项吗?
Yann LeCun:我不认为这是一个好想法。
参考材料
https://www.wired.com/story/artificial-intelligence-meta-yann-lecun-interview/
来源:AIGC
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com