由于微信限制了第三方应用的跳转,请使用以下方法。
1. 点击右上角的
2. 选择在浏览器中打开
文章转载来源:Yangz
文章来源:麻省理工科技评论
作者:Will Douglas Heaven
生成式人工智能在 2023 年席卷全球。它的未来以及我们的未来将取决于我们下一步的行动。
图片来源:由无界 AI生成
从很多方面来看,目前围绕生成式人工智能的热议都让人想起互联网的早期阶段:人们感到兴奋和期待,而且还有一种正在不断创造的感觉。
可以这么说,我们正处于 2000 年左右的互联网繁荣时期。很多公司会倒闭。我们可能需要几年时间才能看到这个时代的 Facebook(现在是 Meta)、Twitter(现在是 X)或 TikTok 出现。技术咨询公司 Booz Allen Hamilton 生成式人工智能主管 Alison Smith 说:“人们不愿意想象 10 年后的未来,因为谁也不想显得愚蠢。”“但我认为,它将会大大超出我们的预期。”
互联网改变了一切 -- 我们如何工作和娱乐、如何与朋友和家人共度时光、如何学习、如何消费、如何恋爱,等等。但它也给我们带来了网络欺凌、报复性色情和巨魔工厂。它助长了种族灭绝,加剧了心理健康危机,并使监控资本主义 -- 其令人上瘾的算法和掠夺性广告 -- 成为我们这个时代的主导市场力量。只有当人们开始大量使用人工智能,社交媒体等杀手级应用出现时,这些弊端才会显现出来。
生成式人工智能很可能也是如此。有了基础架构 -- 来自 OpenAI、谷歌、Meta 和其他少数几家公司的基础生成模型 -- 除了构建者之外,其他人也会开始以其制造者做梦也想不到的方式使用和滥用它。Smith 说:“如果没有个人用户的真正使用,我们就无法充分了解它的潜力和风险。”
生成式人工智能是在互联网上训练出来的,因此继承了互联网上许多尚未解决的问题,包括与偏见、错误信息、侵犯版权、践踏人权和全面经济动荡有关的问题。所以,我们决不能盲目行动。
在我们观察生成式人工智能革命的发展过程中,有六个悬而未决的问题值得注意。这一次,我们有机会做得更好。
偏见已成为人工智能相关危害的代名词。现实世界的数据,尤其是从互联网上搜索到的文本和图片,充满了偏见,从性别刻板印象到种族歧视,不一而足。在这些数据上训练出来的模型会对这些偏见进行编码,然后在使用它们的地方强化这些偏见。
聊天机器人和图像生成器倾向于将工程师描绘成白人和男性,将护士描绘成白人和女性。黑人有可能被警察部门的面部识别程序误认,从而导致错误逮捕。招聘算法也更倾向于男性而不是女性。
如果没有新的数据集或新的模型训练方法(这两项工作都需要数年时间),偏见问题的根源就会一直存在。但这并不妨碍它成为一个热门的研究课题。OpenAI 一直致力于利用人类反馈强化学习(RLHF)等技术来减少大型语言模型的偏差。这将引导模型的输出向人类测试者认为他们更喜欢的文本类型靠拢。
其他技术包括使用合成数据集。例如,Runway 在人工智能生成的不同种族、性别、职业和年龄的人的图像等合成数据上训练了一个版本的 Stable Diffusion。该公司报告说,在该数据集上训练的模型生成了更多肤色较深的人的图像和更多女性的图像。如果需要一张商务人士的图像,那么输出的图像也会出现戴头巾的女性;医生的图像也会出现不同肤色和性别的人,等等。
然而,一些批评者认为,这些解决方案只是在破损的基础模型上贴创可贴,掩盖而非解决问题。但 Smith 在 Booz Allen Hamilton 的同事、该公司负责人工智能的主管 Geoff Schaefer 认为,从长远来看,这种算法偏见可以暴露社会偏见。
举例来说,他指出,即使从数据集中删除了明确的种族信息,种族偏见仍然会影响数据驱动的决策,因为种族可以从人们的地址中推断出来,从而揭示出种族隔离和住房歧视的模式。他说:“我们把大量数据集中在一起,这种相关性就变得非常明显了。”
Schaefer 认为,这一代人工智能也会发生类似的事情:“全社会的这些偏见都会显现出来。“他说,这将导致更有针对性的政策制定。
然而,很多人会对这种乐观态度表示反对。问题暴露在公众面前并不能保证它一定会得到解决。政策制定者仍在努力解决多年前就暴露出来的社会偏见,包括住房、招聘、贷款、治安等方面。与此同时,个人也要承担后果。
预测:偏见仍将是大多数人工智能生成模型的固有特征。但变通方法和不断提高的意识可以帮助决策者解决最明显的例子。
艺术家和作家(以及程序员)对科技公司未经同意就从他们的作品中获利感到愤怒,因此对 OpenAI、微软和其他公司提起了集体诉讼,声称它们侵犯了版权。Getty 正在起诉 Stable Diffusion 背后的公司 Stability AI。
这些案件都是大事。Sarah Silverman 和 George R.R. Martin 等知名人士引起了媒体的关注。至少在美国,这些案件将改写有关合理使用和不合理使用他人作品的规则。
然而,这一切还不会立马有结果。代表 280 多家人工智能公司的 Gunderson Dettmer 律师事务所专门从事知识产权许可的合伙人 Katie Gardner 说,法院做出最终裁决还需要好几年的时间。她说:“到那时,这项技术将在经济中根深蒂固,无法挽回。”
与此同时,科技行业正以惊人的速度在这些涉嫌侵权行为的基础上继续发展。Gardner 说:“我不认为公司会观望。”“可能会有一些法律风险,但如果跟不上,还有很多其他风险。”
一些公司已经采取措施限制侵权的可能性。OpenAI 和 Meta 声称,它们已经为创作者提供了从未来数据集中删除作品的方法。现在,OpenAI 也禁止 DALL-E 的用户要求获得在世艺术家风格的图像。但是,Gardner 说:“这些都是为了支持他们在诉讼中的论点而采取的行动”。
谷歌、微软和 OpenAI 现在都提出要保护其模型的用户免受潜在的法律诉讼。微软为其生成式编码助手 GitHub Copilot 制定的赔偿政策,原则上将在法院解决此事时保护那些使用该软件的用户。微软首席执行官 Satya Nadella 表示:“我们将承担这一责任,让我们产品的用户不必为此担心。”
与此同时,新的授权协议也层出不穷。Shutterstock 已与 OpenAI 签署了一份为期六年的协议,以使用其图像。Adobe 声称其自己的图像制作模型 Firefly 只接受了许可图像、Adobe Stock 数据集中的图像或不再受版权保护的图像的训练。不过,Adobe Stock 的一些贡献者表示,他们没有被征求过意见,而且对此并不满意。
怨恨情绪十分强烈。现在,艺术家们正在用自己的技术进行反击。一款名为“Nightshade”的工具可以让用户以人类无法察觉的方式修改图片,但对机器学习模型来说却是毁灭性的,它会让模型在训练过程中对图片进行错误分类。网络媒体的共享和再利用规范有望发生重大调整。
预测:高调的诉讼将继续吸引人们的关注,但这不可能阻止公司建立生成模型。围绕道德数据集的新市场将会兴起,公司与创作者之间的猫鼠游戏将会继续上演。
我们早就听说人工智能正在取代我们的工作。这次的一个不同之处在于,白领 -- 数据分析师、医生、律师和记者 -- 看起来也面临风险。聊天机器人可以应对高中考试、专业医疗执照考试和律师资格考试。它们还能总结会议内容,甚至撰写基本的新闻报道。那么,留给我们的工作还有什么?事实远非如此简单。
许多研究人员否认大型语言模型的表现是真正智能的证据。但即便如此,对于大多数专业角色来说,这些模型所能完成的任务还远远不止这些。
去年夏天,宾夕法尼亚大学沃顿商学院研究创新的 Ethan Mollick 帮助波士顿咨询集团进行了一项实验,研究 ChatGPT 对顾问的影响。该团队给数百名顾问布置了 18 项与一家虚构的制鞋公司有关的任务,如“针对服务不足的市场或运动提出至少 10 个新鞋创意”以及“根据用户划分制鞋业市场”。小组中有些人使用了 ChatGPT,也有人没用。
实验的结果令人震惊:“使用 ChatGPT-4 的顾问在各方面的表现都远远优于未使用 ChatGPT-4 的顾问。在每个维度上都是如此。”Mollick 在一篇关于这项研究的博文中写道。
风险投资公司 Air Street Capital 的创始人兼《人工智能现状报告》(State of AI Report)团队负责人 Nathan Benaich 说,许多企业已经在使用大型语言模型来查找和获取信息。对此他表示欢迎:“希望分析师能够成为一种人工智能模型,”他说。“这些东西基本上都是令人头疼的。”
他的观点是,将繁重的工作交给机器,可以让人们专注于工作中更有意义的部分。这种技术似乎还能提高员工的技能:早期的研究,比如 Mollick 对顾问和其他编码员的研究表明,经验较少的人在使用人工智能后会得到更大的提升。(不过也有一些注意事项。Mollick 发现,过于依赖 GPT-4 的人变得粗心大意,当模型出错时,他们不太可能发现错误)。
生成式 AI 不仅能改变上述工作。图像和视频制作模型可以在没有人类插画师、摄影师或演员的情况下,制作出无穷无尽的图片和电影。2023 年美国编剧和演员的罢工表明,这将是未来几年的一个热点。
即便如此,许多研究人员认为这项技术总体上是提高工人的能力,而不是取代工人。毕竟,自工业革命以来,技术一直在为工作而生。随着旧的工作岗位逐渐消失,新的工作岗位也随之产生。Smith 说:“我强烈地感觉到,这是一种净积极因素。”
然而,变革总是痛苦的,净收益可能掩盖个别损失。技术变革也往往会集中财富和权力,加剧不平等。
Mollick 写道:“在我看来,问题不再是人工智能是否会重塑工作,而是我们希望这意味着什么。”
预测:对大量失业的担忧将被夸大。但生成工具将继续在工作场所大量出现。角色可能会改变;我们可能需要学习新的技能。
2023 年最热门的三张图片分别是教皇身穿 Balenciaga、特朗普被警察摔倒在地以及五角大楼爆炸的照片。所有这些都是假的,但都被数百万人看到并分享。
使用生成模型创建虚假文本或图像比以往任何时候都要容易。许多人警告说,错误信息将过载。OpenAI 合作开展了一项研究,强调了其技术在假新闻活动中的许多潜在滥用。在 2023 年的一份报告中,它警告说,大型语言模型可用于大规模制作更具说服力的宣传品,而这种宣传很难被发现。美国和欧盟的专家已经表示选举面临风险。
拜登政府将人工智能生成内容的标签和检测作为其 10 月份人工智能行政令的重点,这并不令人意外。但该命令并没有从法律上要求工具制造商将文本或图像标注为人工智能的作品。而最好的检测工具也还没有好到可以信赖的程度。
本月达成一致的欧盟人工智能法案则更进一步。该法案的部分内容要求公司在人工智能生成的文本、图像或视频上打上水印,并向人们明确说明他们是在与聊天机器人互动。此外,《人工智能法案》还具有法律效力:这些规则将具有约束力,并对违规行为处以高额罚款。
美国还表示,它将对任何可能对国家安全构成威胁的人工智能进行审计,包括干预选举。Benaich 将这称之为伟大的进步。但是,即使是这些模型的开发者也不知道它们的全部能力:“政府或其他独立机构可以强迫公司在发布模型之前对其进行全面测试,这种想法似乎并不现实”。
问题在于:在一项技术被使用之前,我们不可能知道它被滥用的所有方式。“2023 年,有很多关于放慢人工智能发展速度的讨论,”Schaefer 说。“但我们持相反的观点。”
除非这些工具被尽可能多的人以尽可能多的不同方式使用,否则我们不会让它们变得更好。他说:”我们不会了解这些怪异风险的细微表现方式,也不会了解哪些事件会触发这些风险。“
预测:随着使用的增加,新的滥用形式将不断出现。会有一些突出的例子,比如涉及选举操纵。
生成式人工智能的开发成本,包括人力成本和环境成本,也需要加以考虑。隐形工人问题是一个公开的秘密:我们之所以能幸免于生成模型所能产生的最糟糕的结果,部分原因在于有大量隐蔽的(通常收入微薄的)工人为训练数据贴标签,并在测试过程中剔除有毒的、有时是创伤性的输出结果。这是数据时代的血汗工厂。
2023 年,OpenAI 在肯尼亚使用工人的做法受到了《时代》和《华尔街日报》等大众媒体的关注。OpenAI 希望通过建立一个过滤器来改进其生成模型,从而从用户那里隐藏仇恨、淫秽和其他令人反感的内容。但要做到这一点,它需要人们发现并标注大量此类有毒内容的例子,以便其自动过滤器能够学会识别它们。OpenAI 雇用了外包公司 Sama,而后者则被指控在肯尼亚使用了低薪工人,这些工人几乎得不到任何报酬。
随着生成式人工智能成为主流关注点,人力成本将成为更突出的焦点,这将给建立这些模型的公司带来压力,要求它们解决世界各地受雇帮助改进其技术的工人的劳动条件问题。
另一个巨大的成本,即训练大型生成模型所需的能源,在情况好转之前还将继续攀升。今年 8 月,英伟达宣布 2024 年第二季度盈利超过 135 亿美元,是上年同期的两倍。其中大部分收入(103 亿美元)来自数据中心,换句话说,就是使用 英伟达硬件训练人工智能模型的其他公司。
英伟达首席执行官黄仁勋(Jensen Huang)表示:“需求非常大。”“我们正处于生成式人工智能的起飞阶段。”他承认存在能源问题,并预测这一热潮甚至会推动所部署的计算硬件类型发生变化。他说:“世界上绝大多数计算基础设施都必须高效节能。”
预测:公众对人工智能的劳动力和环境成本的认识提高,将给科技公司带来压力。但不要指望这两方面很快会有明显改善。
长期以来,人工智能领域一直暗流涌动,人们担心智能机器的诞生会带来灾难性的后果,甚至是世界末日。由于炒作达到了顶峰,再加上人工智能先驱 Geoffrey Hinton 在 5 月份高调宣布对自己帮助建立的技术感到恐惧,使得这种情绪浮出水面。
在 2023 年,几乎没有什么问题能像这个问题一样引发分歧。像辛顿和同为图灵奖获得者的 Yann LeCun 这样的人工智能名人都在公开场合大打口水仗,在社交媒体上互相攻击。
辛顿、OpenAI 首席执行官山姆 - 阿尔特曼(Sam Altman)等人建议,(未来的)人工智能系统应该有类似于核武器的保障措施。这些言论引起了人们的关注。但美国科学家联合会(Federation of American Scientists)核信息项目经理 Matt Korda 在今年七月与他人合写的一篇文章中,对这些“混淆不清的类比”及其引发的“媒体恐慌”表示谴责。
Benaich 说,我们很难理解什么是真实的,什么是虚假的,因为我们不知道发出警报的人的动机是什么。“很多人因为这些东西而变得非常富有,而很多人正是那些要求加强控制的人,这看起来确实很奇怪。这就好像,‘嘿,我发明了一种非常强大的东西!它有很多风险,但我有解药’”。
有些人担心所有这些恐惧宣传的影响。深度学习先驱 Andrew Ng 在 X 上写道:“我对人工智能未来最担心的是,如果过度夸大的风险(比如人类灭绝)让科技游说者颁布了压制开源和压制创新的窒息性法规。”这场争论还将资源和研究人员从更直接的风险上引开,如偏见、工作动荡和错误信息。
谷歌颇具影响力的人工智能研究员 François Chollet 表示:“有些人推崇存在性风险,因为他们认为这对自己的公司有利,”“谈论生存风险既能凸显你的道德意识和责任感,又能转移人们对更现实、更紧迫问题的注意力。”
Benaich 指出,有些人一方面敲响警钟,另一方面却在为自己的公司筹集 1 亿美元的资金。他说:“大可以说‘末日论’是一种筹资策略。”
预测:恐慌会逐渐平息,但对决策者议程的影响可能会持续一段时间。呼吁重新关注更直接危害的呼声将会继续。
想想 ChatGPT 差点就没出现。在 2022 年 11 月推出之前,OpenAI 的联合创始人兼首席科学家 Ilya Sutskever 并不看好 ChatGPT 的准确性。公司里的其他人也担心它并没有什么进步。从本质上讲,ChatGPT 更像是混搭,而不是革命。它由 GPT-3.5 驱动,这是 OpenAI 几个月前开发的大型语言模型。但是,聊天机器人将一些引人入胜的调整 -- 尤其是更会说话、更有针对性的回复 -- 整合到了一个易于使用的软件包中。“它功能强大且方便,”Sutskever 说。“这是人工智能领域第一次让人工智能之外的人看到人工智能的进步。”
ChatGPT 引发的热潮还没有结束。Sutskever 说:“人工智能是城里唯一的游戏。”“这是科技领域最大的事情,而科技是经济领域最大的事情。我认为,我们将继续为人工智能所能做的事情感到惊讶。”
不过,既然我们已经看到了人工智能的能耐,也许眼下的问题是它的用途。OpenAI 在构建这项技术时并没有考虑到它的真正用途。研究人员在发布 ChatGPT 时似乎是这么说的:想怎么用就怎么用。从那时起,每个人都在争先恐后地寻找答案。
“我发现 ChatGPT 非常有用,”Sutskever 说。“我经常用它来做各种乱七八糟的事情。”他说,他用它来查找某些单词,或者帮助他更清楚地表达自己的意思。有时,他还会用它来查找事实(尽管并不总是事实)。OpenAI 的其他人则用它来制定度假计划,或者提供编码技巧或 IT 支持。
这些都很有用,但不能改变游戏规则。这些例子中的大多数都可以用现有的工具来完成,比如搜索。与此同时,据说谷歌内部员工对该公司自己的聊天机器人巴德(Bard)(现在由谷歌的 GPT-4 竞争对手 Gemini 提供支持,于上个月推出)的实用性表示怀疑。“我仍在思考的最大挑战是:就帮助性而言,LLM 真正有用的是什么?”据彭博社报道,Bard 的用户体验负责人 Cathy Pearl 今年 8 月在 Discord 上写道。“比如真正有所作为。待定!”
没有杀手级应用,“wow”的效应就会逐渐消失。投资公司红杉资本(Sequoia Capital)的统计数据显示,尽管 ChatGPT、Character.ai 和 Lensa 等人工智能应用推出时病毒式传播,但这些应用的用户流失速度比 YouTube、Instagram 和 TikTok 等现有流行服务更快。
Benaich 说:“消费科技的法则依然适用。”“会有很多实验,很多东西在炒作几个月后就会死掉。”
当然,互联网的早期也充满了错误的开始。在改变世界之前,网络公司的繁荣以失败告终。今天的生成式人工智能总是有可能消声匿迹,被下一个大事件所取代。
不管发生什么,既然人工智能已经完全成为主流,那么利基问题就成了所有人的问题。正如 Schaefer 所说:“我们将被迫以前所未有的方式来解决这些问题。”
来源:Yangz
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com