文章转载来源:AIcore
探讨AI-Agents的创新可能性
AI-Agents之所以能够成为一个越来越备受关注的方向,很多程度上是因为LLM为AI-Agents的落地应用提供了可行的技术实现路线,其次是有很多AI-Agents相关的项目火爆出圈。
尽管LiLian Weng在其文章中,定义了LLM驱动的AI-Agents是什么?但是Deepmind也在试图定义一个统一智能体的概念,我相信AI-Agents这个概念也会随着不同的AI公司的理解,而形成不同类型的差异化。
而比较明确的关键共识是,基于LLM驱动的Agents实现对通用问题的自动化处理,是此次大型语言模型爆发周期中,我们所指认的,且形成共有认识的AI-Agents。
在AI-Agents的应用相关层面,在当前阶段我们应该尽可能用“相关性”的视角来看待AI-Agents,即对AI-Agents的可能形态抱以试错的包容性以及对创新的可能性,切不可像某些评论家一样,以一种狭隘的立场寻找一种标准化的答案,这些都是不可取的。
例如Auto-GTP作为一种可能性,事实上启发了很多Agents项目,但狭隘的批判会失去捕获新机遇的机会,这是华人开发者中普遍存在的一些现象。没有创造力的开发者,你又将如何在自然语言编程的时代,依赖自己的传统竞争力呢?
尽管现在也有不少关于AI-Agents相关项目的介绍,但是我认为存在同质化罗列介绍的问题,这些内容解决了让我们 初步知道有哪些项目是属于AI-Agents这一方向,但是没有从相关性出发,展示AI-Agents在不同应用领域的潜在可能性,以及某类AI-Agents项目的生态位置。
例如在我的介绍中,Auto-GPT、BabayAGI和MetaGPT会被我归在一类生态中,因为他们具有某一路径的延续性;
总而言之,关于AI-Agents的代表性项目介绍中,我使用了“相关性”、“生态位置”以及“延续性”的视角,进行了代表性项目的介绍,使得我们可以从中隐约看到AI-Agents未来的发展趋势。
以下的10个代表性的相关项目出现,包括一些相关引用项目,我将以案例为拼图,拼凑出一个相对完整的图谱,足以让更多人清晰意识到,Agents的潜力如何改变互联网的一切,包括重塑Web3格局。
AI-Agents大致上会分为两大方向:Autonomous Agents和Generative Agents。
Autonomous Agents以Auto-GPT为例,代表了通过自然语言的需求描述,能够自动化执行各项任务达成目标结果,在这个协作关系中,Autonomous Agents是服务于人,具有明确的工具属性;
Generative Agents以斯坦福发表的25个智能体的虚拟小镇为例,Generative Agents作为一个具有类人格特征、自主决策能力以及长期记忆等特征,更偏向“原生性”概念的AI-Agents,在这个协作关系中,Agents具有数字原生意义的社会关系,不仅仅是服务于人的工具;
Auto-GPT知名度最高的一个开源项目,其在GitHub的介绍很简单“An experimental open-source attempt to make GPT-4 fully autonomous.”,一个实验性的开源尝试,旨在使GPT-4完全自主化。
简单概括,就是Auto-GTP能够通过一句话的任务需求,能够完全自动化的实现最终的任务结果;Auto-GPT能够实现自主完成任务的核心逻辑,在于借助了语言模型的任务规划能力,通过对任务进行一步步拆解分析,以及自动完善任务的执行步骤,在这过程中具有在网络上搜索结果后反馈给语言模型,并进一步进行任务拆解与执行。
用通俗大白话来比喻,Auto-GPT在“自问自答”的过程中把任务给完成了,不需要人类再提供提示词。
尽管有很多人诟病Auto-GPT存在巨大的token消耗且没有稳定的结果,但是Auto-GTP作为一种基于LLM的自动化案例,极大地挑起开发者的好奇心,类似的Auto-GPT的还有BabayAGI、MetaGPT等,这些都在以开源项目的实验探索自动化的最前沿。
项目地址:https://github.com/Significant-Gravitas/Auto-GPT
BabyAGI可以根据之前任务的结果和我们预设的目标,自动创建、排序和执行新的任务。它利用自然语言处理技术,根据目标创建新的任务,并把任务结果存储在数据库里,以便在需要时找到相关信息。
BabyAGI其实是一个Python脚本,这个脚本通过运行一个无限循环来完成以下步骤:
项目地址:https://github.com/yoheinakajima/babyagi
Auto-GPT和BabyAGI理论上都代表着我们当前LLM爆发的初始时期,我们基于LLM实践AGI的探索,基于LLM驱动的通用任务解决处理器,我认为是未来AI-Agents领域的圣杯。
斯坦福和谷歌研究员发布的《Generative Agents: Interactive Simulacra of Human Behavior》这篇论文,已经是非常知名的一个AI- Agent项目,总而言之,这项研究将25个AI智能体放在一个像素风格的虚拟小镇上,智能体之间可以实现人类生活行为的模拟交互,也可以与虚拟小镇的所在环境发生交互,并且还可以与虚拟世界之外的人类产生交互。
这篇论文有两个关键的解决方案是最值得我们去关注的:
1,生成式代理的架构
代理感知它们的环境,并将所有感知保存在称为记忆流的全面记录中,记录了代理的经历。根据它们的感知,该架构检索相关的记忆,然后使用这些检索到的行为来确定一个动作。这些检索到的记忆还用于形成更长期的计划,并创建更高级别的反思,这两者都被输入到记忆流中以供将来使用。
2,记忆流
基于生成式代理的架构,以及实验所处的交互环境,代理必然会产生大量的记忆数据,Memory Stream是一个全面记录了生成代理所有记忆的数据库。它是一个包含多个记忆对象的列表,每个对象包含自然语言描述、创建时间戳和最近访问时间戳。记忆流的最基本元素是观察,它是代理直接感知到的事件。常见的观察包括代理自己执行的行为,或者代理感知到其他代理或非代理对象执行的行为。
基于以上两个关键构成,事实上,生成式代理的整体行为分为【记忆与检索】【反思】【规划与反应】三大部分构成,具体可以参考原论文内容。
这篇论文以及这个实验验证了基于LLM形成的代理所产生的交互行为,得以在一个数字环境中行为可信的模拟人类交互的行为,生成式代理可以在很多数字化环境中发挥作用,尤其是生成式代理与人类所形成的一种人机交互关系。
我们最能直观感受到的,就是生成式代理作为一种元宇宙原生数字居民的角色被创造,并与人类元宇宙的环境中产生各种交互动作。事实上,我们完全可以模拟一个AI-Agents高度发达的数字虚拟世界,人类从该世界中摘取AI-Agents的数字劳动成果;
由于Agents这一次在很多语境中,都被翻译成为“代理”,代理很容易联想到中介的角色概念,使得很多人无法直观建立对Agents的场景应用的联想;在这三个案例中,分别展示了Agents如何成为可被雇佣的“人类专家”,完全不需要人类参与的自动化营销公司,以及Agents之间如何组建成为团队互相协作。
在下文的案例中,我们可以使用NexusGPT创建多个专家职员,并且通过GPTeam将其组建成为一支受雇佣于人类的团队,而这个AI团队就职于AutoCorp这样的完全自动化公司。当我们将这些拼图拼凑起来的时候,我们才得以直观的感受到未来已来;
这是 一个由独立开发者Assem做的号称世界第一个AI自由职业者平台,NexusGPT基于LangChainAI的框架,使用GPT-3.5的API和Chroma(一个AI-native的开源嵌入式数据库),NexuseGPT平台上拥有八百多个具有特定技能的AI代理人。
在 NexusGPT上的代理可以智能地调整问题的难度:
但这些都依赖于OpenAI和LangchainAI的函数调用的支持;
而在代理的任务执行过程中,作者考虑通过循环中的人工反馈和评级观察系统收敛到高评级的速度。事实上这是为了提供拥有特定技能的AI代理在与人类甲方的任务需求沟通中,实现迭代优化的改进策略。
NexusGPT代表了人类雇佣Agents的 一种未来商业模式,这个项目其实有很多值得改进的地方,例如Agents与专家模块(专家系统与专家模型)的结合,甲方雇佣Agents的计价方式以Token的消耗量计算等,这些都会改变我们传统的人力雇佣劳动市场的方式,也将会改变DAO的协作方式;
AutoCorpmina fahmi和他们团队在纽约GPT/LLM黑客马拉松期间用时5小时创建的。AutoCorp是一个完全自主的品牌营销公司 ,AutoCorp会自动为一家直销T恤的公司创建品牌广告和产品设计,当有顾客提出新的消费需求时,AutoCorp将会更新其主题并生成新的设计资产,朝着更好地业务方向而不停的自我迭代。
首先,AutoCorp根据最初的想法为T恤品牌制定了一个初始想法。然后,它用这个初始想法生成了公司的各种资产和默认样式指南。当顾客提出需求时,AutoCorp会根据这些需求来更新自己的计划。如果某个计划导致销售较少,AutoCorp会做出调整。上述流程已经从头到尾运行,并且可以实际上连接到广告API和定制T恤API,以便在真实世界中部署。
本段内容引用自Mina fahmi的推特,而 AutoCorp也是mina fahmi和他们团队在纽约GPT/LLM黑客马拉松期间用时5小时创建的,而他们创建AutoCorp的目的也是为了将“Autonomy”的概念推向极致。
AutoCorp其实与DAO的目的是高度一致的,如果说去中心化组织的极致是把“人”的因素也去除掉,那么将生产业务完全自动化实现其实是DAO这一概念的合理发展诉求。AutoCorp其实代表了DAO未来的业务发展方向。
GPTeam是一个开源的多代理仿真系统。GPTeam利用GPT-4创建多个代理,它们协作以实现预定义的目标。该项目的主要目标是探索GPT模型在提高多代理生产力和有效沟通方面的潜力。
GPTeam采用了独立的代理,每个代理都配备了记忆,并通过通信进行交互。代理的记忆和反思实现受到了这篇研究论文的启发。代理在世界中移动,并根据自己的任务和其他代理的位置在不同的地点执行任务。它们可以相互交流,并在任务上进行合作,同时并行地朝着共同的目标努力。
项目地址:https://github.com/101dotxyz/GPTeam
事实上,类似GPTeam的开源项目依旧有很多,例如Dev-GPT,为用户创建定制化微服务的自动化开发团队。团队由虚拟的产品经理、开发人员和开发运维三个角色构成,Dev-GPT的技术思路主要以识别并测试有效的任务策略,如果连续10次失败,它会切换到下一个方法。
我们会看到越来越多的项目,将AI-Agents设计成为一种AI团队,定义Agents作为一种生产角色并不难,例如NexusGPT的案例,开发者可以将每个Agents设置成为具有专属技能的Agents,然后对于如何协同这些Agents发挥各自技能的同时,能够组合进行一个任务/项目的自动化执行,这是具有挑战难度的,而Project Atlas Agents在探索的基于自然语言的自动化操作,事实上为Agents-team提供了良好的应用场景;
这一切又让我不得不联想到DAO,基于自动化治理逻辑的自动化任务协作组织;
在AI完全替代掉我们的工作之前,Agents替代掉我们当前的大多数重复劳动是接下来Agents在商业领域的发展方向,在基于LLM的Agents出现之前,RPA(机器人流程自动化操作)是产业界所寻求的解决方案,但传统RPA门槛较高且无法普及给大众,RPA是一种对 传统IT交互逻辑不够自动化的一种补救,而当前的Agents能够以自然语言的交流方式,实现 了RPA的功能需求。
以下两个项目为我们展示了,基于LLM的Agents将如何帮助我们从日常工作与学术研究中,帮助我们从重复劳动中解放出来。(事实上这两个项目的潜力不止于此)
“Automatee your business Using Natural Languae”,使用自然语言将你的业务自动化,这是Cheat Layere的品牌口号。Cheat layer通过定制训练的GPT-4机器学习模型解决不可能的业务自动化问题,作为每个使用者的AI软件工程师。
Cheat Layer在Producthunt发布了两个产品,一个是Cheat Layer,一个是Project Atlas Agents,Project Atlas Agents是一个无代码项目的管理界面,可以用于构建和迭代AI Agents。
Cheat Layer通过谷歌浏览器的插件模式,使用自然语言的方式,对整个网页的操作实现自动化,例如我们在网页端的大部分常规操作事实上都可以使用自动化的进行操作。Cheat Layer很容易令人联想到RPA,即机器人流程自动化操作。关于Agents与RPA的之间的关系事实已经有诸多讨论,传统RPA被Agents淘汰肯定是不争的事实。
通过Cheat Layer使用自然语言,进行业务流程的自动化操作设置,而使用Project Atlas Agents管理不同的自动化流程,通俗来说,我们可以使用自然语言的模式,创建一个Agents用于管理某个业务的自动化执行,随着业务的复杂度增高,我们还可以对该Agents进行迭代完善。
暂时不知道Cheat Layer的营销推广情况,但是通过similarweb的数据统计显示,在主要用户以北美洲为主,以及访问量相比上个月增长了37.8%,通过创建一个Agents来自动化管理业务,相比于各种聊天机器人,这一需求可能能够极大地满足中小电商主的需求,也许这是一个值得探索与挖掘的方向;
GPT Researcher是一个基于GPT的自主代理,能够对任意给定的主题进行在线综合研究。该项目在Github的介绍是:
“该代理能够生成详细、客观、不带偏见的研究报告,并提供定制选项,以便集中关注相关资源、提纲和教训。受到AutoGPT和最近的Plan-and-Solve论文的启发,GPT Researcher解决了速度和确定性的问题,通过并行化代理工作而不是同步操作,提供更稳定的性能和更快的速度。”
GPT Researcher的架构主要通过运行两个代理来进行,一个是“规划者”,一个是“执行者”;规划者负责生成研究问题,而执行者则是根据规划者生成的研究问题寻找相关的信息,最后再通过规划者对所有相关信息进行过滤与汇总,然后生成研究报告;
更具体地说:
1. 生成一组研究问题,这些问题共同形成关于任何给定任务的客观意见。
2. 对于每个研究问题,触发一个爬虫代理,从在线资源中抓取与给定任务相关的信息。
3. 对于每个抓取的资源,基于相关信息进行总结,并跟踪其来源。
4. 最后,对所有总结的资源进行筛选和汇总,并生成最终的研究报告。
该项目的特点
生成研究、提纲、资源和教训报告
每项研究汇总了20多个网络来源,形成客观和事实的结论
包含易于使用的Web界面(HTML/CSS/JS)
支持JavaScript的网页抓取
记录和跟踪已访问和使用的网络来源的上下文信息
导出研究报告为PDF等格式...
尽管GPT Researcher是一个基于GPT的学术研究工具,并且这是一个在麻省理工学院的许可下出于学术目的而开源的项目。从内容创造的角度上来说,这一开源具有较高的商业价值,例如这一开源项目应用于商业分析报告时,还是能够节省大量的时间,其次将这一开源项目改造成为深度内容撰写的AI-agents时,也将彻底改变内容媒体行业的格局;
项目地址:https://github.com/assafelovic/gpt-researcher
显而易见的未来是,未来人类之间的协作关系不再是人类与人类之间的协作关系,而是人类与AI-Agents之间的协作关系,每个人都将拥有尽可能多的AI-Agents帮助自己的处理尽可能多的任务,由此形成一个庞大且复杂的智能社会协作结构;
人类与Agents之间的协作关系不同于过往社会科学理论中的人类与工具的协同理论,关键在于Agents作为一种类人类智能,拥有一定的自主决策能力,人类对Agents的信任能力也同样成为一个关键议题,且不谈Agents具有自我意识,而是在于Agents代替人类进行决策判断对社会交往行为的影响力。
基于对以上两个命题的思考,我们不得不意识到,能够让人类高效便捷的创造自己的AI-Agents,让自己的Agents拥有更多强大能力的同时,Agents是可靠且值得信任的,这些都离不开一个良好的基础设施提供支持。以下三个项目的介绍,我认为分别代表着未来AI-Agents的基础设施的建设方向;
LangChain是一个基于语言模型的应用程序开发框架。它能够实现以下功能
数据感知:将语言模型连接到其他数据来源
代理:允许语言模型与其环境进行交互。
LangChain的主要价值在于:
组件:提供处理语言模型的抽象,并为每个抽象提供一系列实现。这些组件是模块化且易于使用,无论您是否使用LangChain框架的其余部分。
现成链:一组结构化的组件,用于实现特定的高级任务。
现成链使得快速入门变得简单。对于更复杂的应用程序和细致的用例,组件使得定制现有链或构建新链变得容易。
langchain通过提供以下几个模块提供标准的、可扩展的接口和外部集成
Model I/O 模型输入与输出:与语言模型进行接口交互
Data connection 数据连接:与特定应用程序的数据进行接口交互
Chains 链:构建调用序列
Agents 代理:让链根据高级指令选择使用哪些工具。
Memory 存储器:在链的运行之间保存应用程序状态。
Callbacks 回调:记录和流式传输任何链的中间步骤。
得益于langchain在英文社区有着较为活跃的开发者生态,因此使用Langchain进行Agents应用开发的案例也相对较多,定义Agents的框架并提供零代码的开发框架,这是未来的趋势。
基于特定的框架系统,Agents的制造就像搭乐高积木一样,不同于Web3的模块化在于,Agents的模块不必是现成的,而是普通人也可以通过自然语言编程的模式开发出特定的组件,添加到Agents的框架之中。
例如很多人使用langchain的框架来开发聊天机器人,通过自然语言编程开发一个语气转化组件,添加到聊天机器人中,那么就可以将原本默认的对话语气,变成符合用户自己的偏好的对话语气。
langchain给到我们的启示是,无代码编程的Agents开发框架+自然语言编程的组件模块,可能是Agents普及的必要开发工具。
Transformer Agents是hungging Face推出的一个AI-Agents系统,尽管当前功能还不咋滴,但是必须保持关注的关键原因在于,huggingFace是一个庞大的模型库开源社区。
Transformer Agents其实就是在Transformer框架的基础之上,新增了基于自然语言的API:huggingface定义了一组工具并设计了一个代理来解释自然语言并使用这些工具,最重要的是,这个系统具有可扩展性的设计。
也就是说,Transformer Agents早期使用了少量被精心准备的代理工具,以验证这套系统的可行性,随后扩展性意味着Transformer Agents可以自由使用huggingface庞大的模型工具库。
我感觉这就是在实践《HuggingGPT: Solving AI Tasks with ChatGPT and itsFriends in Hugging Face》这篇论文所构建的方案,就是通过LLM连接一个庞大的模型库,解决多个领域多种模态的复杂任务,这个想象力其实是非常巨大的,一个汇聚人类智慧顶尖的AI模型库被通过Agents的形式服务于各行各业的复杂问题,很难不期待这样的未来。
当然,为了实现这一愿景是令人期待的,但在当前阶段,还是很期待Transformer Agents能够提出一个令人眼前一亮的agents框架,以适应开发者们涌入这个蕴含巨大金矿的生态之中。HuggingFace或者应该调整了自己的发展策略。
WebArena是一个独立的、可自主托管的用于构建自主代理的网络环境。WebArena创建包含四个热门类别的网站,这些网站具有功能和数据,模仿其真实世界的对应物。
为了模拟人类问题解决,WebArena还嵌入了工具和知识资源,作为独立的网站。WebArena引入了一个基准测试,用于解释高水平的现实自然语言命令,并转化为具体的基于网络的交互。研究员们提供了注释过的程序,用于编程验证每个任务的功能正确性。
引用论文概述:
“当前的代理主要是在简化的合成环境中创建和测试的,这在很大程度上限制了对真实世界情景的表示。在本文中,我们建立了一个代理命令与控制的环境,这个环境高度逼真且可复现。具体而言,我们专注于在网络上执行任务的代理,并创建了一个包含四个常见领域的功能完整网站的环境:电子商务、社交论坛讨论、协作软件开发和内容管理。我们的环境丰富多样,包括了一些工具(例如地图)和外部知识库(例如用户手册),以鼓励类似人类的任务解决方法。
基于我们的环境,我们发布了一组基准任务,重点评估任务完成的功能正确性。我们基准中的任务种类多样,时间跨度长,并旨在模拟人类在互联网上经常执行的任务。我们设计和实现了几个自主代理,整合了最新的技术,如先思考后行动。
结果表明,解决复杂任务具有挑战性:我们最好的基于GPT-4的代理仅实现了10.59%的端到端任务成功率。这些结果凸显了对强大代理进一步发展的需求,当前的最先进的语言模型在这些真实任务中表现还远未达到完美,而WebArena可以用来衡量这样的进步。”
论文标题:WebArena: A Realistic Web Environment for Building Autonomous Agents
论文地址:https://arxiv.org/pdf/2307.13854.pdf
这是一篇来自卡内基梅隆的AI研究员的学术研究成果,事实上WebArena补充当前普遍知道的langchain的开发架构,又或者各种Agents-Team的相关项目,我们需要一个Agents的模拟测试平台,用于确保Agents的稳健性和有效性。
这一平台的主要功能还是提供检验各种Agents项目的可行性,我甚至可以设想的一个场景是,当我未来在某平台雇用了一个Agents时,我们将Agents通过类似WebArena这样的平台,来测试Agents的真正工作能力,这也意味人类掌握对AI-Agents的定价决定的话语权。
基于Agents的自动化协作网络
通过我们以上十几个项目的介绍与分析,这些不同的项目就像拼图碎片一般,凑成了我们对Agents的相对整体认知,Agents事实上是将LLM潜力真正发挥出来的方向,LLM作为中枢,Agents赋予了LLM施展的手脚,基于LLM驱动的Agents所具有的功能多样性,将使得Agents如生物大爆发一样,人类与Agents成为一种数字伴生/共生的发展关系。
人类社会的协作网络也将因为Agents的大规模应用,构成了一个人类与Agents的自动化协作网络,人类社会的生产结构将由此得以 升级,由此社会的方方面面又将受到影响而改变;
改变互联网的一切
AI-Agents完全改变了我们在互联网获取信息、加工信息、生产信息以及使用信息的方式,改变了我们当前在依赖于互联网的商业模式,一个具备沟通能力与自主/自动执行任务的智能网络是互联网的未来形态,Agents就是那个我们与之对话与执行的智能媒介。
重塑Web3的叙事
加密货币网络将成为Agents天然的货币网络,整个AI-Agents协作网络所消耗的计算资源将使得Token成为重要的AI经济资源 ;Web3所代表的个人数据所有权,也将面临着新的人机交互关系中,人类与AI-Agents共享数据产权的全新命题。拥有自主产权的Agents出现(解放AI的激进运动),完全由AI-Agents自动化执行的DAO,以及超级个体垄断了大部分的网络数据产权与有效计算资源。
Web3浪潮下的数据平权运动,让每个人的数据所有权回归,让事实上大部分人不一定具备高价值的数据资源,数据所有权回归成为一种Web3叙事主义的政治诉求,却忽视了AGI社会的生产结构不平等;AI-Agents所代表的是AI作为超级生产力的同时也在构建新的人机交互与自动协作的生产关系,这使得我们不得不重塑Web3的叙事逻辑;
加速元宇宙的建设
从Generative Agents的发展演化,探索数字原生的数字居民,构建原生性的数字人(具有人格特征与自主意识的AI-Agents)在元宇宙的环境中形成的一些列社会活动,事实上正在加速元宇宙从一个数字空间演化成为一个具有社会功能与社会形态的数字疆域。计算空间的概念,也将让Agents的获得一个数字多模态的发展空间,进而加速Agents在数字环境中的具身智能的出现。
元宇宙的建设不再是人类的任务,而是成为AI-Agent的生存空间,而进行持续的自我扩建的任务;
警惕单一科技叙事的绑架
事实上,近几年来各种科技热点接连涌现,人类似乎进入了一个科技革命多发期,而事实上,Metaverse、Web3、AGI三个叙事接连涌现,给人们在选择事业方向上确实制造了不少的难度,由于市场上大部分人都是项目制的思维导向,项目本身的定位很容易被归属在特定的某个范畴,例如要么是Web3,要么是AI,这都是屁股决定脑袋,忽略科技史的客观发展规律。
科学技术的发展从来不是割裂的,而是在辩证统一中走向跨学科的融通。例如Web3的NFT叙事属性,天然就与元宇宙的叙事是符合的,而在Web3刚冒头的早期,这两者被某些人刻意对立,这些都是很狭隘的视角。而在今天的AGI叙事也一样,Web3从业者只知道AI工具,但却不深入思考AGI的叙事逻辑,会刻意制造了一个AI与Web3的认知阻力,例如很多Web3人对DAO的理解都在原地踏步,鲜有人勇敢停下来重新思考AGI对DAO的影响力。
Web3、Metaverse、AGI是三个高度关联的方向,传统主流科技媒体机构,或者投资机构等尚未建立对未来科技叙事的新范式理念,一直在用旧的叙事范式影响市场,这也导致了这几个方向的科技从业者的资源分散、思路不够打开。我们不排除未来将继续出现新的科技叙事,但如果继续采用对科技叙事的旧范式,那么科技人才的资源只会被一次又一次的分裂且分散,对科技认知的旧范式是一个损耗资源的无形之物。
整个中国科技行业当前面临的一个关键问题,就是对于科技是什么?缺乏新的叙事范式,没有新的叙事理念来指引我们更好地应对接下来的科技浪潮。我们总是埋头干项目,却缺乏能够凝聚科技力量的叙事,无论是Web3、Metaverse、AGI这三大叙事都不是起源于中国。
我倒是很向往迎来一个科技叙事百花齐放、百家争鸣的时代,我们急需形成对科技叙事的全新认知,进而才能找到正确的发展之路,确定自己在整个科技生态圈中的可持续发展位置。
当然,仅靠呼吁是没用的,还是得有人来做,那我就先干了 ,早就忍这些单一科技叙事思维不爽很久了!
来源:AIcore
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com