马兆远万字解读AIGC:国内公司要今年赶超OpenAI?至少得4-5年

转载
537 天前
5355
腾讯科技

文章转载来源:腾讯科技

文:腾讯科技 李海丹

图片来源:由无界 AI工具生成

【编者按】在最近的几个月,AIGC受到资本的热捧,ChatGPT火爆出圈,国内各大科技巨头和创业公司纷纷入场。人工智能正在悄无声息的对各行各业带来影响,这不再只是一次简单的技术演变,而将成为一场革命。

虽然这场AI应用爆发来的看似突然,但在背后其实已然经历过科学家们无数次的失败和经验积累。犹如我们本期对话嘉宾马兆远(南方科技大学教授、英国物理学会会士、英国皇家特许工程师,曾任职清华大学未来实验室首席研究员)在创作的《人工智能之不能》一书中提到的:“每一寸的进步都需要日拱一卒的努力和各种不确定的叠加。”

其实,在科技历史的长河中,这场技术革命只是带领人类走向通往“生成式AI时代”的第一步。迄今为止,我们仍需要关注很多存在的问题和矛盾。比如:在以OpenAI为引领者的这波技术浪潮下,国内是否可以实现迅速赶超?这场技术革命对社会和产业结构会带来怎样的变化?未来机器是否会取代人类?在这样科技飞速迭代的时代下,中国的人才教育应该如何培养?

本期《AI未来指北》,腾讯科技专访了马兆远,他针对这些问题分享了不同的思考和观点,我们将这篇万字实录整理成文,和各位网友一起探索、学习和思考, 这场变革下人工智能对于人类的意义。


不必担心人是否会成为“机器奴隶”,热点话题背后系资本炒作


随着近期人工智能大语言模型等产品应用的火爆,很多人都在担心随着人工智能的发展,会给人类带来一些风险和安全性问题,同人类的生存及社会产生矛盾。

对于人们所担心的问题,我想到了一个词,叫“机器奴隶”。

我们担心在未来的某一天会沦为“机器奴隶”,像电影《机械战警》中的一些情节一样:有一天,人类会受到机器的统治,不得不转移到地下生活。在这场斗争中,人类一直保持反抗精神,重新在努力夺回对未来和地球的控制权。最终,AI不得不派遣一台机器人穿越时空到1984年,试图在抵抗军领袖诞生之前将其消灭,一场场机器人与人类之间的战争在未来爆发......诸如此类这样的故事,可能很多人都会有这样类似的想象。

对于这样的观点和担忧,我认为完全没有必要。首先,从现有的技术水平看,机器人或智能实体不太可能真正实现“统治地球”,甚至成为人类的主宰。即便万一它们真的在未来的某个时间点,成为了人类的主人,也是在很长的时间后才能实现,我们也没有必要现在就去宣传这件事情,造成大家的担忧。

另外,尽管目前也有不少行业的大佬在讨论相关的话题。但我认为可能在某种程度上,是因为经济利益驱动了这个现象,以及背后资本市场的推动。因为资本必须要先炒作一个主题,才能从中获利。比如以前17世纪荷兰的历史事件——“郁金香泡沫”,将一个本来没有太大价值的虚拟概念炒作得很高,然后有人从中收割韭菜。但实际上,这个主题可能并不像我们想象的那么可怕。

过去十几年,我们看到中国的资本市场推出炒作过很多主题,比如从石墨烯材料,再到虚拟现实、比特币、元宇宙等等,今年又到了人工智能,每年我们都会炒作一个新名词。在这个过程中,作为资本大鳄可能会从中获利,资本越来越庞大。但对于普通小白来说,我们只是跟着这些名词走,如果不了解其中的运作逻辑和真实情况,可能口袋的钱也会被炒得差不多没有了。

最近ChatGPT爆火,它是一个重要的科技进步,从本质来看,改变了我们人类与计算机互动的方式。如果要说到革命性,从行业的发布格局来看,GPT改变了OpenAI、微软以及Google的命运,现在Google对于GPT的崛起非常紧张。GPT的出现,使人在使用搜索的精准度和搜索效率上大幅度提高。以前,当我们在使用Google进行搜索时,Google主页会展示与之相关所有可能的网页,可能有几百页,甚至几万条结果。但现在的模式可能更加精确地理解用户的问题,并给出一个最可能的答案,大大提高了信息检索能力。接下来,它可能会改变我们的工作模式,特别是在文件处理和数据收集方面,可以大大提高了我们的工作效率。

但谈到是否会发展到通用人工智能,从目前来看还是太遥远了。就像在我书中(指《人工智能之不能》)提到的:通用人工智能与人之间存在着一个核心、关键的鸿沟,现有的AI技术无法跨越这个鸿沟。至于原因,在下文会提到(06部分)。


国内市场缺乏构建生态系统的心态,赶超OpenAI至少需要4-5年


我们目前看到了很多大语言模型产品的上线和推出,比如目前火爆的ChatGPT做得很好,中国的许多大公司也在仿效,推出了很多类似产品。

例如,某家公司推出了一个产品,几天后另一家公司也推出了类似的产品,价格更便宜,并适用于中文环境,都在用类似的内容炒作。我认为国内的很多大公司缺乏构建生态系统的心态,都急于追求快速赚钱,一旦有一个新的名词出现,就迅速跟进。

这样的跟风现象,对于国家经济或地区经济的发展而言,是很不利的。如果我们一直追逐潮流,可能永远都赶不上。例如微软在过去的十年里在潜心研究,其他领域都没有做出太多突破,基本上都被其他公司压制了,需要承受的不确定性和压力很大。微软“憋”了十年,凭借其财力、研发能力以及商业合作策略,最终我们看到了ChatGPT和相关新的产品上线,通过长时间的日积月累才产生了“爆点”,而我们期望一夜之间公司可以实现翻天覆地的变革,这样的期待是不现实的。

难道这些公司是特殊的“天赋型选手”,只需短短几个月或者一两年,去完成别人花十年时间才能完成同样的工作吗?这些我们所考虑的问题,难道这些公司没有意识到吗?还是否需要一个炒作题,以推高股市和股价?这些都需要我们这些普通人认真思考,考虑是否应该跟风和做出相应的投资决定。

就国家经济发展的状态而言,如果跟风,可能永远追不上先跑的人。相反,我们应该根据我们当前的能力,思考如何进行相互之间的生态共建。这个问题对于国内的科技巨头来说值得思考。

举个例子:过去40年,中国的基础建设取得了巨大成就,比如中国的高铁已经发展得非常出色,已经成为全球范围内需要考虑的高铁系统,成为了中国的一张名片。再比如,通讯和计算机产业,中国的5G已经是全球最强的。在这些领域,我们有一些优势,基础建设已经做的很好,目前我们也可以在这些基础上构建一些可能性和生态发展的方向,发挥更大的优势。

我们可以想象,基于我们的优势方向上进行发展,未来10年或20年后,如果欧美一些国家针对一些技术方向做垄断,我们也可以根据领先的领域进入一种“互相卡脖子”的状态,获得谈判地位。回归到技术上,国内公司不论是想赶超GPT还是Bing,可能基于“前人”的经验,我们能够在研发的速度上有所加快,但如果追赶到同样的水平可能至少要4-5年。另外,我们也需要思考的是:即使追赶上,在几年之后,这阵风口是否已经过去了?并且微软或者Open AI 自己也在不断的迭代成长,已然成为“巨无霸”了?

总得来说,跟风投资实际上是浪费成本、浪费时间和人才。对于参与者来说,除了增加恐慌和忧虑,可能并不会获得任何收益,只会让资本在跟风过程中收割一部分投资者的利益。


AI不会造成大量人口失业,任何时代的职业都需人类自己创造


除了AI威胁论,人们更多关心的是AI对就业的冲击问题。

ChatGPT的高度拟人化引发了一波行业危机,很多人开始担心自己所处行业是否会受到冲击,甚至是失业。从目前来看,可能短期内会对一些岗位有所影响,但对不会扰乱社会的长期稳定。

从职业方向看,人工智能革命会不会对因此而导致人口劳动力的下降?答案是不会的。

举个例子,在工业革命时期,大约在18世纪到19世纪之间,最大的变化之一是农业人口的减少。在工业革命早期或者还没有开始时,地球上95%以上的人口都从事农业劳动,只有很少一部分是统治者或神职人员,彼时绝大多数人的身份都是农民为主。

现在情况有所不同,以发达国家为例,比如美国从事农业的人口不到2%。中间超过90%的人口已经改变了生产内容。虽然一部分的工作消失了,但是这些人并没有消失,并且人口反而在增加。从对人类社会的影响来看,这样的变革并没有导致长时间的失业问题甚至是影响人类社会的不稳定,很多人只是改变了从事的工作,改变的是人类的生产方式。虽然可能会导致一些岗位的大幅度缩减甚至消失,但也会因为这场变化,引发和新增更多其他的岗位需求。

再举个例子,我们提到一个英文单词叫做"Computer"(计算机)。当我们听到这个词时,在脑海中可能会出现一台机器,但是在70年前,"Computer"这个词的意义与现在有所不同。在那个时候,它指的是类似于曼哈顿计划中从事计算工作的工作人员。

在那个时代还没有计算机,没有像我们现在使用的这种台式机,但完成庞大工程需要大量计算,所以当时负责这个计划的公司雇佣了一些年轻而细心的女性,在专门的房间里使用计算尺和草稿纸进行大量的计算工作,这些女性被称为"computer"。

"Computer"这个词是为从事计算工作的人而创造的,指的是那些在办公室里从事大量计算工作的工作者。后来,随着计算机的出现,到今天当我们提到"Computer"时,我们知道它指的是计算机,而不是那些从事计算工作的女性。因此,"computer"这个词的意义彻底改变了,它变成了指代纯粹的机器。

所以,随着机器在某些领域的能力不断增强,它们可能会取代我们人类的一部分工作,导致某些工种的消失。然而,这些人并没有真正消失,他们转而从事更复杂的工作或者满足其他需求。

人类最伟大的特点之一就是不断创新并创造新的需求。这些新的需求会引发人们去创造新的就业机会。我们无需过于恐慌或担心关于失业的问题,纵观人类社会的历史浪潮里,一直在适应和应对这种变化。我们有能力不断创造和适应新的工作环境和就业机会。

再从职业技术需求来看,随着大模型语言应用的发展,编程任务的完成也会变得越来越简单。比如通过ChatGPT类工具的帮助,我们只需提出想做的事情是什么,下达明确的任务,GPT会帮我们完成其余的工作。比如我们可以直接向GPT提出需求,它会利用其编程和检索能力,直接生成代码。这样一来,甚至可能不再需要像Python这样的系统。简而言之,人们只需描述需求,然后继续实现这些描述的方式。

此外,从这样的趋势来看,未来编程的自动化程度会越来越高。好比当时我学习编程时学过的汇编语言,现在大部分年轻人可能不再知道如何编写它,是同样的道理。

汇编语言是一种介于人类语言和机器语言之间的高级语言,它包括汇编和直接用机器语言编程的方式。在汇编语言之后出现了C、C++、Java等语言,然后逐渐发展到了Python这样的语言。当我与学生交流时,我发现对于我们学过C语言的人来说,Python是一种非常不严谨的语言,但它已经成为学生们喜欢的工具,他们已经不太习惯使用C语言了。在一些理论体系的影响下,不同的工程师对于AI的可理解性还存在着差异。并且我们可能仍需要一些专业人员在后台不断完善这个系统,那么如何对于可理解性的标准需要统一,才会得到想要的结果。

总的来说,不论在任何时代,新的需求都是由我们人类自己创造的。我们不能采取静态的思维方式,关注在对人类的替代性和冲突上。如果地球上只有有限的工作和需求,当机器接管了这些工作后,我们人类可能真的没有存在的意义了。但实际上,人类的伟大之处在于我们能够不断创造新的需求,并通过人类来满足这些需求。


和AI比拼特长没有意义,需更多关注其政策约束和风险管理


现在,无论是中国还是美国,都开始出台一些相关的监管机制。任何时期的技术发展都需要一定的政策约束和风险管理。

我们以汽车的发展史作为例,1900年之前,汽车的数量很少,只有非常富有的人才能负担得起,并且对社会没有造成太大影响。此外,汽车的速度并不快,比如每小时只能行驶十几公里,所以与步行相比并没有多大区别,所以并不需要给它制定太多规则,只需让它发展就好。

但是,后来随着福特汽车公司引入流水线生产,汽车的成本大幅降低,普通人都能开车,汽车数量大幅度增加。汽车的速度也从每小时十几公里提升到每小时上百公里,这时候的汽车可能会变得危险起来,涉及到一些安全问题,因此我们人类开始需要为汽车制定规则。比如说给它设计专用道路,它不能再与行人混在一起行驶,甚至需要为它建设高速公路,并在人行驶的道路上设置红绿灯、交通信号灯等等,所有这些规则应运而生。

同样的道理,对于机器来说,我们设计它的目的就是让它能够高速地收集和整理数据,进行快速推演和逻辑思考。就像我们设计汽车是为了让它能够快速行驶一样。一旦汽车出现,我们就不需要再与它竞争谁跑得更快了。

因此,在计算机具有如此强大的数据整理和处理能力的情况下,与它在特定领域的专长进行比拼是没有意义的,我们更多的关注度是需要为它设定规则。

比如近期行业人士关注的"Midjoury"的技术,可以用于图像生成和语音模仿,甚至可以制作新闻。那么这些视频内容和新闻在网络上传播时,如何对它们进行监管以及如何确保其有效性?这就成为一个需要逐渐制定规则的问题。这些规则的制定使得人与机器如何共生成为一个现实的问题。

这些问题需要我们今天开始思考,并达成共识。既然汽车已经存在,地球上就是人类与汽车共生的状态。因此,我们需要制定汽车交通规则,以确保人类和汽车在城市或特定环境中的共存。这个过程中,不仅汽车需要遵守规则,人类也需要遵守规则。


AI的崛起会占用能源资源消耗,但对人类的使用效率提升帮助值得肯定


此次访谈中提到一个能源结构的问题:从产业经济结构角度来说,现在随着AIGC爆发式的增长,也需要更多算力的支撑,需要消耗更多的电力和水力支持,如此是否会导致改变相关国家或者全球能源结构的布局的改变?

这是肯定会发生的情况。当新的产业结构和需求出现后,这是必然的结果,问题在于如何安排和调整。如果AI消耗算力,就需要为其提供足够的能源。在这个能源过程中,涉及到对绿色地球和能源消耗结构的考虑,我认为与AI的发展并不特别相关,而是一种自然的情况。

根据相关数据,中国的云中心加起来每年消耗的电力可能相当于两个三峡电站的发电量(云中心的资源消耗不仅限于对AI的支持,甚至AI业务在其中的占比相对较小)。随着计算量的增加,对电力的需求会进一步增加。除了需要提供更多的新能源补充外,我们还需要考虑如何提高能源利用效率,这实际上是一个相对复杂的问题。在能源节省方面,需要进行计算,并需要进行散热处理。然而结合目前国内情况是,由于前几年的高速发展,我们为数据中心供给能源的一半用于散热。这是我们需要考虑的。

我们应该如何解决和避免资源占用和分配不合理的问题呢?我再举个例子:当年Google收购了Deepmind公司后,让Deepmind的团队做了一件事情,即通过强化学习和其他的很多AI算法,对Google的云中心进行节能调整。这样做事实上帮助Google降低了近50%的能耗。因此,Google的云中心几乎百分之百的电能用于计算,而只有极少部分(不到约5%)用于散热。因此,这样的优化形式,大规模地节省了Google的云中心能源的浪费。

因此,如果我们能够达到类似Google的云中心使用效率水平,并且考虑到双碳和全球提倡的绿色能源,我们之后可能更多的还是去考虑如何去有效的利用能源。

需要关注的是,这个问题我们只是在探讨能源角度的消耗。总的来说,AI确实能帮助我们的使用效率会得到大幅度提高,一旦普及使用,可能带来的效率提升意义远超于它的能耗影响。


AI如何理解人类的语言?通过三种逻辑推理模式


目前的深度学习模型,特别是最近出现的大型语言模型,尚且是一种“黑盒技术”。虽然大型语言模型在自然语言处理的许多任务上表现出色,但我们仍然需要寻找一种可解释的方法。

在科研工作中,我们通常习惯将现象与其他事物联系起来,并且如果能够用一个简洁而漂亮的公式来描述它们,就可以表明我们理解了。但是,从目前大语言模型包括神经网络的可解释性来看,它的参数会很随机,并且如果参数有非常小的改变,也会让结果发生很大的变化。尽管这些参数在架构中发挥作用,但我们并不完全清楚它们的具体机制。我们无法用简单的代数模型来描述它们,从这个角度来说,它还没有被更好地理解。

我们普通人(非专业人士)不习惯使用大量数字来描述两个事物之间的关系以及每个数字的变化如何导致结果。当这种关系不够明确时,我们会认为这种状态还未达到理解的程度。因此,人们经常会混淆其中的概念,认为大型语言模型或神经网络还没有被理解。实际上,它们并非完全没有被理解,只是我们还没有找到我们习惯的满意方式来理解它们。

目前,GPT更多是基于对大数据的训练,其主要的方式是学会根据概率判断我们最可能想要的答案,它现在的推理形式是否可行和可靠,我们可以从这几个方面来看:

首先,基于最大概率给出可能的答案,在算法层面上涉及到神经网络和贝叶斯统计的方法,是GPT在后台使用的逻辑,而且是正确的。

另外,谈到逻辑推理,我们可以将逻辑推理分为三种不同的模式,不仅限于逻辑带。

当我们人类认知世界时,有三种不同的方式:

第一种是演绎性推理,它可以得出严格正确的结论。机器在进行演绎推理时比我们快得多,因为它基于古典逻辑的四个基本原则:同一律、矛盾律、排中律和因果律。

基于这四个原则,可以推导出确定性的结论。然而,确定性结论的问题在于逻辑上它被称为重言式,即用另一种方式再次表述已知事实。从演绎性推理来看,其实答案已经蕴含在你所有的前提假设中了,只是以另一种方式表达出来。

我们需要了解的一点是,事实上,图灵机就是为此而设计的,它是一个古典演绎逻辑机。在1936年,英国数学家图灵发表了一篇重要文章《论可计算数及其在判定问题中的应用》标志着图灵机的诞生。图灵机的运转和我们笔算的思维过程十分相似。图灵机模型是目前为止应用最为广泛的经典计算模型,没有之一。

到今天为止,人工智能还是基于图灵机来实现的。图灵机做不了的事情,不论今天的计算机如何强大,都做不了。这是我们思考人与AI之间分工的核心之一。

第二种模式是称为归纳法。归纳法是通过观察多个事件并找出它们共同的特征,将其归纳为新的知识。然而,归纳法无法通过严格的逻辑来实现,因为它不可能穷尽所有可能性。因此,可能会出现所谓的“黑天鹅事件”,即我们观察到欧洲和美洲的天鹅都是白色的,从而得出天鹅应该是白色的结论。但当我们发现澳大利亚有一只黑色的天鹅时,归纳法就不能给出绝对正确的结论了,因为无法覆盖所有可能性。机器在这方面的能力有限,无法超越归纳法的限制,但人类可以。然而,我们也要明白,这个结论有可能被推翻,这是现代科学所追求的。

第三种模式是类比法,是一种不严格的推理方式,就是通过将一种事物与另一种事物进行联想。比如在思考DNA结构时,如果我们不知道它的样子,在梦中看到两条蛇缠绕在一起,我们可能会联想到DNA的结构。实际上,DNA的双螺旋结构真的是通过这种方式“蒙”出来的。但对于以演绎逻辑为基础的计算机来说,这是无法实现的。类比法是一种更加不严格的推理方式,但对于人类来说,我们可以运用这种方式。

从这三种模式,我们可以得出这样的结论:在进行演绎逻辑方面,机器的效率已经远远超过人类,因为它们基于图灵机运行,并且是完全的计算机系统。然而,机器无法产生任何新的知识,而新的知识需要人类通过不严格的归纳法或类比法来获得。这些观点需要通过演绎法逐步论证,最终转化为相对稳定的知识,认知机器在获取新知识方面无法超过人类。而我们所说的机器无法做到的部分,指的是机器无法从严格的演绎逻辑之外的领域进行处理,而这些领域正是人类可以处理的。

这实际上涉及到人类和机器之间分工的讨论。不管是人工智能还是机器,它们都是基于图灵机发展的,上述提到的问题不可避免。目前的人工智能发展都是以图灵机为基础的,如果人工智能无法实现某些任务,可能是因为受到摩尔定律等硬件发展的限制,或者涉及到其他相关限制。

最近,OpenAI公司CEO Sam Altman表示全球人工智能运算量每隔18个月翻一番。对此,有人认为人工智能的算力性能会不断的实现指数级提升。其实,关于“摩尔定律”和算法,是两个不同的命题。摩尔定律主要指硬件方面的发展,而算法方面并不完全符合摩尔定律的规律。因为面临着对精密设备加工的技术问题,如今的摩尔定律在某种意义上已经放缓,它更多涉及机械工艺方面的挑战。而算法方面的发展,很难说是按照摩尔定律的方式进行,两者之间存在一些差异。

当提到摩尔定律时,我们可以进一步探讨,当计算单元达到原子层面时,就进入了另一个领域,即量子计算。从量子计算领域,以及结合我们最近这些年的进展发现,量子计算并不是一个严格的图灵机。并且量子计算在工艺层面上的设计难度太大,真正的能做到像图灵机一样算法上的通用,可能还需要相当长的时间。我有一个观点是,在接下来的300年内我们不必过于担心这个问题。但在300年之后,量子计算是否会有关键性突破?很难说,因为从还原论的角度来看,我们人类的思维一定是基于某种物理实体的。

目前,根据越来越多的迹象表明,我们的思维方式并不等同于图灵计算机的思维方式。但根据我们目前的认知来说,现在我们只有两个选择——只有经典的图灵机和最近出现的量子计算机,但将来未必没有第三个选择。

如果我们已经基本确定人类大脑不是由经典的图灵机组成的,那么它有可能是一个量子计算机。然而,量子计算机能否创造类似人类思维模式的能力目前还不清楚。所以我们越来越确信的是,量子计算机不是一台图灵机,它的底层逻辑是不同的。


GPT时代下的人才教育:培养强大的学习能力


我们创造机器,就是希望它来帮助我们完成不同的任务。所以,从具体的职业方向来看,很难确定哪些工作在未来一定不会被取代。因为对于任何可描述的事件或算法来说,图灵机都能够执行。一旦我们将某项工作描述为具体的任务,计算机就可以完成它,只是计算机在执行该任务时的效率不同而已。

其实我们在考虑哪些事情是图灵机无法完成的时候,图灵及其数学家哥德尔在30年代时就已经指出了这一点,只是当时没有引起足够的人类重视,他们(指歌德尔和图灵等)那一代人证明过了感性思维和直觉才是我们人类认识世界的基本工具,而理性思维是对感性思维进行整理的工具。简而言之,真正认识世界的能力仍然是人类所独有的,并且通过我们自己的感性认知来实现。这是我们理解和区别,人类与机器(或者说AI)不同点的核心之一。

基于核心能力的不同,对于我们人类或未来人类来说,其实一个重要的能力培养是需要强大的学习能力和适应能力。只有通过这种学习能力,人们才能在面对新需求时给出新的解决方案,并将其转化为自己的工作。这些方面很难具体从每个方面去讨论,因为学习能力贯穿于许多不同的领域。但现在我们不得不关注这一点,即通过教育来改变我们目前教育学生的方式。

举个例子,这个学期我避免给学生布置随堂作业。我开始意识到无法阻止他们利用GPT等工具完成作业,并且通过GPT的答案可能比我预想的还要好,这样的作业失去了意义。因此,我更注重与学生在课堂上的对话和互动,并关注他们对推理逻辑和过程的理解,而不是他们是否能完成作业。

另外,在整个学期中,我希望他们完成一个比较系统的项目类作业。现在的教育都在倡导项目制学习,通过参与项目来进行学习。在这个项目过程中,我们让学生理解他们在做什么,而不是通过以往的问答、考卷和作业方式进行教育,通过项目制学习这种方式培养出来的人对机器来说更具优势,而不是只是回答问题。

在这个过程中会有很多值得我们思考的问题。正是因为我们思考并了解这方面的需求,才会创造出大量新的就业机会和新的发展方向。因此,如果非要说,人与机器之间的差异可能是将来真正关注的更大的趋势。总结来说,我们关注的是人类自身的能力和人机之间的交互,这是一个非常广阔的领域。


未来人机对话的发展趋势:人工智能和机器的互动


至于对未来AI的构想和设想,很难对具体的趋势进行准确的预测,因为这可能会引导舆论,影响资本的投资方向,一些观点仅供交流和探讨。

我认为一个重要的趋势是人工智能和机器之间的互动。随着机器以及人类自身的高速发展,我们需要一个界面或者工具来连接两者实现更好的沟通。人机交互会是一个非常重要的技术领域。

在寻找未来的趋势时,我们应该更加关注人与机器这两个方面,而不仅仅是一个方面。我们需要深入思考人类自身的能力和定位,这是一个需要长时间思考的问题。

尽管前面我们更多地讨论了教育伦理和人类未来的可能方向,但从技术层面来看,人机交互可能是一个非常具有潜力的领域。我们需要思考如何让人与机器之间拥有更快速、高效的交流方式,而不需要人变成专业的专家模式。

人机交互是否能够以更快速的方式吸引更多人参与,并有效地管理机器,这可能会影响和推动机器的更快速发展。因为机器的高速发展在未来是不可避免的,人类也需要明确自己的战略和定位。既然人类和机器都要在地球上共生,我们应该有一种特别融洽、方便和高效的交互方式。这种交互方式可能需要很多新的技术来实现。

总而言之,我们不希望将来成为“机器奴隶”,所以我们必须思考人类自身的定位。身在教育领域,GPT的火爆也给我提出了重要的挑战和思考:即“传统的教育模式所培养出来的学生更像是机器还是人?”“我们应该如何学习才能不会被AI替代?”这些问题深刻地指导着我们今天进行严肃的讨论。作为教师,我们不希望今天教给学生的东西,或者培养出来的学生,在10年或20年后发现自己从事的职业被计算机替代,走上失业之路或者被迫换岗。

人的思维是自由的、可创造的,可沟通的,从根本上讲,我们需要发展的是创新技术人才的培养方式,有终身的学习习惯。