文章转载来源:AI之势
来源:中国经营报
4月14日,据外媒援引美国内华达州的一份文件报道,特斯拉、推特、SpaceX的公司CEO埃隆·马斯克已于3月9日注册了一家新的人工智能(AI)公司,名称为“X.AI”,马斯克是新公司唯一的董事。马斯克家族办公室主任,同时也是马斯克的神经网络公司Neuralink首席执行官的Jared Birchall则担任秘书之职。在此之前,据美媒报道,马斯克在推特内部启动了一个AI项目,为此已购买了约1万个GPU(图形处理器)芯片,而且开始招揽AI人才。
图片来源:由无界 AI 生成
随后在4月18日,马斯克接受福克斯采访时表示,要开始做一个最大程度寻求真相的人工智能,可能会叫做“TruthGPT”。4月20日,就在微软宣布将推特从其广告平台删除之后,马斯克发布推文回应称,“他们(指微软及其投资的OpenAI)非法使用推特数据进行训练。诉讼时间到。”
马斯克近期的种种举动,引发业界的广泛猜测——马斯克或将亲自入局做AI,以对抗OpenAI的对话机器人ChatGPT及其背后支撑的GPT大模型。针对新公司X.AI的战略定位和业务范围,以及马斯克推文中提及的“诉讼”是否会付诸实施,《中国经营报》记者通过电子邮件向特斯拉和马斯克方面求证核实,截至发稿前暂未获得回复。
值得注意的是,马斯克拥有的几家公司——特斯拉、SpaceX、太阳城、Neuralink、推特,无一不使用甚至依赖AI技术;而另一方面,从2014年至今,马斯克也在持续不断地发声,提醒高度警惕AI、呼吁监管以确保AI的安全可控。尽管宣示与执行往往并不一定是一致的,现在去评判马斯克的发声或动作,显然还为时尚早,但是,人们从马斯克看似“矛盾”的AI观中,或许可以一窥其“野心”,以及探讨当下大火的生成式AI究竟带来了哪些方面的风险与挑战。
需要注意的是,在注册X.AI公司几乎同一时期里,马斯克还注册了X Holdings Corp。和X Corp。两家公司,前者意为控股公司,是作为X Corp。的母公司。据外媒4月14日的报道,马斯克于去年10月收购的推特公司已并入X Corp。实体公司中。马斯克在发给推特全体员工的邮件中宣布,推特员工将获得X Corp。的股票。
“X”这一名称与马斯克的渊源颇深。马斯克于1999年3月创立了他的第二家初创公司,命名为X.com。X.com发展与竞争中经历了合并,于2001年6月更名为PayPal,次年被eBay出价15亿美元收购。马斯克在X.com发展中也被解除了CEO职务,直至离开。2017年,马斯克从eBay手中买回了X.com这一域名。到2020年12月,马斯克重申了对X这一名称的支持。2022年10月,随着推特收购案的推进,马斯克在推特上表示,“收购推特是创建X即万能应用的催化剂。”彼时,马斯克并未明确X的目标,只是考虑将推特变成一个“超级微信”。
谦询智库合伙人龚斌认为,“马斯克的思维武器是第一性原理,即凡事回到本源,回到基本的数学规律、物理学定律、化学原理等去看本质。从他做的事,能够看到他的行事方式是‘如果一件事情在理论上是成立的,理论上能做到最好的,那么就应该想办法把它做出来’。”
美国作家阿什利·万斯撰写的《硅谷钢铁侠:埃隆·马斯克的冒险人生》一书中也提到,“长期以来,他一直想让世界知道,他并不是在顺应潮流,也不是为了发财,他是在追求一个整体的计划。”马斯克向作者表示,“我喜欢把那些对于未来真正重要和有价值的技术,以某些方式变成现实。”
由此不难看出,马斯克亲自创办一家AI公司,对抗他所“抨击”的、处在“闭源”“逐利”“被微软掌控”现状的OpenAI。全联并购公会信用管理委员会专家安光勇认为,马斯克下场做AI,按照他的AI观乃至世界观,可能会采取诸如研究和应用AI技术解决人类面临的重大问题、加强内部对AI伦理的监管机制、与相关组织和机构合作等措施,来推动AI技术被人类利用掌控并助力人类社会发展。
今年4月中旬,马斯克在接受福克斯采访时警告,人工智能可能导致“文明毁灭”,支持“政府对AI进行监管,尽管受到监管并不好玩”,一旦AI“可能处于控制地位,再制定法规可能为时已晚”。
就在3月29日,非营利组织“未来生命研究所”发出一封联合署名的公开信,呼吁“所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月”。马斯克位列这封公开信署名榜单的第一位。
安光勇指出,马斯克对AI持续多年的警惕与戒心,与其利用AI等新型技术扩张商业版图并不矛盾。他看到了新技术的巨大潜力和价值,同时又意识到AI技术的发展带来的潜在威胁和风险。
事实上,马斯克对AI的“戒心”由来已久。本报记者综合社交媒体、公开演讲、媒体报道、产业及行业会议发言等公开渠道不完全统计,从2014年截止到现在,马斯克公开发表的对AI保持高度警惕、呼吁确保安全的言论高达数十次,持续地表达对AI的担忧。尤其是2018年在接受采访时,马斯克直言“人工智能比核武器更危险”。记者注意到,马斯克持续多年对AI的“戒心”大致可以概括为两个层面:一是担忧人工智能的进化可能脱离人类的控制,从而对人类造成负面影响甚至潜在的危险;二是呼吁加强对人工智能的监管,以确保其安全可控。
需要指出的是,马斯克在担忧AI失控的同时,也并不否认AI技术的优势与对商业、社会的驱动力量。而实际上,被马斯克批评的OpenAI无论是在大模型训练中,还是产品服务中也表出现出了满满的“求生欲”。OpenAI方面表示,目前并没有关于GPT-5的训练计划。在发布GPT-4大模型时也表示“花了6个月时间使GPT-4更安全、更一致”。4月25日,OpenAI在ChatGPT可用市场推出了新控件,允许用户关闭其聊天记录。所有禁用聊天历史记录中发生的任何对话都不会用于训练OpenAI的模型,新对话保留30天。
与此同时,包括意大利、德国等欧洲国家、美国、中国在内的相关监管机构或部门也开始关注并探索对生成式AI的监管路径。4月11日,中国国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,即日起至5月10日期间面向社会公开征求意见。
马斯克关于AI可能失控、甚至威胁人类的言论究竟是未雨绸缪,还是杞人忧天?显然,现阶段这还是一个见仁见智的事情。马斯克在全球范围内拥有大批支持者,同时也有反对与质疑的声音。
上海申伦律师事务所夏海龙认为,在人类对自身“意识”尚未有充分科学认识的情况下,显然不可能凭空创造出一个意识,因此生成式AI本质上依然只是对人类语言模式的机械模仿,而不存在进化出类人意识的可能。从当下来看,生成式AI 对社会、法律的冲击还只是“类似于车马时代汽车造成的冲击”,监管目前只能在内容合规、网络安全等几个传统维度提出要求,后期更细致的监管措施可能需要生成式AI 应用的进一步深化、普及。
毫无疑问的是,生成式AI的热潮正在给个人信息保护带来一些挑战和风险。中国科学院信息工程研究所张逸飞发文《大语言模型中的个人信息保护问题探讨》指出,虽然大语言模型(LLM)有着巨大的潜力和应用价值,但也带来了一些个人信息保护方面的挑战和风险,主要包括数据来源、数据处理、数据安全、偏见诱导四方面的问题。
文章分析认为,在数据来源方面,LLM通常使用来自互联网的公开文本数据作为预训练数据,这些数据可能包含一些用户的个人信息,如姓名、年龄、性别、职业、兴趣爱好、社交关系等。这些信息可能被LLM无意中学习和记忆,并在后续的应用中泄露出来。而在数据处理方面,LLM在预训练和微调过程中需要对数据进行收集、存储、分析和处理,这些操作可能会侵犯用户的个人信息权利,如知情权、选择权、删除权等。用户可能没有充分的意识和能力来保护自己的个人信息,也没有足够的透明度和监督机制来确保数据处理方遵守相关的法律法规和伦理规范。在安全方面,LLM由于参数量巨大,需要借助分布式计算和云服务等技术来进行训练和部署,这就增加了数据被窃取、篡改、滥用或泄露的风险。LLM的模型参数本身也可能包含一些敏感信息,如果被恶意攻击者获取,可能会导致用户的个人信息被还原或推断出来。此外,LLM在应用场景中可能会对用户的个人信息进行分析、预测或推荐,这些操作可能会影响用户的个人自由、尊严和权益,带来歧视、偏见、诱导等问题,甚至被用于产生违反社会主义核心价值观的有害信息,对社会造成危害。用户可能没有足够的知识和能力来判断LLM的输出结果的可靠性和合理性,也没有有效的途径和机制来纠正或申诉LLM的错误或不公正的决策。
来源:AI之势
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com