AI正在杀死旧Web?

转载
504 天前
3214
AIcore

文章转载来源:AIcore

原文来源:CSDN

图片来源:由无界 AI‌ 生成

随着 OpenAI 的 ChatGPT、Google 的 Bard 等 AIGC 工具的出现,由 AI 驱动的内容、信息、机器人已经在过去一年中迅速融入了 Web 网站之中。

然而,在这些工具带来极大便利、提升效率之际,虚假用户、垃圾广告、错误性消息也接踵而至。

就在几天前,一家社交应用初创公司 IRL(IN REAL LIFE)估值一度高达 17 亿美元,并在软银领衔的 C 轮融资中筹集到了 1.7 亿美元。结果,根据董事会内部调查发现,该公司对外宣称的 2000 万月活用户中,其中有 95% 都是“机器人”。

近日,一家为在线新闻媒体提供信任评级的公司 NewsGuard 发布了一项新分析显示,由于科技巨头、银行等全球主要品牌的广告预算,他们正在向 AI 生成的低质量网站提供广告收入,让这些充斥着 AI 生成的低质量内容网站得到了大量的经济支持,且继续存活下去。

对此,外媒 The Verge记者 James Vincent 总结道,「现如今,AI 正在杀死旧 Web,新 Web 艰难诞生」。而在他看来,这也未必是一件坏事。


短短几分钟,生成式 AI 便可以创造大量文本和图像


The Verge 指出,从广义上来讲,多年前,Web 网站曾经是个人创造创新的地方,很多人在网络上开发网站、论坛和邮件列表,并借此赚一点钱。

后来,很多公司成立,且觉得他们可以做得更好,于是他们创建了灵活且功能丰富的平台,并敞开大门,让更多的人加入其中。

这就有些像,他们把盒子放在我们面前,我们在这些盒子里填满文字和图像,人们来看这些盒子里的内容。这些公司追逐规模,因为一旦有足够多的人聚集到这里,通常就有办法从中赚钱。

但人工智能的出现,改变了这些假设。

在 ChatGPT、Bard、新 Bing 流行的今天,它们可以快速生成大量的文本和图像,也可以制作音乐和视频。

现实来看,它们的输出可能会超越我们所依赖的新闻、信息和娱乐平台。


广告收入养活了大量 AI 生成新闻和信息的网站


据 NewsGuard 发布的数据,其从今年 5 月开始跟踪 AI 生成新闻和信息网站(UAIN),每周能发现 25 个新的 UAIN,如今可能有数百个 AI 生成内容网站。

那么这些充斥着大量 AI 内容的网站存在的意义是什么?

NewsGuard 指出,其中重要一点就是成为很多品牌公司的广告投放地。

分析师通过分析发现,投放在这些 UAIN 网站的广告是以编程方式生成的,这意味着很多知名公司并不是选择将自家的广告投放到 UAIN 上,而是由投放广告系统定位过来的,其中大多数广告是由 Google Ads 投放。

NewsGuard 表示,他们的分析师已将 217 个网站添加到其 UAIN 网站跟踪器中,其中许多网站似乎完全由程序化广告资助。

由于网站可以通过程序化广告赚钱,因此它们有动力经常发布内容。该公司发现其中一个 UAIN 网站,在今年 6 月 9 日至 6 月 15 日这一周发表了约 8,600 篇文章,平均每天约有 1,200 篇文章。

相比之下,新闻网站《纽约时报》每天发表约 150 篇文章,其背后的编辑、记者数量众多。

事实上,在今年5 月和 6 月进行的最新研究中,NewsGuard 分析师浏览了美国、德国、法国和意大利的网站,发现来自 141 个主要品牌的 393 个程序化广告出现在 217 个 UAIN 网站中的 55 个上。

这样的趋势之下,基于广告收入,让大量新型的AI 生成新闻和信息网站存活下去,充斥在网络的各个地方。


旧 Web 网站正在遭 AI “洗礼”


除此之外,大量 AI 生成的内容也渗透到了很多老牌社区、平台,如 LinkedIn 正在利用人工智能来激活用户;Snapchat 和 Instagram 希望当你的朋友不说话时,机器人会与你交谈等等。

与此同时,一些 Web 网站也正在被动地受到 ChatGPT 的冲击,譬如,知名程序员社区 Stack Overflow 便是其一。

为此,今年早些时候,Stack Overflow 还紧急发布了“禁令”,称禁止使用 ChatGPT 生成的内容来回答 Stack Overflow 上的问题。

原因是:


由 GPT 生成的贡献通常不符合这些标准,因此不会为可信赖的环境做出贡献。当用户在不验证 GPT 提供的答案是否正确的情况下将信息复制并粘贴到答案中,没有确保答案中使用的来源被正确引用(GPT 不提供这种服务),也没有验证 GPT 提供的答案是否清楚和简洁地回答了所问的问题时,这种信任就被打破了。

不过,一味地阻止 AI 使用的扩展,并不是解决问题的根本。Stack Overflow 针对 AI 的使用,计划向那些在构建自己的人工智能工具时抓取其数据的公司收费。除此之外,Stack Overflow 自身也有计划提供 AI 相关服务。

另一个受到 AI 影响较大的平台便是问答社区 Reddit。“Reddit 的数据很有价值,但是我们不需要将所有这些价值免费提供给世界上一些最大的公司”,当 Reddit CEO Steve Huffman 说出这句话时,便意味着该公司会有所动作了。

令人万万没想到的是,其更新了Reddit API 收费政策,想要从中获得更多收入,也为了让其数据有一定的价值体现时,却遭到了很多版主实施封锁社区版块以示抗议。

最后,作为很多网站访问的入口,全球第一大搜索引擎 Google 掌握着现代 Web 网站的命脉。不过,受 Bing AI 和 ChatGPT 作为替代搜索引擎的趋势推动,Google 也正在采取行动,有媒体报道称,Google 正寻求打造一款由 AI 技术驱动的全新搜索引擎,新引擎的一大特点是“能够猜到用户的需求”,该引擎将根据用户的搜索内容,学习并预测用户想要知道的事情,并且将提供预先挑选的购买物品、研究信息和其他信息的清单。如果 Google 真的实施这一计划,那么 AI 对传统网站带来的影响将是巨大的。


让 AI 掌舵 Web 网站,会发生什么?


毋庸置疑,AI 现在变得无处不在,倘若所有的平台,都被 AI 蚕食,又会有什么样变化?

对此,科技网站 Tom's Hardware 的主编 Avram Piltch 指出,尽管人工智能拥有重组文本的能力,但最终创建底层数据的是人——无论是记者拿起电话核查事实,还是在遇到电池问题时 Reddit 用户能很高兴告诉你是怎么修复它的。

相比之下,AI 语言模型和聊天机器人产生的信息通常不一定对,更为棘手的是,当它出错时,其错误方式往往很难被发现。因此,这需要时间和专业知识来进一步核实。

如果机器生成的内容取代了人类的作者身份,那么在原本只有人犯错的基础上,有多了 AI 本身就会犯错,甚至一定程度上阻碍了人类专业知识的汲取能力,那么纠正我们集体错误的机会就会减少。

与此同时,The Verge 记者 James Vincent 指出,人工智能对 Web 的影响并不是那么简单就可以概括的。即使在上面引用的少数例子中,也有许多不同的机制在起作用。

在他看来,最成功的网站往往是利用规模发挥其优势的网站,要么通过增加社会联系或产品选择,要么通过对构成互联网本身的巨大信息群进行分类,但这种规模依赖于大量人类来创造潜在价值,在大规模生产方面,人类显然无法击败人工智能。

但这一定是一件坏事吗?

其实不然,James Vincent 认为,“有些人会说这只是世界运行的一种方式,并指出 Web 本身杀死了之前的事物,而且往往是为了变得更好。例如,印刷版百科全书几乎已经绝迹,但我更喜欢维基百科的广度和可访问性,而不是《大英百科全书》的厚度和保证。对于与人工智能生成的写作相关的所有问题,也有很多方法可以改进它——从改进的引文功能到更多的人工监督。另外,即使 Web 尽管充斥着人工智能垃圾,但它可能会被证明是有益的,能够刺激资金更充足的平台的发展。例如,如果 Google 总是在搜索中给你提供垃圾结果,你可能会更倾向于为你信任的来源付费并直接访问它们。”

事实上,人工智能目前造成的变化只是 Web 历史上长期斗争中的最新一个。从本质上讲,这是一场信息之战——谁制造信息、如何访问信息以及谁获得报酬。但仅仅因为战斗是熟悉的并不意味着它不重要,也不能保证后续的系统会比我们现在的系统更好。新 Web 正在努力诞生,我们现在做出的决定将决定它的发展方式。

参考:

https://www.theverge.com/2023/6/26/23773914/ai-large-language-models-data-scraping-generation-remaking-web

https://uk.news.yahoo.com/major-brands-unwittingly-supporting-ai-053037263.html