AI的进步让人们在5月底登录HBO Max时注意到了一些奇怪的变化。通常情况下,当用户登录该网站时,HBO会要求他们通过解决验证码来验证自己是人类。这些验证码可能是简单的“我不是机器人”复选框,或者要求选择所有包含红绿灯的方格图像。这样的验证方式可以确保用户确实是人类。
然而,这一次,用户登录时被要求解决一系列复杂的难题,而不再是简单的验证码。这些新的任务范围很广,涉及计算图像上的骰子点数,以及听短音频剪辑并选择包含重复声音模式的剪辑。而这种新的、看似证明用户是人类的任务并不仅限于HBO:在各个平台上,用户都面临着越来越难以通过的难题,例如识别像云朵组成的马这样根本不存在的对象。
那么,为什么会出现这些新的障碍呢?原因在于AI的进步。科技公司利用传统的验证码训练了他们的机器人,使这些程序变得非常强大,可以轻松应对常见的挑战。因此,我们人类现在必须付出更多的努力来证明我们是人类,才能继续使用互联网。然而,这些令人困惑的验证码只是AI改写互联网机制的冰山一角。
自从ChatGPT去年问世以来,科技公司纷纷将其背后的AI技术融入产品中。在许多情况下,公司已经彻底改变了他们长期以来的核心产品。仅仅通过点击按钮,就可以生成看似权威的文字和视觉效果,这对互联网脆弱的机构构成了威胁,使浏览网络变得一团糟。随着AI的狂潮席卷互联网,研究人员发现它可以被利用来加剧互联网一些最紧迫的问题,例如错误信息和隐私,同时也让日常的在线体验变得更加烦人,从清除垃圾信息到登录网站都变得更加麻烦。
迄今为止,AI正在让互联网成为一个噩梦。
互联网颠覆
近20年来,Reddit一直被视为互联网的非官方头版,这主要得益于其各个社区的志愿管理员。据估计,Reddit的管理员每年提供价值340万美元的无偿工作。为此,他们依赖于一些工具,如Apollo等,这是一款有近10年历史的应用,提供高级管理功能。然而,在6月份,用户看到了一个不寻常的消息:Apollo将停止服务。在公司试图通过AI热潮迅速赚钱的过程中,第三方应用成为了被砍掉的对象。
Apollo和其他类似的界面依赖于Reddit的应用编程接口(API)来进行数据交换。过去,Reddit允许任何人免费抓取其数据,因为Reddit允许更多的工具,就能吸引更多的用户,有助于应用的增长。然而,现在AI公司开始利用Reddit及其海量的在线人类互动数据来训练他们的模型。为了从中获利,Reddit宣布了新的高价数据访问服务。Apollo和其他应用成为了附带损害的对象,引发了Reddit社区长达一个月的抗议和动荡。即使这意味着失去组成其核心的社区用户,该公司也坚持己见。
根据欧洲刑警组织的一份报告预计,未来几年内,90%的互联网内容将由AI生成。这个预测表明,AI正逐渐在互联网中发挥越来越重要的作用。AI的发展势头迅猛,已经开始影响到我们平日里的在线体验。然而,我们也必须认识到AI的潜在风险和挑战,特别是在数据访问和隐私保护方面。只有在平衡好利益和风险的前提下,我们才能更好地应用AI技术,让互联网成为一个更加美好和繁荣的地方。
随着数据抓取现金牛的兴起,曾经可靠的网站质量开始下降,大量可疑的AI生成内容涌入网络页面。剑桥的软件工程师马丁·皮特斯最近亲眼目睹了Stack Overflow的衰落,这是互联网技术问题和答案的首选网站。当该网站运营商Prosus决定允许AI生成的答案,并开始向AI公司收费提供数据访问时,他参与和管理了这个平台超过10年,但在6月份发生了急剧转变。作为回应,顶级管理员罢工,认为低质量的AI生成内容与该网站最初的目标相矛盾,即成为高质量问题和答案内容的存储库。
AI经常会对问题产生错误的答案,除非AI模型经过微调并设置了保护措施,否则根据NewsGuard联合CEO Gordon Crovitz的说法,它们将成为互联网历史上最大规模的有说服力的错误信息来源。欧洲联盟执法机构欧洲刑警组织的报告预计,在未来几年内,互联网内容中将有令人难以置信的90%是AI生成的。
尽管这些AI生成的新闻网站的受众还不多,但它们的快速崛起预示着AI生成内容将如何轻易地在社交媒体上扭曲信息。菲利波·门泽尔是印第安纳大学社交媒体观察站的主任和计算机科学教授,他在研究中发现了大量机器人网络发布ChatGPT生成的内容到Twitter(现为X)和Facebook等社交媒体网站。尽管AI机器人目前具有明显的特征,但专家指出,它们很快就会变得更善于模仿人类并逃避门泽尔和社交网络开发的检测系统。
与Reddit和社交媒体平台这样的用户驱动型网站不同,人们也正在失去一个关键的验证信息来源:搜索引擎。微软和谷歌即将用机器人生成的摘要取代传统的搜索结果链接,但这些机器人区分事实与虚构的能力非常有限。当我们在谷歌上搜索一个查询时,我们不仅了解答案,还了解它在互联网更广泛背景下的关联。我们通过过滤这些结果,然后选择我们信任的来源来获取信息。由聊天机器人驱动的搜索引擎切断了这种体验,剥夺了网站地址等上下文,并可以“模仿”剽窃的答案,就像NewsGuard的Crovitz所说,这些答案听起来“权威且写得很好”,但实际上是“完全虚假的”。
合成内容也淹没了亚马逊和Etsy等电子商务平台。俄勒冈州波特兰的课程工程师克里斯托弗·科威尔在他的技术教科书即将出版的两周前,在亚马逊上发现了一本同名的新书。科威尔很快意识到这是AI生成的,出版商很可能从亚马逊的预发布名单中获取了标题,并将其输入到ChatGPT等软件中。类似地,在以手工艺品和工匠目录而闻名的E保持角色扮演。
诈骗盛宴
AI的崛起给安全和隐私带来了一系列现实挑战。网络诈骗的增长将变得更加难以检测,因为AI使得定制针对每个目标的欺诈更加容易。南佛罗里达大学计算机科学教授约翰·利卡托的研究表明,即使只有公共网站和社交媒体简介上的少量信息,也有可能精确地设计针对个人偏好和行为倾向的骗局。
高风险网络钓鱼骗局的一个关键特征是文本中经常包含拼写错误或图像不够清晰。然而,在由AI驱动的欺诈网络中,这些特征将不存在,黑客们可以将免费的文本转化为图像和文本生成器(如ChatGPT)生成的强大垃圾邮件引擎。生成式AI可能会被用来在品牌的个性化电子邮件营销中插入你的个人头像,或者制作政治家的视频留言,使用经过人工调整的声音,专门讨论你所关心的话题。
"互联网将越来越感觉到它是为机器而由机器设计的。"这已经开始发生:网络安全公司Darktrace的数据显示,自2023年初以来,恶意网络活动增加了135%,犯罪分子越来越多地依赖机器人来编写钓鱼邮件,以发送错误更少、内容更长、更不太可能被垃圾邮件过滤器捕获的信息。
很快,黑客可能无需过多努力就能获取您的敏感信息。目前,黑客通常采用各种间接方法来监视您,包括在网站中隐藏跟踪器和从暗网购买大量被盗信息数据集。但安全研究人员已经发现,您的应用和设备中的AI机器人可能成为黑客窃取敏感信息的目标。由于OpenAI和谷歌的AI模型主动爬取网络,黑客可以在网站内隐藏恶意代码(一组机器人指令),并使机器人在没有人为干预的情况下执行这些指令。
"由于这些风险,目前管理您的电子邮件、日历、购买等任务的智能AI助手是不可行的,"Tramèr说道。在面对AI带来的安全和隐私挑战时,我们需要保持警惕,并采取适当的措施来保护我们的个人信息和在线安全。
“死亡的互联网”
随着AI在维基百科和Reddit等社区中继续主导计划并造成破坏,互联网将逐渐感受到它更像是为机器而由机器设计的。新南威尔士大学的人工智能教授托比·沃尔什告诉我,这可能会打破我们目前对网络的习惯。这也会给AI制造商带来困难,因为AI生成的内容淹没了人类的工作,科技公司如微软和谷歌将有更少的原创数据来改进他们的模型。
"当前的AI之所以有效,是因为它是通过人类的努力和创造力进行训练的,"沃尔什说道。"如果第二代生成AI是在第一代的副产品基础上进行训练,其质量将会急剧下降。"今年5月,牛津大学的一项研究发现,使用其他AI系统生成的数据来训练AI会导致其性能下降并最终崩溃。随之而来的是,网上信息的质量也会下降。
南佛罗里达大学的利卡托教授将当前的网络体验比作"死亡的互联网"理论。随着Reddit等受欢迎的互联网网站被机器人撰写的文章和评论淹没,公司将不得不部署更多的反机器人技术来读取和过滤自动化内容。理论认为,最终互联网上的大部分内容创作和消费将不再由人类完成。
"这听起来很奇怪,但考虑到目前的发展趋势,这似乎变得越来越可能,"利卡托说道。
我无法不表示赞同。在过去的几个月里,我曾经常访问的在线空间要么被AI生成的内容和面孔淹没,要么因为追赶竞争对手的AI更新而严重削弱了核心服务。如果这种情况继续下去,互联网将永远不会再是同样的。