随着人工智能峰会的顺利举行,研究人员热衷于提出与这项技术相关的真正问题——教它如何忘记。社会现在充斥着现代人工智能,以及对其卓越的能力的赞美。我们不断地被提醒它的潜在好处,在很多领域,几乎渗透到我们生活的方方面面,但也有它的危险。
在一个新兴的研究领域,科学家们正在强调我们减少人工智能风险的武器库中的一个重要武器——“机器遗忘”。他们正在帮助寻找新的方法,使被称为深度神经网络(DNN)的人工智能模型忘记对社会构成风险的数据。
问题是,重新训练人工智能程序以“忘记”数据是一项非常昂贵和艰巨的任务。现代DNN,如基于“大型语言模型”的DNN(如ChatGPT、Bard等),需要大量资源进行培训,需要数周或数月的时间。每个培训项目还需要数十吉瓦时的能量,一些研究估计,一年的能量相当于为数千户家庭供电。
机器遗忘是一个新兴的研究领域,它可以快速、廉价、使用更少的资源从DNN中删除麻烦的数据。我们的目标是做到这一点,同时继续确保高精度。华威大学的计算机科学专家与谷歌DeepMind合作,站在这项研究的前沿。
华威大学计算机科学系的Peter Triantafillou教授最近与人合著了一本出版物《走向无界机器的解放》。他在著作中提到,DNN是一种极其复杂的结构,由多达数万亿个参数组成。通常,我们对它们是如何以及为什么实现目标缺乏坚实的理解。考虑到它们的复杂性,以及它们所训练的数据集的复杂性和规模,DNN可能对社会有害。
例如,通过对带有偏见的数据进行培训,从而传播负面的刻板印象。这些数据可能反映了现有的偏见、刻板印象和错误的社会假设,例如医生是男性、护士是女性的偏见,甚至种族偏见。DNN还可能包含带有“错误注释”的数据——例如,对物品的错误标记,例如将图像标记为深度伪造或非深度伪造。
令人担忧的是,DNN可能会在侵犯个人隐私的数据上进行培训。这对大型科技公司构成了巨大挑战,因为已经制定了旨在保障被遗忘权的重要立法(例如GDPR),即任何个人要求从任何数据集和人工智能程序中删除其数据的权利。我们最近的研究衍生出了一种新的“机器遗忘”算法,该算法可以确保DNN能够忘记不可靠的数据,而不会影响整体人工智能性能。该算法可以引入DNN,使其专门忘记我们需要的数据,无需从头开始重新训练需要忘记的三种不同类型数据的访问:偏见、错误注释和隐私问题。机器遗忘是一个令人兴奋的研究领域,可以成为降低人工智能风险的重要工具。