伴随着人工智能开发,AI幻觉这一次在公众中出现的频率也愈发频繁。虽然这一现象本身并不是由人类的感知所造成,是机器本身的逻辑漏洞所导致;但他最终所能导致的结果,却在在一定程度上与幻觉无异。想要一个事物的风险,就需要我们对其有充足的了解。
AI幻觉产生的原因大致可以分为三个方面:
首先是算法种类的复杂性。AI模型开发的方式有许多,即便是同一类型的模型,也可能会采取不一样的学习策略。这种学习方式上的差异,会导致模型的复杂程度相差较大。当不同功能开发的部分组合到一起后,模型内部的认知结构会变得相当庞杂,几乎不可避免地会产生一系列模型偏见。
其次是模型输出的数据会有偏见。一个AI模型的开发过程中,根据其投喂数据的质量与内容,会令其在最终输出结果时,会针对某一事物带有强烈的倾向色彩。毫无疑问,这种认知上的偏见已经形成底层逻辑,让AI在后续处理数据、输出结果时,无法更加公正的对某一事物进行评判,如同人类一样。但由于AI不是人类,因此不少人可能会放松对其输出内容的警惕性,误将其当成客观的判断。
拟合不足与过度拟合:所谓拟合不足,是指人工智能对数据分析处理过于浅显,没有真正了解到提出问题的关键。过度拟合则恰恰相反,是人工智能对某一问题进行了过度解读,将噪声也当成了需要处理的内容。不论是哪种情况,都可能会导致最后输出的结果失真,进而导致发生AI幻觉。
当前,人工智能仍旧处于发展阶段,其本身拥有着诸多的不足之处。因此,这更需要我们强化对它的认识,这样才能不被错误的讯息蒙蔽双眼。