当地时间5月23日,微软推出了一款由人工智能(AI)驱动的内容审核服务型产品——Azure AI Content Safety(Azure AI内容安全服务),旨在营造更安全的网络环境。据悉,这款产品提供了一系列经过训练的AI模型,能检测图片或文本中与偏见、仇恨、暴力等相关的负面内容。
报道称,这款产品将内置于Azure OpenAI服务中,向第三方开发者开放。据了解,Azure OpenAI服务是一项由微软管理、以企业为中心的服务产品,旨在让企业访问AI实验室OpenAI的技术并增加治理功能。值得一提的是,Azure AI内容安全服务不仅使用于Azure OpenAI服务中,还可以运用于游戏平台、线上社区等非AI平台。
↑资料图据悉,Azure AI内容安全服务“精通”包括英语、西班牙语、德语、法语、中文、日语、葡萄牙语、意大利语在内的八种语言。也就是说,其可以理解并检测包含这八种语言的图片或文本,并为被标记的内容严重性进行打分,指示人工审核员哪些内容需要采取行动。
除此之外,据微软发言人介绍,与此前的同类型相比,该款产品能更好地理解文本内容和文化背景,“此前的同类型产品无法捕捉上下文内容,可能造成标记内容失误。”该发言人补充说:“我们有一个语言和公平专家团队,他们致力于在考虑文化、语言和背景的情况下制定指导方针。”不过报道同时指出,微软承认现在还没有完美的AI,希望人类在使用AI的过程中对其进行完善。
报道指出,与所有AI审核程序面临的问题一样,Azure AI内容安全服务最终还是依赖人工审核人员标记数据和内容,这意味着最终其公正性还是取决于人类。报道称,人工在处理数据和内容时,可能带着自己的偏见,而这将是一个令人头痛的问题。据悉,2015年,谷歌的AI图像识别软件曾将有色(黑)人种标记成猩猩,引发巨大争议。美媒称,八年过去了,现在的科技巨头们仍担心“重蹈覆辙”。
事实上,如何处理AI所带来的风险一直是大众和科技圈热议的话题。就在本月22日,一张被认为是AI合成的关于“五角大楼附近发生爆炸”的假图片在网络上流传,一时引发恐慌,美国防部发言人为此紧急辟谣。随后,美媒分析称,该图像具有由AI生成的所有特征。而本月早些时候,OpenAI首席执行官山姆·阿尔特曼在美国参议院小组委员会听证会上,呼吁政府对人工智能(AI)进行监管。他指出,如果这项技术出错,会错得很严重,会对世界造成重大伤害。
红星新闻记者 黎谨睿
编辑 何先锋 责编 李彬彬