Google宣布了一个雄心勃勃的新项目,开发一个支持世界上"1000种最常用语言"的单一AI语言模型。作为实现这一目标的第一步,该公司公布了一个经过400多种语言训练的人工智能模型,它将其描述为"今天在一个语音模型中看到的最大的语言覆盖范围"。

语言和人工智能可以说一直是Google产品的核心,但最近机器学习的进步--特别是强大的、多功能的"大型语言模型"或LLM的开发--使这些领域得到了新的重视。

Google已经开始将这些语言模型整合到Google搜索等产品中。但语言模型有许多缺陷,包括倾向于转述有害的社会偏见,如种族主义和仇外心理,以及无法以人类的敏感性来解析语言。在自己的研究人员发表了概述这些问题的论文后,Google自己也臭名昭著地解雇了他们。

不过,这些模型能够完成许多任务,从语言生成(如OpenAI的GPT-3)到翻译(见Meta的"不遗漏语言"工作)。Google的"1000种语言计划"并不专注于任何特定的功能,而是要创建一个具有世界上各种语言的巨大知识广度的单一系统。

Google人工智能研究副总裁Zoubin Ghahramani说,该公司认为,创建一个如此规模的模型将使其更容易将各种人工智能功能带到在线空间和人工智能训练数据集中表现不佳的语言(也被称为"低资源语言")。

"语言就像生物体,它们是相互演化而来的,它们有某些相似之处。通过让一个单一的模型接触并训练许多不同的语言,我们在低资源语言上得到更好的表现,"Ghahramani说。"我们达到1000种语言的方法不是通过建立1000种不同的模型。语言就像生物体,它们是相互进化的,它们有某些相似之处。而且,当我们将一种新语言的数据纳入我们的1000种语言模型,并获得将[它所学到的东西]从一种高资源语言转化为低资源语言的能力时,我们可以在我们所谓的零点学习中找到一些相当惊人的进展。"

过去的研究显示了这种方法的有效性,而Google计划中的模型的规模可以提供比过去的工作更多的收益。这种大规模的项目已经成为科技公司主导人工智能研究雄心的典型,并利用了这些公司在获得大量计算能力和训练数据方面的独特优势。一个类似的项目是Facebook母公司Meta正在尝试建立一个"通用语音翻译器"。

Google表示,为了支持1000种语言模型的工作,它将资助收集低资源语言的数据,包括音频记录和书面文本。

该公司表示,它没有直接计划在哪里应用这个模型的功能--只是预计它将在Google的产品中具有一系列用途,从Google翻译到YouTube字幕等等。

"同样的语言模型可以将机器人的命令变成代码;它可以解决数学问题;它也可以进行翻译。关于大型语言模型和一般的语言研究,真正有趣的事情之一是它们可以做很多很多不同的任务,"Ghahramani说。"语言模型真正有趣的地方在于它们正在成为大量知识的储存库,通过以不同的方式探测它们,你可以获得不同的有用功能。"

Google在一个新的人工智能产品展示会上宣布了1000种语言模型。该公司还分享了关于文本到视频模型的新研究,一个名为Wordcraft的人工智能写作助手原型,以及对其人工智能测试厨房应用程序的更新,该应用程序允许用户有限地访问正在开发的人工智能模型,如其文本到图像模型Imagen。

推荐内容