译者 | 布加迪
审校 | 重楼
图1. AI target=_blank class=infotextkey>OpenAI Whisper模型的工作原理图
在这个日益数字化的世界,将语音转换成文本的需求变得越来越重要。无论为了可访问性、内容创建、数据分析还是其他用途,将口语转换成书面语都是一个需要有效解决方案的问题。OpenAI开发的人工智能模型Whisper就能做到这一点:将口语转化成易于理解的文本。
本文将逐步介绍Whisper是什么、它是如何工作的以及如何有效使用它。目前Whisper在AIModels.fyi排名第19位,这款功能强大的工具可以在各种应用中发挥巨大作用。本文还将探讨如何使用AIModels.fyi找到适合您独特需求的类似模型。
由OpenAI开发的AI模型Whisper旨在将音频文件中的语音转换为文本。其应用非常广泛,从生成视频字幕到转录采访或会议文字,不一而足。Whisper的运行次数超过了200万人次,在同类产品中脱颖而出,是一种可靠且受欢迎的模型。
该模型接受音频输入并将其转录成书面文字,有效地弥合了口语和书面语之间的差距。此外,它支持大量语言,因而成为适合多语言项目的出色工具。关于该模型的更多详细信息可以在详情页面上找到。
在深入研究Whisper模型的使用之前,了解模型的输入和输出很重要。
Whisper的主要输入是一个音频文件,它对其进行处理并转录成文本。额外的输入参数允许您定制模型的操作方式:
模型输出含有已转录文本的对象,带有几个字段:
我们已了解了模型的输入和输出,不妨看看如何使用它来解决我们的转录问题!
无论您是喜欢动手操作的程序员,还是偏爱交互性较强的演示方法,使用Whisper模型都简单又直接。
首先,需要安装Replicate Node.js客户软件,并使用API令牌进行身份验证。这允许您以编程方式与Whisper模型进行交互。
npm install replicate
export REPLICATE_API_TOKEN=your_api_token_here
完成身份验证后,您可以用音频输入来运行模型:
import Replicate from "replicate";
const replicate = new Replicate({
auth: process.env.REPLICATE_API_TOKEN,
});
const output = await replicate.run(
"openai/whisper:91ee9c0c3df30478510ff8c8a3a545add1ad0259ad3a9f78fba57fbc05ee64f7",
{
input: {
audio: "your_audio_here"
}
}
您还可以设置预测完成后所调用的Web钩子(webhook),这适用于异步处理:
const prediction = await replicate.predictions.create({
version: "91ee9c0c3df30478510ff8c8a3a545add1ad0259ad3a9f78fba57fbc05ee64f7",
input: {
audio: "your_audio_here"
},
webhook: "https://example.com/your-webhook",
webhook_events_filter: ["completed"]
});
也许您想将Whisper与其他模型进行比较,或者探究同一问题领域的其他模型。怎样才能找到它们?AIModels.fyi正是满足这个用途的上佳资源,它有一个完全可搜索和可过滤的数据库,列有来自各种平台的AI模型。
进入到AIModels.fyi,开始寻找类似的模型。
使用页面顶部的搜索栏,搜索具有特定关键字的模型,比如“audio-to-text”或“transcription”。这将显示相关模型列表。
使用搜索栏后,您可以通过使用页面左侧的过滤器进一步缩小结果范围。可以根据各种标准来筛选和搜索模型,包括如下:
一旦您找到了一个感兴趣的模型,点击它来查看更多的细节。您能够看到阐述全面的模型特点,包括其输入和输出、性能指标和用例。
无论您是经验丰富的开发人员还是AI领域的新手,OpenAI的Whisper都是一个易于使用且功能强大的工具,可以将语音转换成文本。若结合AIModels.fyi之类的资源,现在比以往任何时候更容易找到适合您独特项目需求的完美模型。立即开始探究起来吧!
原文标题:Converting Speech into Text with OpenAI's Whisper Model,作者:Mike Young