原文作者:Ebenezer Don
原文地址:https://blog.logrocket.com/introduction-webgpt/
翻译:一川
随着WebGPU的引入,Web开发发生了有趣的转变,WebGPU是一种新的API,允许Web应用程序直接访问设备的图形处理单元(GPU)。这种发展意义重大,因为 GPU 擅长复杂的计算。
一个说明WebGPU潜力的项目是WebGPT。这是一个用JAVAScript和html编写的简单应用程序,旨在展示WebGPU API的功能。
在这篇文章中,我们将讨论为什么 WebGPT 很重要以及如何在本地和浏览器中实现它。
在我们深入研究 WebGPT 的实际实现之前,让我们简要介绍一下它在幕后是如何工作的。
WebGPT[https://Github.com/0hq/WebGPT]是Transformer
模型的 JavaScript 和 HTML 实现,Transformer
模型是一种特定的机器学习模型,旨在有效地处理序列数据。在自然语言处理 (NLP) 中,序列数据通常是指文本,其中单词和字符的顺序对其含义至关重要;序列的各个部分与整体一样重要。
Transformer
模型是擅长处理 NLP 序列数据的机器学习模型。这些模型构成了许多最先进的自然语言处理模型的基础,包括GPT(生成预训练Transformer
)。
WebGPT 的Transformer
模型旨在与 WebGPU 配合使用,WebGPU 是一个允许 Web 应用程序访问和使用设备GPU 的 API。GPU 特别擅长执行机器学习模型所需的并行计算类型,使其成为 WebGPT 的强大资源。
在WebGPU之前,应用程序必须主要依赖于设备的中央处理器(CPU)或较旧的、效率较低的API,如WebGL。相比之下,WebGPT 使用明确设计的Transformer
模型,以使用 WebGPU API 在浏览器中运行。
当 WebGPT 接收到输入时,它使用其Transformer
模型来处理数据。借助WebGPU API,它可以在用户设备上本地执行计算。然后,结果直接在浏览器中返回,从而实现快速高效的执行。
将如此强大的机器学习模型引入浏览器对 Web 开发具有深远的影响,包括:
WebGPT被设计为易于使用:它只需要一组HTML和JavaScript文件即可运行。但是,由于WebGPU是一项相当新的技术,因此您需要与WebGPU兼容的浏览器[https://caniuse.com/webgpu]。
截至 2023 年 7 月,Chrome v113 支持 WebGPU。另一种方法是安装 Chrome Canary 或 Edge Canary 以确保兼容性。
您可以直接在其演示网站上试用 WebGPT,网址为 https://www.kmeans.org。远程加载模型权重可能比在本地加载模型权重慢,因此为了获得响应速度更快的体验,建议尽可能在本地运行 WebGPT。
若要在本地运行 WebGPT,请执行以下步骤:
git clone https://github.com/0hq/WebGPT.git
git lfs install
git lfs pull
在本地服务器上启动 WebGPT 文件:您可以使用简单的 HTTP 服务器或像 Live Server for Visual Studio Code 这样的工具。
在浏览器中打开 WebGPT 页面:导航到运行 WebGPT 的本地服务器的 URL。您应该会看到如下所示的页面:
单击任意“加载模型”按钮以加载模型权重。之后,您可以在输入框中输入文本,然后单击 生成 根据输入生成文本。
WebGPT 有两个内置模型:一个小型 GPT-Shakespeare模型和具有 1.17 亿个参数的 GPT-2。如果要使用自定义模型,请检查存储库[https://github.com/0hq/WebGPT]中的 other/conversion_scripts
脚本目录,以将 PyTorch 模型转换为 WebGPT 可以使用的格式。
以下是我们的目录:
由于 WebGPT 建立在 WebGPU 之上,因此了解 WebGPU 的挑战和局限性非常重要。虽然WebGPU是一项有前途的技术,但它仍然是一个相对较新的API,因此它有一些挑战需要克服。其中一些包括:
缺乏浏览器支持:并非所有浏览器目前都支持 WebGPU,即使是那些支持 WebGPU 的浏览器也可能没有完全支持。这可能会使开发和部署 WebGPU 应用程序变得困难,更不用说部署它们供公众使用了。
复杂性:WebGPU 是一个复杂的 API,可能很难学习和使用。对于不熟悉低级图形 API 的开发人员来说,这可能是一个进入障碍
性能:在某些情况下,WebGPU可能比WebGL慢,尤其是在较旧的硬件上。这是因为 WebGPU 是一个更低级别的 API,可能需要更多时间来编译着色器和设置图形管道
GPT 和类似模型由于其高计算需求而主要在服务器上运行;但是,WebGPT 表明这些模型可以直接在浏览器中运行,提供的性能可能与基于服务器的设置相媲美。
借助 WebGPU 等技术和 WebGPT 等项目提供的功能,我们可以将 GPT 等转换器模型的使用扩展相当多。随着技术的成熟和优化的改进,我们可以看到更大的模型在浏览器中流畅运行。
这可以提高Web应用程序中高级AI功能的可用性,从更复杂的聊天机器人到强大的实时文本分析和生成工具,甚至加速变压器模型的研究和开发。通过使部署这些模型更容易、更便宜,更多的开发人员和研究人员将有机会试验和改进它们。
通过 WebGPU 将高级机器学习模型引入浏览器为开发人员提供了许多机会,它提出了一个未来的愿景,即 Web 应用程序更强大、响应更快、更注重隐私。
虽然该技术仍然相对较新,并且需要克服挑战,例如优化性能和确保大模型的稳定性,但潜在的好处是显着的。随着开发人员开始接受和试验这些工具,我们可以期待看到更多令人印象深刻的实现,如 WebGPT 和利用浏览器内机器学习的新 Web 应用程序。