<p><!--META
{
"title": "WebGPUのブラウザ採用状況とAI応用:オンデバイスMLの未来を拓く",
"primary_category": "Web開発",
"secondary_categories": ["AI/ML", "グラフィックスAPI"],
"tags": ["WebGPU", "WebNN", "オンデバイスAI", "ブラウザML", "LLM", "GPU計算"],
"summary": "WebGPUが主要ブラウザに広がり、ブラウザ内でAIモデルを実行するオンデバイスMLが加速しています。その技術的背景、仕組み、およびWebアプリ開発へのインパクトを解説します。",
"mermaid": true,
"verify_level": "L0",
"tweet_hint": "WebGPUが主要ブラウザに広がり、AIモデルをブラウザ内で実行するオンデバイスMLが加速!技術的背景、仕組み、未来を解説。 #WebGPU #AI #ブラウザML",
"link_hints": ["https://developer.chrome.com/blog/webgpu-release", "https://webkit.org/blog/15477/webgpu-on-ios-and-macos/", "https://webkit.org/blog/14881/bringing-webgpu-to-safari/", "https://hacks.mozilla.org/2023/05/webgpu-lands-in-firefox/", "https://developer.chrome.com/blog/webgpu-webnn-llm", "https://arxiv.org/abs/2404.00816"]
}
-->
本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">WebGPUのブラウザ採用状況とAI応用:オンデバイスMLの未来を拓く</h1>
<h2 class="wp-block-heading">ニュース要点</h2>
<p>現代のWebアプリケーション開発において、GPUの強力な並列計算能力を活用するWebGPUのブラウザ採用が急速に進んでいます。特に注目されるのは、この技術がブラウザ内で直接AI(人工知能)モデルを実行する「オンデバイスML(機械学習)」の可能性を大きく広げている点です。主要なWebブラウザはWebGPUのサポートを強化しており、これによりWebアプリケーションはサーバーへの依存度を減らし、より高速でプライバシーに配慮したAI機能を提供できるようになっています。</p>
<h2 class="wp-block-heading">技術的背景</h2>
<p>WebGPUは、WebGLの後継としてW3Cで標準化が進められているWebブラウザ向けのグラフィックスおよび汎用GPU計算APIです。従来のWebGLがOpenGL ES 2.0をベースとしていたため、モダンなGPUアーキテクチャの性能を十分に引き出せないという課題がありました。これに対し、WebGPUはVulkan、Metal、DirectX 12といった最新のネイティブGPU APIの概念をWebにもたらし、より低レベルかつ効率的なGPUアクセスを可能にします。</p>
<p>このWebGPUの登場は、ブラウザでの複雑なグラフィックス描画だけでなく、特にデータ並列処理が求められるAI/MLワークロードにおいて大きな意味を持ちます。高度な数値計算をGPU上で直接実行できるため、Webアプリケーションがローカルデバイスの計算資源を最大限に活用し、これまでサーバー側でしか実現できなかったような複雑なAI処理をクライアント側で実行できるようになるのです。</p>
<h3 class="wp-block-heading">ブラウザ採用状況(事実)</h3>
<p>WebGPUの主要ブラウザでの採用状況は以下の通りです。</p>
<ul class="wp-block-list">
<li><p><strong>Google Chrome</strong>: 2023年5月10日(JST)のChrome M113リリースで、WebGPUが安定版として利用可能になりました[1]。以降、機能改善が継続的に行われています。</p></li>
<li><p><strong>Mozilla Firefox</strong>: Chromeとほぼ同時期の2023年5月9日(JST)にリリースされたFirefox 113で、Windows、macOS、Linux向けにWebGPUがデフォルトで有効化されました[4]。</p></li>
<li><p><strong>Apple Safari</strong>: macOS SonomaおよびiOS 17のDeveloper Previewで初期サポートが開始され、2023年12月13日(JST)にはWebKitブログでWebGPUへの取り組みが共有されました[3]。特に、2024年6月10日(JST)にリリースされたSafari Technology Preview 183では、macOS向けにWebGPUがデフォルトで有効になっていますが、iOSでの完全なサポートは開発が進行中です[2]。</p></li>
</ul>
<p>この広範な採用により、WebGPUは現代のWeb開発における基盤技術の一つとして確立されつつあります。</p>
<h2 class="wp-block-heading">仕組み:WebGPUによるブラウザ内AI推論</h2>
<p>WebGPUがAI推論に利用される際の基本的な仕組みは、MLフレームワーク(例: TensorFlow.js、ONNX Runtime Webなど)がWebGPUを計算バックエンドとして利用することです。これにより、WebアプリケーションはJavaScriptコードを通じて、GPU上で直接テンソル計算(行列積、畳み込みなど)を実行できます。</p>
<p>また、WebNN API(Web Neural Network API)は、WebGPUと連携することで、オンデバイスMLの性能をさらに引き上げます。WebNNは、MLモデルの推論を最適化された形で実行するための低レベルAPIであり、WebGPUをそのバックエンドとして利用することが可能です[5]。これにより、モデルの実行パスが簡素化され、CPUとのデータ転送オーバーヘッドが削減され、より効率的な推論が実現します。</p>
<h3 class="wp-block-heading">WebGPUによるブラウザ内AI推論のデータフロー</h3>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
USER["ユーザー入力 (画像/テキスト)"] --> BROWSER_APP["Webアプリケーション (React/Vue/Angular)"]
BROWSER_APP --> ML_FRAMEWORK["MLフレームワーク (TensorFlow.js/ONNX Runtime)"] |モデルロード/入力データ準備|
ML_FRAMEWORK --> WEBGPU_API["WebGPU API"] |GPU計算要求 (シェーダー/バッファ)|
WEBGPU_API --> GPU_HARDWARE["GPUハードウェア"] |ネイティブGPUコマンド変換 (Vulkan/Metal/DX12)|
AI_MODEL["AIモデル (重み)"] --> ML_FRAMEWORK |モデル重み提供|
GPU_HARDWARE --> WEBGPU_API |計算結果|
WEBGPU_API --> ML_FRAMEWORK |計算結果提供|
ML_FRAMEWORK --> BROWSER_APP |推論結果整形|
BROWSER_APP --> RESULT["推論結果表示/利用"]
</pre></div>
<p>このフローでは、ユーザーからの入力がWebアプリケーションを通じてMLフレームワークに渡され、そのフレームワークがWebGPU APIを介してGPUハードウェアに計算を依頼します。AIモデルの重みもMLフレームワークによって管理され、GPU上で計算が実行された後、結果がアプリケーションに戻されてユーザーに表示されます。</p>
<h3 class="wp-block-heading">実装/利用の手がかり</h3>
<p>WebGPUを直接利用したAI推論は複雑ですが、既存のMLフレームワークが抽象化層を提供しています。以下はWebGPUのコンテキストを取得する概念的なJavaScriptコードと、AI推論での利用イメージです。</p>
<div class="codehilite">
<pre data-enlighter-language="generic">/**
* WebGPUデバイスを初期化し取得する概念的な関数
*
* @returns {GPUDevice|null} 初期化されたGPUデバイス、またはサポートされていない場合はnull
* @throws {Error} WebGPUアダプタが見つからない場合
*/
async function initializeWebGPU() {
// 1. ブラウザがWebGPUをサポートしているか確認
if (!navigator.gpu) {
console.warn("WebGPU not supported on this browser.");
return null;
}
try {
// 2. GPUアダプタを要求
// 適切なGPU(discrete/integrated)を選択するためのヒントも指定可能
const adapter = await navigator.gpu.requestAdapter({
powerPreference: "high-performance" // 電力消費優先度(任意)
});
if (!adapter) {
throw new Error("No WebGPU adapter found. Ensure your browser and hardware support it.");
}
// 3. GPUデバイスを要求
// デバイスの機能制限(capabilities)も指定可能
const device = await adapter.requestDevice();
console.log("WebGPU device acquired:", device);
return device;
} catch (error) {
console.error("Failed to initialize WebGPU:", error);
return null;
}
}
// WebGPUデバイスの取得とAI推論での利用イメージ
(async () => {
const gpuDevice = await initializeWebGPU();
if (gpuDevice) {
console.log("WebGPUが利用可能です。");
// MLフレームワーク (例: TensorFlow.js) は内部でこの `gpuDevice` を利用して
// モデルの読み込みや推論を高速化できます。
// 例: TensorFlow.jsの場合
// await tf.setBackend('webgpu'); // WebGPUバックエンドを明示的に設定
// const model = await tf.loadLayersModel('path/to/my/model.json');
// const inputTensor = tf.randomNormal([1, 224, 224, 3]); // ダミー入力
// const prediction = model.predict(inputTensor);
// prediction.print();
// inputTensor.dispose();
// prediction.dispose();
// 注意: 上記は概念的なコードであり、実際のTensorFlow.jsの利用には
// ライブラリのセットアップとモデルの準備が必要です。
// 計算量: モデルの複雑さに依存 (通常O(N*M*K)など行列演算に基づく)
// メモリ条件: モデルのパラメータ数と入力サイズに依存 (GPU VRAM)
} else {
console.log("WebGPUは利用できません。WebGPU非対応のバックエンドにフォールバックします。");
}
})();
</pre>
</div>
<h2 class="wp-block-heading">インパクトと今後の展望</h2>
<h3 class="wp-block-heading">開発者とユーザーへのインパクト(推測/評価)</h3>
<p>WebGPUとオンデバイスMLの進展は、Webアプリケーション開発とユーザー体験に大きな変革をもたらします。</p>
<ul class="wp-block-list">
<li><p><strong>パフォーマンス向上</strong>: AIモデルの推論がローカルGPUで実行されるため、サーバーとの通信遅延がなくなり、リアルタイム性が向上します。これにより、画像生成、動画処理、音声認識、LLM(大規模言語モデル)などの複雑なAI機能をWebブラウザ上でスムーズに提供できるようになります。</p></li>
<li><p><strong>プライバシーとセキュリティの強化</strong>: ユーザーデータがサーバーに送信されることなくローカルで処理されるため、データプライバシーが向上します。</p></li>
<li><p><strong>オフライン機能の拡張</strong>: インターネット接続がない状況でも、WebアプリがAI機能を提供できるようになります。</p></li>
<li><p><strong>サーバーコストの削減</strong>: 推論処理の一部または全部をクライアント側にオフロードすることで、サーバー側の計算リソースの負荷とそれに伴う運用コストを大幅に削減できます。</p></li>
<li><p><strong>新たなWebアプリケーションの可能性</strong>: これまで専用アプリケーションでしか実現できなかったような、高度なAI活用アプリケーションがWebブラウザで実現可能になります。例えば、ブラウザベースの画像編集ツールでのリアルタイムAIフィルターや、会議アシスタントでの音声の即時文字起こし・要約などが考えられます。</p></li>
</ul>
<h3 class="wp-block-heading">今後の展望(推測/評価)</h3>
<p>WebGPUとAIの融合は、まだ始まったばかりです。</p>
<ul class="wp-block-list">
<li><p><strong>採用のさらなる拡大</strong>: 主要ブラウザがより安定したWebGPUのサポートを提供するにつれて、開発者による採用も加速し、より多くのWebアプリケーションがその恩恵を受けるようになるでしょう。特にモバイルデバイスでの最適化と省電力化は今後の重要な課題です。</p></li>
<li><p><strong>WebNNとの統合深化</strong>: WebNN APIがより広範なブラウザでサポートされ、最適化が進むことで、WebGPUと連携したオンデバイスMLの性能はさらに向上するでしょう。これにより、より大規模で複雑なAIモデルもブラウザで実行可能になります[5]。</p></li>
<li><p><strong>多様なAIモデルの展開</strong>: 画像生成AIやLLMのブラウザ内実行が既に実証されていますが、今後は音声合成、動画解析、強化学習など、さらに多様なAIモデルがWeb上で展開されると予想されます[6]。</p></li>
<li><p><strong>開発エコシステムの成熟</strong>: WebGPUを活用したMLライブラリやフレームワークがさらに充実し、開発者がより容易にオンデバイスMLをWebアプリに統合できるようになるでしょう。</p></li>
</ul>
<h2 class="wp-block-heading">まとめ</h2>
<p>WebGPUは、WebGLから大きく進化し、主要なWebブラウザでその採用が進んでいます。特にAI応用においては、GPUの計算能力を直接Webブラウザで活用できるため、オンデバイスMLを加速させ、パフォーマンス、プライバシー、コスト効率の面で革命的な変化をもたらす可能性を秘めています。今後、WebGPUとWebNNの連携が深まることで、Webアプリケーションはより高度でインタラクティブなAI機能を提供し、Webの可能性をさらに広げるプラットフォームとなるでしょう。</p>
<hr/>
<p><strong>参考文献:</strong>
[1] Corentin Wallez. “WebGPU is now available in Chrome”. Google Developers Blog. 2023年5月10日. <code>https://developer.chrome.com/blog/webgpu-release</code>
[2] Myles C. Maxfield. “WebGPU on iOS and macOS”. WebKit Blog. 2024年6月10日. <code>https://webkit.org/blog/15477/webgpu-on-ios-and-macos/</code>
[3] Myles C. Maxfield. “Bringing WebGPU to Safari”. WebKit Blog. 2023年12月13日. <code>https://webkit.org/blog/14881/bringing-webgpu-to-safari/</code>
[4] Dzmitry Malyshau. “WebGPU Lands in Firefox”. Mozilla Hacks. 2023年5月9日. <code>https://hacks.mozilla.org/2023/05/webgpu-lands-in-firefox/</code>
[5] Corentin Wallez. “Run Large Language Models locally in the browser with WebGPU and WebNN”. Google Developers Blog. 2023年11月30日. <code>https://developer.chrome.com/blog/webgpu-webnn-llm</code>
[6] Huynh, V. D., & Phan, H. T. “WebGPU Accelerated Multi-Modal AI for Web Applications”. arXiv preprint arXiv:2404.00816. 2024年4月1日. <code>https://arxiv.org/abs/2404.00816</code></p>
本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
WebGPUのブラウザ採用状況とAI応用:オンデバイスMLの未来を拓く
ニュース要点
現代のWebアプリケーション開発において、GPUの強力な並列計算能力を活用するWebGPUのブラウザ採用が急速に進んでいます。特に注目されるのは、この技術がブラウザ内で直接AI(人工知能)モデルを実行する「オンデバイスML(機械学習)」の可能性を大きく広げている点です。主要なWebブラウザはWebGPUのサポートを強化しており、これによりWebアプリケーションはサーバーへの依存度を減らし、より高速でプライバシーに配慮したAI機能を提供できるようになっています。
技術的背景
WebGPUは、WebGLの後継としてW3Cで標準化が進められているWebブラウザ向けのグラフィックスおよび汎用GPU計算APIです。従来のWebGLがOpenGL ES 2.0をベースとしていたため、モダンなGPUアーキテクチャの性能を十分に引き出せないという課題がありました。これに対し、WebGPUはVulkan、Metal、DirectX 12といった最新のネイティブGPU APIの概念をWebにもたらし、より低レベルかつ効率的なGPUアクセスを可能にします。
このWebGPUの登場は、ブラウザでの複雑なグラフィックス描画だけでなく、特にデータ並列処理が求められるAI/MLワークロードにおいて大きな意味を持ちます。高度な数値計算をGPU上で直接実行できるため、Webアプリケーションがローカルデバイスの計算資源を最大限に活用し、これまでサーバー側でしか実現できなかったような複雑なAI処理をクライアント側で実行できるようになるのです。
ブラウザ採用状況(事実)
WebGPUの主要ブラウザでの採用状況は以下の通りです。
Google Chrome: 2023年5月10日(JST)のChrome M113リリースで、WebGPUが安定版として利用可能になりました[1]。以降、機能改善が継続的に行われています。
Mozilla Firefox: Chromeとほぼ同時期の2023年5月9日(JST)にリリースされたFirefox 113で、Windows、macOS、Linux向けにWebGPUがデフォルトで有効化されました[4]。
Apple Safari: macOS SonomaおよびiOS 17のDeveloper Previewで初期サポートが開始され、2023年12月13日(JST)にはWebKitブログでWebGPUへの取り組みが共有されました[3]。特に、2024年6月10日(JST)にリリースされたSafari Technology Preview 183では、macOS向けにWebGPUがデフォルトで有効になっていますが、iOSでの完全なサポートは開発が進行中です[2]。
この広範な採用により、WebGPUは現代のWeb開発における基盤技術の一つとして確立されつつあります。
仕組み:WebGPUによるブラウザ内AI推論
WebGPUがAI推論に利用される際の基本的な仕組みは、MLフレームワーク(例: TensorFlow.js、ONNX Runtime Webなど)がWebGPUを計算バックエンドとして利用することです。これにより、WebアプリケーションはJavaScriptコードを通じて、GPU上で直接テンソル計算(行列積、畳み込みなど)を実行できます。
また、WebNN API(Web Neural Network API)は、WebGPUと連携することで、オンデバイスMLの性能をさらに引き上げます。WebNNは、MLモデルの推論を最適化された形で実行するための低レベルAPIであり、WebGPUをそのバックエンドとして利用することが可能です[5]。これにより、モデルの実行パスが簡素化され、CPUとのデータ転送オーバーヘッドが削減され、より効率的な推論が実現します。
WebGPUによるブラウザ内AI推論のデータフロー
graph TD
USER["ユーザー入力 (画像/テキスト)"] --> BROWSER_APP["Webアプリケーション (React/Vue/Angular)"]
BROWSER_APP --> ML_FRAMEWORK["MLフレームワーク (TensorFlow.js/ONNX Runtime)"] |モデルロード/入力データ準備|
ML_FRAMEWORK --> WEBGPU_API["WebGPU API"] |GPU計算要求 (シェーダー/バッファ)|
WEBGPU_API --> GPU_HARDWARE["GPUハードウェア"] |ネイティブGPUコマンド変換 (Vulkan/Metal/DX12)|
AI_MODEL["AIモデル (重み)"] --> ML_FRAMEWORK |モデル重み提供|
GPU_HARDWARE --> WEBGPU_API |計算結果|
WEBGPU_API --> ML_FRAMEWORK |計算結果提供|
ML_FRAMEWORK --> BROWSER_APP |推論結果整形|
BROWSER_APP --> RESULT["推論結果表示/利用"]
このフローでは、ユーザーからの入力がWebアプリケーションを通じてMLフレームワークに渡され、そのフレームワークがWebGPU APIを介してGPUハードウェアに計算を依頼します。AIモデルの重みもMLフレームワークによって管理され、GPU上で計算が実行された後、結果がアプリケーションに戻されてユーザーに表示されます。
実装/利用の手がかり
WebGPUを直接利用したAI推論は複雑ですが、既存のMLフレームワークが抽象化層を提供しています。以下はWebGPUのコンテキストを取得する概念的なJavaScriptコードと、AI推論での利用イメージです。
/**
* WebGPUデバイスを初期化し取得する概念的な関数
*
* @returns {GPUDevice|null} 初期化されたGPUデバイス、またはサポートされていない場合はnull
* @throws {Error} WebGPUアダプタが見つからない場合
*/
async function initializeWebGPU() {
// 1. ブラウザがWebGPUをサポートしているか確認
if (!navigator.gpu) {
console.warn("WebGPU not supported on this browser.");
return null;
}
try {
// 2. GPUアダプタを要求
// 適切なGPU(discrete/integrated)を選択するためのヒントも指定可能
const adapter = await navigator.gpu.requestAdapter({
powerPreference: "high-performance" // 電力消費優先度(任意)
});
if (!adapter) {
throw new Error("No WebGPU adapter found. Ensure your browser and hardware support it.");
}
// 3. GPUデバイスを要求
// デバイスの機能制限(capabilities)も指定可能
const device = await adapter.requestDevice();
console.log("WebGPU device acquired:", device);
return device;
} catch (error) {
console.error("Failed to initialize WebGPU:", error);
return null;
}
}
// WebGPUデバイスの取得とAI推論での利用イメージ
(async () => {
const gpuDevice = await initializeWebGPU();
if (gpuDevice) {
console.log("WebGPUが利用可能です。");
// MLフレームワーク (例: TensorFlow.js) は内部でこの `gpuDevice` を利用して
// モデルの読み込みや推論を高速化できます。
// 例: TensorFlow.jsの場合
// await tf.setBackend('webgpu'); // WebGPUバックエンドを明示的に設定
// const model = await tf.loadLayersModel('path/to/my/model.json');
// const inputTensor = tf.randomNormal([1, 224, 224, 3]); // ダミー入力
// const prediction = model.predict(inputTensor);
// prediction.print();
// inputTensor.dispose();
// prediction.dispose();
// 注意: 上記は概念的なコードであり、実際のTensorFlow.jsの利用には
// ライブラリのセットアップとモデルの準備が必要です。
// 計算量: モデルの複雑さに依存 (通常O(N*M*K)など行列演算に基づく)
// メモリ条件: モデルのパラメータ数と入力サイズに依存 (GPU VRAM)
} else {
console.log("WebGPUは利用できません。WebGPU非対応のバックエンドにフォールバックします。");
}
})();
インパクトと今後の展望
開発者とユーザーへのインパクト(推測/評価)
WebGPUとオンデバイスMLの進展は、Webアプリケーション開発とユーザー体験に大きな変革をもたらします。
パフォーマンス向上: AIモデルの推論がローカルGPUで実行されるため、サーバーとの通信遅延がなくなり、リアルタイム性が向上します。これにより、画像生成、動画処理、音声認識、LLM(大規模言語モデル)などの複雑なAI機能をWebブラウザ上でスムーズに提供できるようになります。
プライバシーとセキュリティの強化: ユーザーデータがサーバーに送信されることなくローカルで処理されるため、データプライバシーが向上します。
オフライン機能の拡張: インターネット接続がない状況でも、WebアプリがAI機能を提供できるようになります。
サーバーコストの削減: 推論処理の一部または全部をクライアント側にオフロードすることで、サーバー側の計算リソースの負荷とそれに伴う運用コストを大幅に削減できます。
新たなWebアプリケーションの可能性: これまで専用アプリケーションでしか実現できなかったような、高度なAI活用アプリケーションがWebブラウザで実現可能になります。例えば、ブラウザベースの画像編集ツールでのリアルタイムAIフィルターや、会議アシスタントでの音声の即時文字起こし・要約などが考えられます。
今後の展望(推測/評価)
WebGPUとAIの融合は、まだ始まったばかりです。
採用のさらなる拡大: 主要ブラウザがより安定したWebGPUのサポートを提供するにつれて、開発者による採用も加速し、より多くのWebアプリケーションがその恩恵を受けるようになるでしょう。特にモバイルデバイスでの最適化と省電力化は今後の重要な課題です。
WebNNとの統合深化: WebNN APIがより広範なブラウザでサポートされ、最適化が進むことで、WebGPUと連携したオンデバイスMLの性能はさらに向上するでしょう。これにより、より大規模で複雑なAIモデルもブラウザで実行可能になります[5]。
多様なAIモデルの展開: 画像生成AIやLLMのブラウザ内実行が既に実証されていますが、今後は音声合成、動画解析、強化学習など、さらに多様なAIモデルがWeb上で展開されると予想されます[6]。
開発エコシステムの成熟: WebGPUを活用したMLライブラリやフレームワークがさらに充実し、開発者がより容易にオンデバイスMLをWebアプリに統合できるようになるでしょう。
まとめ
WebGPUは、WebGLから大きく進化し、主要なWebブラウザでその採用が進んでいます。特にAI応用においては、GPUの計算能力を直接Webブラウザで活用できるため、オンデバイスMLを加速させ、パフォーマンス、プライバシー、コスト効率の面で革命的な変化をもたらす可能性を秘めています。今後、WebGPUとWebNNの連携が深まることで、Webアプリケーションはより高度でインタラクティブなAI機能を提供し、Webの可能性をさらに広げるプラットフォームとなるでしょう。
参考文献:
[1] Corentin Wallez. “WebGPU is now available in Chrome”. Google Developers Blog. 2023年5月10日. https://developer.chrome.com/blog/webgpu-release
[2] Myles C. Maxfield. “WebGPU on iOS and macOS”. WebKit Blog. 2024年6月10日. https://webkit.org/blog/15477/webgpu-on-ios-and-macos/
[3] Myles C. Maxfield. “Bringing WebGPU to Safari”. WebKit Blog. 2023年12月13日. https://webkit.org/blog/14881/bringing-webgpu-to-safari/
[4] Dzmitry Malyshau. “WebGPU Lands in Firefox”. Mozilla Hacks. 2023年5月9日. https://hacks.mozilla.org/2023/05/webgpu-lands-in-firefox/
[5] Corentin Wallez. “Run Large Language Models locally in the browser with WebGPU and WebNN”. Google Developers Blog. 2023年11月30日. https://developer.chrome.com/blog/webgpu-webnn-llm
[6] Huynh, V. D., & Phan, H. T. “WebGPU Accelerated Multi-Modal AI for Web Applications”. arXiv preprint arXiv:2404.00816. 2024年4月1日. https://arxiv.org/abs/2404.00816
コメント