۱. مقدمه

وب جیپییو چیست؟
WebGPU یک API جدید و مدرن برای دسترسی به قابلیتهای پردازنده گرافیکی (GPU) شما در برنامههای وب است.
رابط برنامهنویسی کاربردی مدرن
قبل از WebGPU، WebGL وجود داشت که زیرمجموعهای از ویژگیهای WebGPU را ارائه میداد. این WebGL کلاس جدیدی از محتوای غنی وب را امکانپذیر میکرد و توسعهدهندگان با آن چیزهای شگفتانگیزی ساختهاند. با این حال، این API بر اساس OpenGL ES 2.0 بود که در سال ۲۰۰۷ منتشر شد و آن هم بر اساس API قدیمیتر OpenGL بود. پردازندههای گرافیکی (GPU) در طول این مدت به طور قابل توجهی تکامل یافتهاند و APIهای بومی که برای ارتباط با آنها استفاده میشوند نیز با Direct3D 12 ، Metal و Vulkan تکامل یافتهاند.
WebGPU پیشرفتهای این APIهای مدرن را به پلتفرم وب میآورد. این پلتفرم بر فعال کردن ویژگیهای GPU به صورت چند پلتفرمی تمرکز دارد، در حالی که APIای ارائه میدهد که در وب طبیعی به نظر میرسد و نسبت به برخی از APIهای بومی که بر اساس آنها ساخته شده است، سادهتر است.
رندرینگ
پردازندههای گرافیکی (GPU) اغلب با رندر سریع و دقیق گرافیک مرتبط هستند و WebGPU نیز از این قاعده مستثنی نیست. این پردازنده ویژگیهای لازم برای پشتیبانی از بسیاری از محبوبترین تکنیکهای رندر امروزی را در پردازندههای گرافیکی دسکتاپ و موبایل دارد و مسیری را برای اضافه شدن ویژگیهای جدید در آینده با تکامل قابلیتهای سختافزاری فراهم میکند.
محاسبه
علاوه بر رندرینگ، WebGPU پتانسیل GPU شما را برای انجام کارهای عمومی و موازی آزاد میکند. این سایهزنهای محاسباتی میتوانند به صورت مستقل، بدون هیچ جزء رندرینگ یا به عنوان بخشی کاملاً یکپارچه از خط لوله رندرینگ شما استفاده شوند.
در آزمایشگاه کد امروز، یاد خواهید گرفت که چگونه از قابلیتهای رندرینگ و محاسباتی WebGPU برای ایجاد یک پروژه مقدماتی ساده بهره ببرید!
آنچه خواهید ساخت
در این آزمایشگاه کد، شما بازی زندگی کانوی را با استفاده از WebGPU میسازید. برنامه شما:
- از قابلیتهای رندرینگ WebGPU برای ترسیم گرافیکهای ساده دوبعدی استفاده کنید.
- از قابلیتهای محاسباتی WebGPU برای انجام شبیهسازی استفاده کنید.

بازی زندگی چیزی است که به عنوان یک اتوماتای سلولی شناخته میشود، که در آن شبکهای از سلولها بر اساس مجموعهای از قوانین، حالت خود را در طول زمان تغییر میدهند. در بازی زندگی، سلولها بسته به تعداد سلولهای همسایهشان فعال یا غیرفعال میشوند، که منجر به الگوهای جالبی میشود که هنگام تماشای شما در نوسان هستند.
آنچه یاد خواهید گرفت
- نحوه راهاندازی WebGPU و پیکربندی یک بوم نقاشی.
- نحوه رسم هندسه دوبعدی ساده.
- نحوه استفاده از سایهزنهای رأس و قطعه برای تغییر آنچه ترسیم میشود.
- نحوه استفاده از سایهزنهای محاسباتی برای انجام یک شبیهسازی ساده.
این آزمایشگاه کد بر معرفی مفاهیم اساسی پشت WebGPU تمرکز دارد. هدف آن بررسی جامع API نیست، و همچنین مباحث مرتبط با آن مانند ریاضیات ماتریس سهبعدی را پوشش نمیدهد (یا الزامی به آنها ندارد).
آنچه نیاز دارید
- نسخه اخیر کروم (۱۱۳ یا بالاتر) در ChromeOS، macOS یا Windows. WebGPU یک API چند مرورگری و چند پلتفرمی است اما هنوز در همه جا منتشر نشده است.
- آشنایی با HTML، جاوا اسکریپت و ابزارهای توسعه کروم
آشنایی با سایر APIهای گرافیکی، مانند WebGL، Metal، Vulkan یا Direct3D، الزامی نیست ، اما اگر تجربهای با آنها داشته باشید، احتمالاً متوجه شباهتهای زیادی با WebGPU خواهید شد که میتواند به شروع یادگیری شما کمک کند!
۲. آماده شوید
کد را دریافت کنید
این آزمایشگاه کد هیچ وابستگی ندارد و شما را در هر مرحلهای که برای ایجاد برنامه WebGPU لازم است، راهنمایی میکند، بنابراین برای شروع به هیچ کدی نیاز ندارید. با این حال، برخی از مثالهای کاربردی که میتوانند به عنوان نقاط کنترل عمل کنند، در https://github.com/GoogleChromeLabs/your-first-webgpu-app-codelab موجود است. میتوانید آنها را بررسی کنید و در صورت گیر کردن، در حین کار به آنها مراجعه کنید.
از کنسول توسعهدهندگان استفاده کنید!
WebGPU یک API نسبتاً پیچیده با قوانین زیادی است که استفاده صحیح از آن را الزامی میکند. بدتر از آن، به دلیل نحوه عملکرد API، نمیتواند برای بسیاری از خطاها استثنائات معمول جاوا اسکریپت را ایجاد کند، و تشخیص دقیق منشأ مشکل را دشوارتر میکند.
هنگام توسعه با WebGPU، به خصوص به عنوان یک مبتدی، با مشکلاتی روبرو خواهید شد و این اشکالی ندارد! توسعهدهندگان پشت این API از چالشهای کار با توسعه GPU آگاه هستند و سخت تلاش کردهاند تا اطمینان حاصل کنند که هر زمان کد WebGPU شما خطایی ایجاد میکند، پیامهای بسیار دقیق و مفیدی را در کنسول توسعهدهنده دریافت خواهید کرد که به شما در شناسایی و رفع مشکل کمک میکند.
باز نگه داشتن کنسول هنگام کار روی هر برنامه وب همیشه مفید است، اما به ویژه در اینجا کاربرد دارد!
۳. مقداردهی اولیه WebGPU
با یک <canvas> شروع کنید
اگر تنها هدف شما انجام محاسبات باشد، میتوان از WebGPU بدون نمایش چیزی روی صفحه استفاده کرد. اما اگر میخواهید چیزی را رندر کنید، مانند کاری که قرار است در آزمایشگاه کد انجام دهیم، به یک بوم نقاشی نیاز دارید. بنابراین این نقطه خوبی برای شروع است!
یک سند HTML جدید با یک عنصر <canvas> در آن، و همچنین یک تگ <script> که در آن عنصر canvas را کوئری میکنیم، ایجاد کنید. (یا از 00-starter-page.html استفاده کنید.)
- یک فایل
index.htmlبا کد زیر ایجاد کنید:
فهرست.html
<!doctype html>
<html>
<head>
<meta charset="utf-8">
<title>WebGPU Life</title>
</head>
<body>
<canvas width="512" height="512"></canvas>
<script type="module">
const canvas = document.querySelector("canvas");
// Your WebGPU code will begin here!
</script>
</body>
</html>
درخواست آداپتور و دستگاه
حالا میتوانید وارد جزئیات WebGPU شوید! اول از همه، باید در نظر بگیرید که APIهایی مانند WebGPU میتوانند مدتی طول بکشد تا در کل اکوسیستم وب منتشر شوند. در نتیجه، یک گام احتیاطی خوب، بررسی این است که آیا مرورگر کاربر میتواند از WebGPU استفاده کند یا خیر.
- برای بررسی اینکه آیا شیء
navigator.gpu، که به عنوان نقطه ورود برای WebGPU عمل میکند، وجود دارد یا خیر، کد زیر را اضافه کنید:
فهرست.html
if (!navigator.gpu) {
throw new Error("WebGPU not supported on this browser.");
}
در حالت ایدهآل، شما میخواهید با برگرداندن صفحه به حالتی که از WebGPU استفاده نمیکند، به کاربر اطلاع دهید که WebGPU در دسترس نیست. (شاید بتوان به جای آن از WebGL استفاده کرد؟) با این حال، برای اهداف این آزمایشگاه کد، شما فقط یک خطا ایجاد میکنید تا از اجرای بیشتر کد جلوگیری شود.
وقتی فهمیدید که مرورگر از WebGPU پشتیبانی میکند، اولین قدم برای مقداردهی اولیه WebGPU برای برنامهتان، درخواست یک GPUAdapter است. میتوانید یک آداپتور را به عنوان نماینده WebGPU از یک قطعه خاص از سختافزار GPU در دستگاه خود در نظر بگیرید.
- برای دریافت یک آداپتور، از متد
navigator.gpu.requestAdapter()استفاده کنید. این متد یک promise را برمیگرداند، بنابراین راحتتر است که آن را باawaitفراخوانی کنید.
فهرست.html
const adapter = await navigator.gpu.requestAdapter();
if (!adapter) {
throw new Error("No appropriate GPUAdapter found.");
}
اگر هیچ آداپتور مناسبی پیدا نشود، مقدار adapter برگشتی ممکن است null باشد، بنابراین باید این احتمال را مدیریت کنید. این اتفاق ممکن است زمانی رخ دهد که مرورگر کاربر از WebGPU پشتیبانی کند اما سختافزار GPU او تمام ویژگیهای لازم برای استفاده از WebGPU را نداشته باشد.
اغلب اوقات، همانطور که در اینجا انجام میدهید، اشکالی ندارد که به مرورگر اجازه دهید آداپتور پیشفرض را انتخاب کند، اما برای نیازهای پیشرفتهتر، آرگومانهایی وجود دارند که میتوانند به requestAdapter() ارسال شوند و مشخص کنند که آیا میخواهید از سختافزار کممصرف یا با کارایی بالا در دستگاههایی با چندین پردازنده گرافیکی (مانند برخی لپتاپها) استفاده کنید.
وقتی آداپتور را تهیه کردید، آخرین مرحله قبل از شروع کار با GPU، درخواست یک GPUDevice است. این دستگاه رابط اصلی است که از طریق آن بیشتر تعامل با GPU اتفاق میافتد.
- با فراخوانی
adapter.requestDevice()دستگاه را دریافت کنید، که این متد نیز یک promise را برمیگرداند.
فهرست.html
const device = await adapter.requestDevice();
همانند requestAdapter() ، گزینههایی وجود دارند که میتوانند برای کاربردهای پیشرفتهتر مانند فعال کردن ویژگیهای سختافزاری خاص یا درخواست محدودیتهای بالاتر، به اینجا ارسال شوند ، اما برای اهداف شما، مقادیر پیشفرض به خوبی کار میکنند.
پیکربندی بوم
حالا که یک دستگاه دارید، اگر میخواهید از آن برای نمایش هر چیزی در صفحه استفاده کنید، یک کار دیگر هم باید انجام دهید: بوم نقاشی را طوری پیکربندی کنید که با دستگاهی که تازه ایجاد کردهاید، استفاده شود.
- برای انجام این کار، ابتدا با فراخوانی
canvas.getContext("webgpu")یکGPUCanvasContextاز canvas درخواست کنید. (این همان فراخوانی است که برای مقداردهی اولیهی زمینههای Canvas 2D یا WebGL، به ترتیب با استفاده از انواع زمینهی2dوwebgl، استفاده میکنید.)contextکه برمیگرداند، باید با استفاده از متدconfigure()به دستگاه مرتبط شود، مانند این:
فهرست.html
const context = canvas.getContext("webgpu");
const canvasFormat = navigator.gpu.getPreferredCanvasFormat();
context.configure({
device: device,
format: canvasFormat,
});
چند گزینه وجود دارد که میتوان در اینجا ارسال کرد، اما مهمترین آنها device است که قرار است context را با آن استفاده کنید و format که فرمت بافتی است که context باید از آن استفاده کند.
بافتها اشیایی هستند که WebGPU برای ذخیره دادههای تصویر از آنها استفاده میکند و هر بافت فرمتی دارد که به GPU اجازه میدهد بداند آن دادهها چگونه در حافظه قرار گرفتهاند. جزئیات نحوه عملکرد حافظه بافت فراتر از محدوده این آزمایشگاه کد است. نکته مهمی که باید بدانید این است که زمینه بوم، بافتهایی را برای کد شما فراهم میکند تا در آن ترسیم شود و فرمتی که استفاده میکنید میتواند بر میزان کارایی بوم در نمایش آن تصاویر تأثیر بگذارد. انواع مختلف دستگاهها هنگام استفاده از فرمتهای بافت مختلف بهترین عملکرد را دارند و اگر از فرمت ترجیحی دستگاه استفاده نکنید، ممکن است باعث شود قبل از اینکه تصویر به عنوان بخشی از صفحه نمایش داده شود، کپیهای اضافی از حافظه در پشت صحنه اتفاق بیفتد.
خوشبختانه، لازم نیست نگران هیچکدام از این موارد باشید، زیرا WebGPU به شما میگوید از کدام قالب برای بوم خود استفاده کنید! تقریباً در همه موارد، میخواهید مقدار برگردانده شده را با فراخوانی navigator.gpu.getPreferredCanvasFormat() ارسال کنید، همانطور که در بالا نشان داده شده است.
بوم نقاشی را پاک کنید
حالا که یک دستگاه دارید و بوم نقاشی با آن پیکربندی شده است، میتوانید از دستگاه برای تغییر محتوای بوم نقاشی استفاده کنید. برای شروع، آن را با یک رنگ ثابت پاک کنید.
برای انجام این کار - یا تقریباً هر کار دیگری در WebGPU - باید چند دستور به GPU بدهید که به آن دستور دهد چه کاری انجام دهد.
- برای انجام این کار، از دستگاه بخواهید یک
GPUCommandEncoderایجاد کند که رابطی برای ضبط دستورات GPU فراهم میکند.
فهرست.html
const encoder = device.createCommandEncoder();
دستوراتی که میخواهید به GPU ارسال کنید مربوط به رندرینگ (در این مورد، پاک کردن بوم) هستند، بنابراین مرحله بعدی استفاده از encoder برای شروع Render Pass است.
رندر پسها زمانی هستند که تمام عملیات طراحی در WebGPU اتفاق میافتند. هر کدام با فراخوانی beginRenderPass() شروع میشوند، که بافتهایی را که خروجی هر دستور طراحی اجرا شده را دریافت میکنند، تعریف میکند. کاربردهای پیشرفتهتر میتوانند چندین بافت به نام پیوستها را با اهداف مختلفی مانند ذخیره عمق هندسه رندر شده یا ارائه آنتیالایزینگ ارائه دهند. با این حال، برای این برنامه، شما فقط به یکی نیاز دارید.
- با فراخوانی
context.getCurrentTexture()، بافت را از زمینه بوم که قبلاً ایجاد کردهاید، دریافت کنید. این تابع، بافتی با عرض و ارتفاع پیکسلی مطابق با ویژگیهایwidthوheightبوم وformatمشخص شده هنگام فراخوانیcontext.configure() را برمیگرداند.
فهرست.html
const pass = encoder.beginRenderPass({
colorAttachments: [{
view: context.getCurrentTexture().createView(),
loadOp: "clear",
storeOp: "store",
}]
});
بافت به عنوان ویژگی view از یک colorAttachment ارائه میشود . رندرینگ پسها مستلزم آن است که شما به جای GPUTexture یک GPUTextureView ارائه دهید، که به آن میگوید کدام قسمتهای بافت را رندر کند. این فقط برای موارد استفاده پیشرفتهتر اهمیت دارد، بنابراین در اینجا شما createView() را بدون هیچ آرگومانی روی بافت فراخوانی میکنید، که نشان میدهد میخواهید رندرینگ پس از کل بافت استفاده کند.
همچنین باید مشخص کنید که میخواهید رندر پس (render pass) هنگام شروع و پایان با بافت چه کاری انجام دهد:
- مقدار
loadOpبرابر با"clear"نشان میدهد که میخواهید بافت هنگام شروع رندرینگ پاک شود. - مقدار
"store"درstoreOpنشان میدهد که پس از اتمام مرحله رندر، میخواهید نتایج هر ترسیمی که در طول مرحله رندر انجام شده است، در بافت ذخیره شود.
وقتی رندرینگ پس از اجرا شروع شد، شما هیچ کاری انجام نمیدهید! حداقل فعلاً. همین که رندرینگ پس را با loadOp: "clear" شروع کنید، برای پاک کردن نمای بافت و بوم کافی است.
- با اضافه کردن فراخوانی زیر بلافاصله پس از
beginRenderPass()رندرینگ را پایان دهید:
فهرست.html
pass.end();
مهم است بدانید که صرفاً انجام این فراخوانیها باعث نمیشود که پردازنده گرافیکی (GPU) واقعاً کاری انجام دهد. آنها فقط دستوراتی را ضبط میکنند که بعداً پردازنده گرافیکی (GPU) انجام دهد.
- برای ایجاد یک
GPUCommandBuffer، تابعfinish()را در رمزگذار فرمان فراخوانی کنید. بافر فرمان، یک دستگیرهی مبهم برای فرمانهای ضبطشده است.
فهرست.html
const commandBuffer = encoder.finish();
- بافر دستور را با استفاده از
queueGPUDeviceبه GPU ارسال کنید. صف تمام دستورات GPU را انجام میدهد و اطمینان حاصل میکند که اجرای آنها به خوبی مرتب و به درستی هماهنگ شده است. متدsubmit()صف، آرایهای از بافرهای دستور را دریافت میکند، اگرچه در این مورد فقط یکی دارید.
فهرست.html
device.queue.submit([commandBuffer]);
وقتی یک بافر فرمان ارسال میکنید، دیگر نمیتوان از آن استفاده کرد، بنابراین نیازی به نگهداشتن آن نیست. اگر میخواهید فرمانهای بیشتری ارسال کنید، باید یک بافر فرمان دیگر بسازید. به همین دلیل است که دیدن ادغام این دو مرحله در یک مرحله نسبتاً رایج است، همانطور که در صفحات نمونه برای این آزمایشگاه کد انجام شده است:
فهرست.html
// Finish the command buffer and immediately submit it.
device.queue.submit([encoder.finish()]);
پس از ارسال دستورات به GPU، اجازه دهید جاوا اسکریپت کنترل را به مرورگر برگرداند. در آن مرحله، مرورگر متوجه میشود که شما بافت فعلی context را تغییر دادهاید و canvas را بهروزرسانی میکند تا آن بافت را به عنوان یک تصویر نمایش دهد. اگر میخواهید پس از آن دوباره محتوای canvas را بهروزرسانی کنید، باید یک بافر دستور جدید ضبط و ارسال کنید و دوباره context.getCurrentTexture() را فراخوانی کنید تا یک بافت جدید برای رندر دریافت کنید.
- صفحه را دوباره بارگذاری کنید. توجه داشته باشید که بوم با رنگ مشکی پر شده است. تبریک میگویم! این بدان معناست که شما با موفقیت اولین برنامه WebGPU خود را ایجاد کردهاید.

یک رنگ انتخاب کنید!
راستش را بخواهید، مربعهای سیاه خیلی کسلکننده هستند. بنابراین قبل از رفتن به بخش بعدی، کمی وقت بگذارید تا آن را کمی شخصیسازی کنید.
- در فراخوانی
encoder.beginRenderPass()، یک خط جدید باclearValueبهcolorAttachmentاضافه کنید، مانند این:
فهرست.html
const pass = encoder.beginRenderPass({
colorAttachments: [{
view: context.getCurrentTexture().createView(),
loadOp: "clear",
clearValue: { r: 0, g: 0, b: 0.4, a: 1 }, // New line
storeOp: "store",
}],
});
clearValue به پاس رندر دستور میدهد که هنگام انجام عملیات clear در ابتدای پاس، از چه رنگی استفاده کند. دیکشنری ارسالی به آن شامل چهار مقدار است: r برای قرمز ، g برای سبز ، b برای آبی و a برای آلفا (شفافیت). هر مقدار میتواند از 0 تا 1 باشد و آنها با هم مقدار آن کانال رنگی را توصیف میکنند. به عنوان مثال:
-
{ r: 1, g: 0, b: 0, a: 1 }قرمز روشن است. -
{ r: 1, g: 0, b: 1, a: 1 }بنفش روشن است. -
{ r: 0, g: 0.3, b: 0, a: 1 }به رنگ سبز تیره است. -
{ r: 0.5, g: 0.5, b: 0.5, a: 1 }خاکستری متوسط است. -
{ r: 0, g: 0, b: 0, a: 0 }رنگ پیشفرض و مشکی شفاف است.
کد نمونه و تصاویر موجود در این آزمایشگاه کد از آبی تیره استفاده میکنند، اما میتوانید هر رنگی را که میخواهید انتخاب کنید!
- وقتی رنگ مورد نظرتان را انتخاب کردید، صفحه را دوباره بارگذاری کنید. باید رنگ انتخابیتان را در بوم نقاشی ببینید.

۴. رسم هندسه
در پایان این بخش، برنامه شما یک شکل هندسی ساده را روی بوم رسم خواهد کرد: یک مربع رنگی. توجه داشته باشید که برای چنین خروجی سادهای، کار زیادی به نظر میرسد، اما این به این دلیل است که WebGPU برای رندر کردن هندسههای زیاد به طور بسیار کارآمد طراحی شده است. یکی از عوارض جانبی این کارایی این است که انجام کارهای نسبتاً ساده ممکن است به طور غیرمعمولی دشوار به نظر برسد، اما اگر به API مانند WebGPU روی میآورید، انتظار میرود که این کار را انجام دهید - شما میخواهید کاری کمی پیچیدهتر انجام دهید.
نحوه ترسیم توسط پردازندههای گرافیکی (GPU) را درک کنید
قبل از هرگونه تغییر بیشتر در کد، بهتر است یک مرور کلی سریع، ساده و سطح بالا از نحوه ایجاد شکلهایی که روی صفحه نمایش میبینید توسط پردازندههای گرافیکی (GPU) انجام دهید. (اگر از قبل با اصول اولیه نحوه عملکرد رندرینگ با پردازندههای گرافیکی (GPU) آشنا هستید، میتوانید از بخش تعریف رئوس صرف نظر کنید.)
برخلاف API مانند Canvas 2D که شکلها و گزینههای زیادی برای استفاده شما دارد، GPU شما در واقع فقط با چند نوع مختلف از شکلها (یا اشکال اولیه همانطور که توسط WebGPU به آنها اشاره میشود) سروکار دارد: نقاط، خطوط و مثلثها. برای اهداف این آزمایشگاه کد، فقط از مثلثها استفاده خواهید کرد.
پردازندههای گرافیکی تقریباً منحصراً با مثلثها کار میکنند، زیرا مثلثها خواص ریاضی خوب زیادی دارند که پردازش آنها را به روشی قابل پیشبینی و کارآمد آسان میکند. تقریباً هر چیزی که با پردازنده گرافیکی رسم میکنید، قبل از اینکه پردازنده گرافیکی بتواند آن را رسم کند، باید به مثلثهایی تقسیم شود و آن مثلثها باید توسط نقاط گوشهشان تعریف شوند.
این نقاط یا رئوس بر حسب مقادیر X، Y و (برای محتوای سهبعدی) Z ارائه میشوند که یک نقطه را روی یک سیستم مختصات دکارتی تعریف شده توسط WebGPU یا APIهای مشابه تعریف میکنند. ساختار سیستم مختصات را میتوان به راحتی از نظر نحوه ارتباط آن با بوم نقاشی روی صفحه شما در نظر گرفت. مهم نیست بوم نقاشی شما چقدر پهن یا بلند باشد، لبه سمت چپ همیشه روی محور X در -1 و لبه سمت راست همیشه روی +1 روی محور X قرار دارد. به طور مشابه، لبه پایین همیشه روی محور Y در -1 و لبه بالا روی +1 روی محور Y قرار دارد. این بدان معناست که (0، 0) همیشه مرکز بوم نقاشی است، (-1، -1) همیشه گوشه پایین سمت چپ است و (1، 1) همیشه گوشه بالا سمت راست است. این به عنوان فضای برش (Clip Space ) شناخته میشود.

رئوس به ندرت در ابتدا در این سیستم مختصات تعریف میشوند، بنابراین GPUها برای انجام هرگونه محاسبات لازم برای تبدیل رئوس به فضای کلیپ و همچنین هرگونه محاسبه دیگری که برای ترسیم رئوس لازم است، به برنامههای کوچکی به نام سایهزنهای رأس متکی هستند. به عنوان مثال، سایهزن ممکن است مقداری انیمیشن اعمال کند یا جهت را از رأس به منبع نور محاسبه کند. این سایهزنها توسط شما، توسعهدهنده WebGPU، نوشته میشوند و کنترل شگفتانگیزی بر نحوه عملکرد GPU ارائه میدهند.
از آنجا، پردازنده گرافیکی (GPU) تمام مثلثهای ساخته شده توسط این رئوس تبدیل شده را میگیرد و تعیین میکند که کدام پیکسلها روی صفحه برای ترسیم آنها مورد نیاز هستند. سپس برنامه کوچک دیگری را که شما مینویسید به نام fragment shader اجرا میکند که محاسبه میکند هر پیکسل چه رنگی باید داشته باشد. این محاسبه میتواند به سادگی برگرداندن رنگ سبز یا به پیچیدگی محاسبه زاویه سطح نسبت به نور خورشید منعکس شده از سایر سطوح مجاور، فیلتر شده از مه و تغییر یافته بر اساس میزان فلزی بودن سطح باشد. این کاملاً تحت کنترل شماست، که میتواند هم توانمندساز و هم طاقتفرسا باشد.
سپس نتایج آن رنگهای پیکسلی در یک بافت جمع میشوند که سپس میتوان آن را روی صفحه نمایش داد.
تعریف رئوس
همانطور که قبلاً ذکر شد، شبیهسازی بازی زندگی به صورت شبکهای از سلولها نشان داده میشود. برنامه شما به روشی برای تجسم این شبکه نیاز دارد تا سلولهای فعال را از سلولهای غیرفعال تشخیص دهد. رویکردی که این آزمایشگاه کد استفاده میکند، رسم مربعهای رنگی در سلولهای فعال و خالی گذاشتن سلولهای غیرفعال است.
این یعنی شما باید چهار نقطه مختلف را برای پردازنده گرافیکی (GPU) فراهم کنید، یکی برای هر یک از چهار گوشه مربع. برای مثال، یک مربع که در مرکز بوم رسم شده و از لبهها به سمت داخل کشیده شده است، مختصات گوشههای آن به این صورت است:

برای اینکه این مختصات به GPU داده شود، باید مقادیر را در یک TypedArray قرار دهید. اگر از قبل با آن آشنا نیستید، TypedArrayها گروهی از اشیاء جاوا اسکریپت هستند که به شما امکان میدهند بلوکهای پیوستهای از حافظه را اختصاص دهید و هر عنصر در این سری را به عنوان یک نوع داده خاص تفسیر کنید. به عنوان مثال، در یک Uint8Array ، هر عنصر در آرایه یک بایت واحد و بدون علامت است. TypedArrayها برای ارسال دادهها به جلو و عقب با APIهایی که به طرحبندی حافظه حساس هستند، مانند WebAssembly، WebAudio و (البته) WebGPU، عالی هستند.
برای مثال مربع، چون مقادیر کسری هستند، یک Float32Array مناسب است.
- با قرار دادن تعریف آرایه زیر در کد خود، آرایهای ایجاد کنید که تمام موقعیتهای رأسها را در نمودار نگه دارد. مکان مناسب برای قرار دادن آن، تقریباً در بالای صفحه، درست زیر فراخوانی
context.configure()است.
فهرست.html
const vertices = new Float32Array([
// X, Y,
-0.8, -0.8,
0.8, -0.8,
0.8, 0.8,
-0.8, 0.8,
]);
توجه داشته باشید که فاصلهگذاری و توضیحات هیچ تاثیری بر مقادیر ندارند؛ این فقط برای راحتی شما و خواناتر کردن آن است. این به شما کمک میکند تا ببینید که هر جفت مقدار، مختصات X و Y را برای یک رأس تشکیل میدهند.
اما یک مشکل وجود دارد! GPUها بر اساس مثلثها کار میکنند، یادتان هست؟ پس این یعنی شما باید رأسها را در گروههای سهتایی قرار دهید. شما یک گروه چهارتایی دارید. راه حل این است که دو رأس را تکرار کنید تا دو مثلث ایجاد کنید که یک ضلع مشترک از وسط مربع داشته باشند.

برای تشکیل مربع از روی نمودار، باید رئوس (-0.8، -0.8) و (0.8، 0.8) را دو بار فهرست کنید، یک بار برای مثلث آبی و یک بار برای مثلث قرمز. (همچنین میتوانید مربع را با دو گوشه دیگر تقسیم کنید؛ فرقی نمیکند.)
- آرایه
verticesقبلی خود را بهروزرسانی کنید تا چیزی شبیه به این شود:
فهرست.html
const vertices = new Float32Array([
// X, Y,
-0.8, -0.8, // Triangle 1 (Blue)
0.8, -0.8,
0.8, 0.8,
-0.8, -0.8, // Triangle 2 (Red)
0.8, 0.8,
-0.8, 0.8,
]);
اگرچه نمودار برای وضوح بیشتر، جدایی بین دو مثلث را نشان میدهد، اما موقعیت رأسها دقیقاً یکسان است و پردازنده گرافیکی (GPU) آنها را بدون فاصله رندر میکند. در واقع، تصویر به صورت یک مربع یکپارچه و توپر رندر خواهد شد.
ایجاد یک بافر رأس
پردازنده گرافیکی (GPU) نمیتواند رأسها را با دادههای یک آرایه جاوا اسکریپت رسم کند. پردازندههای گرافیکی (GPU) اغلب حافظه مخصوص به خود را دارند که برای رندرینگ بسیار بهینه شده است، بنابراین هر دادهای که میخواهید پردازنده گرافیکی (GPU) هنگام رسم از آن استفاده کند، باید در آن حافظه قرار گیرد.
برای بسیاری از مقادیر، از جمله دادههای رأس، حافظه سمت GPU از طریق اشیاء GPUBuffer مدیریت میشود. بافر بلوکی از حافظه است که به راحتی برای GPU قابل دسترسی است و برای اهداف خاصی علامتگذاری میشود. میتوانید آن را کمی شبیه یک TypedArray قابل مشاهده توسط GPU در نظر بگیرید.
- برای ایجاد یک بافر برای نگهداری رئوس خود، پس از تعریف آرایه
verticesخود، فراخوانی زیر را بهdevice.createBuffer()اضافه کنید.
فهرست.html
const vertexBuffer = device.createBuffer({
label: "Cell vertices",
size: vertices.byteLength,
usage: GPUBufferUsage.VERTEX | GPUBufferUsage.COPY_DST,
});
اولین نکتهای که باید به آن توجه کنید این است که به بافر یک برچسب میدهید. به هر شیء WebGPU که ایجاد میکنید، میتوان یک برچسب اختیاری داد و قطعاً باید این کار را انجام دهید! برچسب میتواند هر رشتهای باشد که میخواهید، البته تا زمانی که به شما در شناسایی شیء کمک کند. اگر با مشکلی مواجه شدید، از آن برچسبها در پیامهای خطایی که WebGPU تولید میکند استفاده میشود تا به شما در درک مشکل پیش آمده کمک کند.
در مرحله بعد، اندازه بافر را بر حسب بایت تعیین کنید. شما به یک بافر با ۴۸ بایت نیاز دارید که با ضرب اندازه یک عدد اعشاری ۳۲ بیتی ( ۴ بایت ) در تعداد اعداد اعشاری موجود در آرایه vertices (۱۲) به دست میآید. خوشبختانه، TypedArrays از قبل طول بایت خود را برای شما محاسبه میکند و بنابراین میتوانید هنگام ایجاد بافر از آن استفاده کنید.
در نهایت، باید نحوهی استفاده از بافر را مشخص کنید. این یک یا چند پرچم GPUBufferUsage است که چندین پرچم با عملگر | ( یا بیتی ) ترکیب میشوند. در این حالت، مشخص میکنید که میخواهید بافر برای دادههای رأس ( GPUBufferUsage.VERTEX ) استفاده شود و همچنین میخواهید بتوانید دادهها را در آن کپی کنید ( GPUBufferUsage.COPY_DST ).
شیء بافری که به شما بازگردانده میشود، مبهم است - شما نمیتوانید (به راحتی) دادههایی را که در آن نگهداری میشود، بررسی کنید. علاوه بر این، اکثر ویژگیهای آن تغییرناپذیر هستند - شما نمیتوانید اندازه GPUBuffer را پس از ایجاد آن تغییر دهید و همچنین نمیتوانید پرچمهای استفاده را تغییر دهید. آنچه میتوانید تغییر دهید، محتویات حافظه آن است.
وقتی بافر برای اولین بار ایجاد میشود، حافظهای که در آن قرار دارد با صفر مقداردهی اولیه میشود. روشهای مختلفی برای تغییر محتوای آن وجود دارد، اما سادهترین راه فراخوانی device.queue.writeBuffer() با TypedArray است که میخواهید در آن کپی کنید.
- برای کپی کردن دادههای رأس در حافظه بافر، کد زیر را اضافه کنید:
فهرست.html
device.queue.writeBuffer(vertexBuffer, /*bufferOffset=*/0, vertices);
طرح رأس را تعریف کنید
حالا شما یک بافر با دادههای رأس دارید، اما تا جایی که به GPU مربوط میشود، این فقط یک توده از بایتها است. اگر میخواهید چیزی با آن رسم کنید، باید کمی اطلاعات بیشتر ارائه دهید. باید بتوانید به WebGPU اطلاعات بیشتری در مورد ساختار دادههای رأس بدهید.
- ساختار داده رأس را با یک دیکشنری
GPUVertexBufferLayoutتعریف کنید:
فهرست.html
const vertexBufferLayout = {
arrayStride: 8,
attributes: [{
format: "float32x2",
offset: 0,
shaderLocation: 0, // Position, see vertex shader
}],
};
این موضوع در نگاه اول ممکن است کمی گیجکننده باشد، اما درک آن نسبتاً آسان است.
اولین چیزی که میدهید arrayStride است. این تعداد بایتهایی است که پردازنده گرافیکی (GPU) هنگام جستجوی رأس بعدی باید در بافر به جلو پرش کند. هر رأس مربع شما از دو عدد ممیز شناور ۳۲ بیتی تشکیل شده است. همانطور که قبلاً ذکر شد، یک عدد شناور ۳۲ بیتی ۴ بایت است، بنابراین دو عدد شناور ۸ بایت میشود.
مورد بعدی ویژگی attributes است که یک آرایه است. ویژگیها، قطعات اطلاعاتی جداگانهای هستند که در هر رأس کدگذاری شدهاند. رأسهای شما فقط شامل یک ویژگی (موقعیت رأس) هستند، اما در موارد استفاده پیشرفتهتر، رأسها اغلب دارای چندین ویژگی مانند رنگ یک رأس یا جهتی که سطح هندسی به آن اشاره میکند، هستند. البته این موضوع خارج از محدوده این آزمایشگاه کد است.
در ویژگی واحد خود، ابتدا format دادهها را تعریف میکنید. این از لیستی از انواع GPUVertexFormat میآید که هر نوع داده رأسی را که GPU میتواند درک کند، توصیف میکند. رأسهای شما هر کدام دو عدد اعشاری ۳۲ بیتی دارند، بنابراین از قالب float32x2 استفاده میکنید. اگر دادههای رأس شما به جای آن از چهار عدد صحیح بدون علامت ۱۶ بیتی تشکیل شده باشد، به عنوان مثال، از uint16x4 استفاده میکنید. الگو را میبینید؟
در مرحله بعد، آفست ( offset مشخص میکند که این ویژگی خاص از چند بایت در رأس شروع میشود. شما فقط در صورتی باید نگران این موضوع باشید که بافر شما بیش از یک ویژگی داشته باشد، که در طول این کدنویسی مطرح نخواهد شد.
در نهایت، shaderLocation را دارید. این یک عدد دلخواه بین 0 تا 15 است و باید برای هر ویژگی که تعریف میکنید منحصر به فرد باشد. این ویژگی، این ویژگی را به یک ورودی خاص در vertex shader پیوند میدهد که در بخش بعدی با آن آشنا خواهید شد.
توجه داشته باشید که اگرچه اکنون این مقادیر را تعریف میکنید، اما در واقع هنوز آنها را به هیچ جای دیگری از API WebGPU ارسال نمیکنید. این موضوع در حال بررسی است، اما سادهترین راه این است که در لحظه تعریف رئوس خود به این مقادیر فکر کنید، بنابراین اکنون آنها را برای استفاده بعدی تنظیم میکنید.
با سایهزنها شروع کنید
حالا شما دادههایی را که میخواهید رندر کنید، دارید، اما هنوز باید به GPU بگویید که دقیقاً چگونه آن را پردازش کند. بخش بزرگی از این کار با سایهزنها (shaders) انجام میشود.
شیدرها برنامههای کوچکی هستند که شما مینویسید و روی GPU شما اجرا میشوند. هر شیدر روی مرحلهی متفاوتی از دادهها عمل میکند: پردازش رأس (Vertex processing)، پردازش قطعهای (Fragment processing) یا محاسبات عمومی. از آنجایی که آنها روی GPU هستند، ساختار سفت و سختی نسبت به جاوا اسکریپت معمولی شما دارند. اما این ساختار به آنها اجازه میدهد تا خیلی سریع و مهمتر از همه، به صورت موازی اجرا شوند!
سایهزنها در WebGPU با یک زبان سایهزن به نام WGSL (زبان سایهزن WebGPU) نوشته میشوند. WGSL از نظر نحوی کمی شبیه Rust است، با ویژگیهایی که هدفشان آسانتر و سریعتر کردن انواع رایج کار با GPU (مانند محاسبات برداری و ماتریسی) است. آموزش کامل زبان سایهزن فراتر از محدوده این آزمایشگاه کد است، اما امیدواریم با مرور چند مثال ساده، برخی از اصول اولیه را یاد بگیرید.
خود شیدرها به صورت رشته به WebGPU منتقل میشوند.
- با کپی کردن موارد زیر در کد خود، زیر
vertexBufferLayoutمکانی برای وارد کردن کد shader خود ایجاد کنید:
فهرست.html
const cellShaderModule = device.createShaderModule({
label: "Cell shader",
code: `
// Your shader code will go here
`
});
برای ایجاد سایهزنها، تابع device.createShaderModule() را فراخوانی میکنید که در آن یک label اختیاری و code WGSL را به عنوان یک رشته ارائه میدهید. (توجه داشته باشید که در اینجا از علامت بکتیک برای مجاز کردن رشتههای چندخطی استفاده میکنید!) پس از افزودن کد معتبر WGSL، تابع یک شیء GPUShaderModule را به همراه نتایج کامپایل شده برمیگرداند.
سایهزن رأس را تعریف کنید
با سایهزن رأس شروع کنید، چون پردازندهی گرافیکی (GPU) هم از آنجا شروع میشود!
یک سایهزن رأس به عنوان یک تابع تعریف میشود و پردازنده گرافیکی (GPU) آن تابع را برای هر رأس در vertexBuffer شما یک بار فراخوانی میکند. از آنجایی که vertexBuffer شما شش موقعیت (راس) در خود دارد، تابعی که تعریف میکنید شش بار فراخوانی میشود. هر بار که فراخوانی میشود، یک موقعیت متفاوت از vertexBuffer به عنوان آرگومان به تابع ارسال میشود و این وظیفه تابع سایهزن رأس است که موقعیت متناظر را در فضای کلیپ برگرداند.
درک این نکته مهم است که آنها لزوماً به ترتیب متوالی فراخوانی نمیشوند. در عوض، پردازندههای گرافیکی (GPU) در اجرای سایهزنهایی مانند این به صورت موازی برتری دارند و به طور بالقوه صدها (یا حتی هزاران!) رأس را همزمان پردازش میکنند! این بخش بزرگی از سرعت باورنکردنی پردازندههای گرافیکی (GPU) است، اما محدودیتهایی نیز دارد. برای اطمینان از موازیسازی شدید، سایهزنهای رأس نمیتوانند با یکدیگر ارتباط برقرار کنند. هر فراخوانی سایهزن فقط میتواند دادههای یک رأس را در یک زمان ببیند و فقط قادر به خروجی مقادیر یک رأس است.
در WGSL، یک تابع سایهزن رأس میتواند هر نامی که میخواهید داشته باشد، اما باید ویژگی @vertex را در جلوی خود داشته باشد تا نشان دهد کدام مرحله سایهزن را نشان میدهد. WGSL توابع را با کلمه کلیدی fn مشخص میکند، از پرانتز برای اعلام هرگونه آرگومان استفاده میکند و از آکولاد برای تعریف دامنه استفاده میکند.
- یک تابع خالی
@vertexمانند زیر ایجاد کنید:
index.html (کد ایجاد ماژول Shader)
@vertex
fn vertexMain() {
}
با این حال، این معتبر نیست، زیرا یک سایهزن رأس باید حداقل موقعیت نهایی رأسی را که در فضای کلیپ پردازش میشود، برگرداند. این همیشه به عنوان یک بردار ۴ بعدی ارائه میشود. بردارها چنان رایج هستند که در سایهزنها به عنوان اشیاء اولیه درجه یک در زبان با انواع خاص خود مانند vec4f برای یک بردار ۴ بعدی در نظر گرفته میشوند. انواع مشابهی برای بردارهای ۲ بعدی ( vec2f ) و بردارهای ۳ بعدی ( vec3f ) نیز وجود دارد!
- برای نشان دادن اینکه مقداری که برگردانده میشود، موقعیت مورد نیاز است، آن را با ویژگی
@builtin(position)علامتگذاری کنید. از نماد->برای نشان دادن اینکه این همان چیزی است که تابع برمیگرداند، استفاده میشود.
index.html (کد ایجاد ماژول Shader)
@vertex
fn vertexMain() -> @builtin(position) vec4f {
}
البته، اگر تابع نوع بازگشتی داشته باشد، باید در واقع یک مقدار را در بدنه تابع برگردانید. میتوانید با استفاده از سینتکس vec4f(x, y, z, w) یک vec4f جدید برای بازگشت بسازید. مقادیر x ، y و z همگی اعداد اعشاری هستند که در مقدار بازگشتی، محل قرارگیری رأس در فضای برش را نشان میدهند.
- Return a static value of
(0, 0, 0, 1), and you technically have a valid vertex shader, although one that never displays anything since the GPU recognizes that the triangles it produces are just a single point and then discards it.
index.html (createShaderModule code)
@vertex
fn vertexMain() -> @builtin(position) vec4f {
return vec4f(0, 0, 0, 1); // (X, Y, Z, W)
}
What you want instead is to make use of the data from the buffer that you created, and you do that by declaring an argument for your function with a @location() attribute and type that match what you described in the vertexBufferLayout . You specified a shaderLocation of 0 , so in your WGSL code, mark the argument with @location(0) . You also defined the format as a float32x2 , which is a 2D vector, so in WGSL your argument is a vec2f . You can name it whatever you like, but since these represent your vertex positions, a name like pos seems natural.
- Change your shader function to the following code:
index.html (createShaderModule code)
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
return vec4f(0, 0, 0, 1);
}
And now you need to return that position. Since the position is a 2D vector and the return type is a 4D vector, you have to alter it a bit. What you want to do is take the two components from the position argument and place them in the first two components of the return vector, leaving the last two components as 0 and 1 , respectively.
- Return the correct position by explicitly stating which position components to use:
index.html (createShaderModule code)
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
return vec4f(pos.x, pos.y, 0, 1);
}
However , because these kinds of mappings are so common in shaders, you can also pass the position vector in as the first argument in a convenient shorthand and it means the same thing.
- Rewrite the
returnstatement with the following code:
index.html (createShaderModule code)
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
return vec4f(pos, 0, 1);
}
And that's your initial vertex shader! It's very simple, just passing out the position effectively unchanged, but it's good enough to get started.
Define the fragment shader
Next up is the fragment shader. Fragment shaders operate in a very similar way to vertex shaders, but rather than being invoked for every vertex, they're invoked for every pixel being drawn.
Fragment shaders are always called after vertex shaders. The GPU takes the output of the vertex shaders and triangulates it, creating triangles out of sets of three points. It then rasterizes each of those triangles by figuring out which pixels of the output color attachments are included in that triangle, and then calls the fragment shader once for each of those pixels. The fragment shader returns a color, typically calculated from values sent to it from the vertex shader and assets like textures, which the GPU writes to the color attachment.
Just like vertex shaders, fragment shaders are executed in a massively parallel fashion. They're a little more flexible than vertex shaders in terms of their inputs and outputs, but you can consider them to simply return one color for each pixel of each triangle.
A WGSL fragment shader function is denoted with the @fragment attribute and it also returns a vec4f . In this case, though, the vector represents a color, not a position. The return value needs to be given a @location attribute in order to indicate which colorAttachment from the beginRenderPass call the returned color is written to. Since you only had one attachment, the location is 0.
- Create an empty
@fragmentfunction, like this:
index.html (createShaderModule code)
@fragment
fn fragmentMain() -> @location(0) vec4f {
}
The four components of the returned vector are the red, green, blue, and alpha color values, which are interpreted in exactly the same way as the clearValue you set in beginRenderPass earlier. So vec4f(1, 0, 0, 1) is bright red, which seems like a decent color for your square. You're free to set it to whatever color you want, though!
- Set the returned color vector, like this:
index.html (createShaderModule code)
@fragment
fn fragmentMain() -> @location(0) vec4f {
return vec4f(1, 0, 0, 1); // (Red, Green, Blue, Alpha)
}
And that's a complete fragment shader! It's not a terribly interesting one; it just sets every pixel of every triangle to red, but that's sufficient for now.
Just to recap, after adding the shader code detailed above, your createShaderModule call now looks like this:
فهرست.html
const cellShaderModule = device.createShaderModule({
label: 'Cell shader',
code: `
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
return vec4f(pos, 0, 1);
}
@fragment
fn fragmentMain() -> @location(0) vec4f {
return vec4f(1, 0, 0, 1);
}
`
});
Create a render pipeline
A shader module can't be used for rendering on its own. Instead, you have to use it as part of a GPURenderPipeline , created by calling device.createRenderPipeline() . The render pipeline controls how geometry is drawn, including things like which shaders are used, how to interpret data in vertex buffers, which kind of geometry should be rendered (lines, points, triangles...), and more!
The render pipeline is the most complex object in the entire API, but don't worry! Most of the values you can pass to it are optional, and you only need to provide a few to start.
- Create a render pipeline, like this:
فهرست.html
const cellPipeline = device.createRenderPipeline({
label: "Cell pipeline",
layout: "auto",
vertex: {
module: cellShaderModule,
entryPoint: "vertexMain",
buffers: [vertexBufferLayout]
},
fragment: {
module: cellShaderModule,
entryPoint: "fragmentMain",
targets: [{
format: canvasFormat
}]
}
});
Every pipeline needs a layout that describes what types of inputs (other than vertex buffers) the pipeline needs, but you don't really have any. Fortunately, you can pass "auto" for now, and the pipeline builds its own layout from the shaders.
Next, you have to provide details about the vertex stage. The module is the GPUShaderModule that contains your vertex shader, and the entryPoint gives the name of the function in the shader code that is called for every vertex invocation. (You can have multiple @vertex and @fragment functions in a single shader module!) The buffers is an array of GPUVertexBufferLayout objects that describe how your data is packed in the vertex buffers that you use this pipeline with. Luckily, you already defined this earlier in your vertexBufferLayout ! Here's where you pass it in.
Lastly, you have details about the fragment stage. This also includes a shader module and entryPoint , like the vertex stage. The last bit is to define the targets that this pipeline is used with. This is an array of dictionaries giving details—such as the texture format —of the color attachments that the pipeline outputs to. These details need to match the textures given in the colorAttachments of any render passes that this pipeline is used with. Your render pass uses textures from the canvas context, and uses the value you saved in canvasFormat for its format, so you pass the same format here.
That's not even close to all of the options that you can specify when creating a render pipeline, but it's enough for the needs of this codelab!
Draw the square
And with that, you now have everything that you need in order to draw your square!
- To draw the square, jump back down to the
encoder.beginRenderPass()andpass.end()pair of calls, and then add these new commands between them:
فهرست.html
// After encoder.beginRenderPass()
pass.setPipeline(cellPipeline);
pass.setVertexBuffer(0, vertexBuffer);
pass.draw(vertices.length / 2); // 6 vertices
// before pass.end()
This supplies WebGPU with all the information necessary to draw your square. First, you use setPipeline() to indicate which pipeline should be used to draw with. This includes the shaders that are used, the layout of the vertex data, and other relevant state data.
Next, you call setVertexBuffer() with the buffer containing the vertices for your square. You call it with 0 because this buffer corresponds to the 0th element in the current pipeline's vertex.buffers definition.
And last, you make the draw() call, which seems strangely simple after all the setup that's come before. The only thing you need to pass in is the number of vertices that it should render, which it pulls from the currently set vertex buffers and interprets with the currently set pipeline. You could just hard-code it to 6 , but calculating it from the vertices array (12 floats / 2 coordinates per vertex == 6 vertices) means that if you ever decided to replace the square with, for example, a circle, there's less to update by hand.
- Refresh your screen and (finally) see the results of all your hard work: one big colored square.

5. Draw a grid
First, take a moment to congratulate yourself! Getting the first bits of geometry on screen is often one of the hardest steps with most GPU APIs. Everything you do from here can be done in smaller steps, making it easier to verify your progress as you go.
In this section, you learn:
- How to pass variables (called uniforms) to the shader from JavaScript.
- How to use uniforms to change the rendering behavior.
- How to use instancing to draw many different variants of the same geometry.
Define the grid
In order to render a grid, you need to know a very fundamental piece of information about it. How many cells does it contain, both in width and height? This is up to you as the developer, but to keep things a bit easier, treat the grid as a square (same width and height) and use a size that's a power of two. (That makes some of the math easier later.) You want to make it bigger eventually, but for the rest of this section, set your grid size to 4x4 because it makes it easier to demonstrate some of the math used in this section. Scale it up after!
- Define the grid size by adding a constant to the top of your JavaScript code.
فهرست.html
const GRID_SIZE = 4;
Next, you need to update how you render your square so that you can fit GRID_SIZE times GRID_SIZE of them on the canvas. That means the square needs to be a lot smaller, and there needs to be a lot of them.
Now, one way you could approach this is by making your vertex buffer significantly bigger and defining GRID_SIZE times GRID_SIZE worth of squares inside it at the right size and position. The code for that wouldn't be too bad, in fact! Just a couple of for loops and a bit of math. But that's also not making the best use of the GPU and using more memory than necessary to achieve the effect. This section looks at a more GPU-friendly approach.
Create a uniform buffer
First, you need to communicate the grid size you've chosen to the shader, since it uses that to change how things display. You could just hard-code the size into the shader, but then that means that any time you want to change the grid size you have to re-create the shader and render pipeline, which is expensive. A better way is to provide the grid size to the shader as uniforms .
You learned earlier that a different value from the vertex buffer is passed to every invocation of a vertex shader. A uniform is a value from a buffer that is the same for every invocation. They're useful for communicating values that are common for a piece of geometry (like its position), a full frame of animation (like the current time), or even the entire lifespan of the app (like a user preference).
- Create a uniform buffer by adding the following code:
فهرست.html
// Create a uniform buffer that describes the grid.
const uniformArray = new Float32Array([GRID_SIZE, GRID_SIZE]);
const uniformBuffer = device.createBuffer({
label: "Grid Uniforms",
size: uniformArray.byteLength,
usage: GPUBufferUsage.UNIFORM | GPUBufferUsage.COPY_DST,
});
device.queue.writeBuffer(uniformBuffer, 0, uniformArray);
This should look very familiar, because it's almost exactly the same code that you used to create the vertex buffer earlier! That's because uniforms are communicated to the WebGPU API through the same GPUBuffer objects that vertices are, with the main difference being that the usage this time includes GPUBufferUsage.UNIFORM instead of GPUBufferUsage.VERTEX .
Access uniforms in a shader
- Define a uniform by adding the following code:
index.html (createShaderModule call)
// At the top of the `code` string in the createShaderModule() call
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
return vec4f(pos / grid, 0, 1);
}
// ...fragmentMain is unchanged
This defines a uniform in your shader called grid , which is a 2D float vector that matches the array that you just copied into the uniform buffer. It also specifies that the uniform is bound at @group(0) and @binding(0) . You'll learn what those values mean in a moment.
Then, elsewhere in the shader code, you can use the grid vector however you need. In this code you divide the vertex position by the grid vector. Since pos is a 2D vector and grid is a 2D vector, WGSL performs a component-wise division. In other words, the result is the same as saying vec2f(pos.x / grid.x, pos.y / grid.y) .
These types of vector operations are very common in GPU shaders since many rendering and compute techniques rely on them!
What this means in your case is that (if you used a grid size of 4) the square that you render would be one-fourth of its original size. That's perfect if you want to fit four of them to a row or column!
Create a Bind Group
Declaring the uniform in the shader doesn't connect it with the buffer that you created, though. In order to do that, you need to create and set a bind group .
A bind group is a collection of resources that you want to make accessible to your shader at the same time. It can include several types of buffers, like your uniform buffer, and other resources like textures and samplers that are not covered here but are common parts of WebGPU rendering techniques.
- Create a bind group with your uniform buffer by adding the following code after the creation of the uniform buffer and render pipeline:
فهرست.html
const bindGroup = device.createBindGroup({
label: "Cell renderer bind group",
layout: cellPipeline.getBindGroupLayout(0),
entries: [{
binding: 0,
resource: { buffer: uniformBuffer }
}],
});
In addition to your now-standard label , you also need a layout that describes which types of resources this bind group contains. This is something that you dig into further in a future step, but for the moment you can happily ask your pipeline for the bind group layout because you created the pipeline with layout: "auto" . That causes the pipeline to create bind group layouts automatically from the bindings that you declared in the shader code itself. In this case, you ask it to getBindGroupLayout(0) , where the 0 corresponds to the @group(0) that you typed in the shader.
After specifying the layout, you provide an array of entries . Each entry is a dictionary with at least the following values:
-
binding, which corresponds with the@binding()value you entered in the shader. In this case,0. -
resource, which is the actual resource that you want to expose to the variable at the specified binding index. In this case, your uniform buffer.
The function returns a GPUBindGroup , which is an opaque, immutable handle. You can't change the resources that a bind group points to after it's been created, though you can change the contents of those resources. For example, if you change the uniform buffer to contain a new grid size, that is reflected by future draw calls using this bind group.
Bind the bind group
Now that the bind group is created, you still need to tell WebGPU to use it when drawing. Fortunately this is pretty simple.
- Hop back down to the render pass and add this new line before the
draw()method:
فهرست.html
pass.setPipeline(cellPipeline);
pass.setVertexBuffer(0, vertexBuffer);
pass.setBindGroup(0, bindGroup); // New line!
pass.draw(vertices.length / 2);
The 0 passed as the first argument corresponds to the @group(0) in the shader code. You're saying that each @binding that's part of @group(0) uses the resources in this bind group.
And now the uniform buffer is exposed to your shader!
- Refresh your page, and then you should see something like this:

Hooray! Your square is now one-fourth the size it was before! That's not much, but it shows that your uniform is actually applied and that the shader can now access the size of your grid.
Manipulate geometry in the shader
So now that you can reference the grid size in the shader, you can start doing some work to manipulate the geometry you're rendering to fit your desired grid pattern. To do that, consider exactly what you want to achieve.
You need to conceptually divide up your canvas into individual cells. In order to keep the convention that the X axis increases as you move right and the Y axis increases as you move up, say that the first cell is in the bottom left corner of the canvas. That gives you a layout that looks like this, with your current square geometry in the middle:

Your challenge is to find a method in the shader that lets you position the square geometry in any of those cells given the cell coordinates.
First, you can see that your square isn't nicely aligned with any of the cells because it was defined to surround the center of the canvas. You'd want to have the square shifted by half a cell so that it would line up nicely inside them.
One way you could fix this is to update the square's vertex buffer. By shifting the vertices so that the bottom-left corner is at, for example, (0.1, 0.1) instead of (-0.8, -0.8), you'd move this square to line up with the cell boundaries more nicely. But, since you have full control over how the vertices are processed in your shader, it's just as easy to simply nudge them into place using the shader code!
- Alter the vertex shader module with the following code:
index.html (createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
// Add 1 to the position before dividing by the grid size.
let gridPos = (pos + 1) / grid;
return vec4f(gridPos, 0, 1);
}
This moves every vertex up and to the right by one (which, remember, is half of the clip space) before dividing it by the grid size. The result is a nicely grid-aligned square just off of the origin.

Next, because your canvas' coordinate system places (0, 0) in the center and (-1, -1) in the lower left, and you want (0, 0) to be in the lower left, you need to translate your geometry's position by (-1, -1) after dividing by the grid size in order to move it into that corner.
- Translate your geometry's position, like this:
index.html (createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
// Subtract 1 after dividing by the grid size.
let gridPos = (pos + 1) / grid - 1;
return vec4f(gridPos, 0, 1);
}
And now your square is nicely positioned in cell (0, 0)!

What if you want to place it in a different cell? Figure that out by declaring a cell vector in your shader and populating it with a static value like let cell = vec2f(1, 1) .
If you add that to the gridPos , it undoes the - 1 in the algorithm, so that's not what you want. Instead, you want to move the square only by one grid unit (one-fourth of the canvas) for each cell. Sounds like you need to do another divide by grid !
- Change your grid positioning, like this:
index.html (createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
let cell = vec2f(1, 1); // Cell(1,1) in the image above
let cellOffset = cell / grid; // Compute the offset to cell
let gridPos = (pos + 1) / grid - 1 + cellOffset; // Add it here!
return vec4f(gridPos, 0, 1);
}
If you refresh now, you see the following:

Hm. Not quite what you wanted.
The reason for this is that since the canvas coordinates go from -1 to +1, it's actually 2 units across . That means if you want to move a vertex one-fourth of the canvas over, you have to move it 0.5 units. This is an easy mistake to make when reasoning with GPU coordinates! Fortunately, the fix is just as easy.
- Multiply your offset by 2, like this:
index.html (createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f) ->
@builtin(position) vec4f {
let cell = vec2f(1, 1);
let cellOffset = cell / grid * 2; // Updated
let gridPos = (pos + 1) / grid - 1 + cellOffset;
return vec4f(gridPos, 0, 1);
}
And this gives you exactly what you want.

The screenshot looks like this:

Furthermore, you can now set cell to any value within the grid bounds, and then refresh to see the square render in the desired location.
Draw instances
Now that you can place the square where you want it with a bit of math, the next step is to render one square in each cell of the grid.
One way you could approach it is to write cell coordinates to a uniform buffer, then call draw once for each square in the grid, updating the uniform every time. That would be very slow, however, since the GPU has to wait for the new coordinate to be written by JavaScript every time. One of the keys to getting good performance out of the GPU is to minimize the time it spends waiting on other parts of the system!
Instead, you can use a technique called instancing. Instancing is a way to tell the GPU to draw multiple copies of the same geometry with a single call to draw , which is much faster than calling draw once for every copy. Each copy of the geometry is referred to as an instance .
- To tell the GPU that you want enough instances of your square to fill the grid, add one argument to your existing draw call:
فهرست.html
pass.draw(vertices.length / 2, GRID_SIZE * GRID_SIZE);
This tells the system that you want it to draw the six ( vertices.length / 2 ) vertices of your square 16 ( GRID_SIZE * GRID_SIZE ) times. But if you refresh the page, you still see the following:

Why? Well, it's because you draw all 16 of those squares in the same spot. Your need to have some additional logic in the shader that repositions the geometry on a per-instance basis.
In the shader, in addition to the vertex attributes like pos that come from your vertex buffer, you can also access what are known as WGSL's built-in values . These are values that are calculated by WebGPU, and one such value is the instance_index . The instance_index is an unsigned 32-bit number from 0 to number of instances - 1 that you can use as part of your shader logic. Its value is the same for every vertex processed that's part of the same instance. That means your vertex shader gets called six times with an instance_index of 0 , once for each position in your vertex buffer. Then six more times with an instance_index of 1 , then six more with instance_index of 2 , and so on.
To see this in action, you have to add the instance_index built-in to your shader inputs. Do this in the same way as the position, but instead of tagging it with a @location attribute, use @builtin(instance_index) , and then name the argument whatever you want. (You can call it instance to match the example code.) Then use it as part of the shader logic!
- Use
instancein place of the cell coordinates:
فهرست.html
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f,
@builtin(instance_index) instance: u32) ->
@builtin(position) vec4f {
let i = f32(instance); // Save the instance_index as a float
let cell = vec2f(i, i); // Updated
let cellOffset = cell / grid * 2;
let gridPos = (pos + 1) / grid - 1 + cellOffset;
return vec4f(gridPos, 0, 1);
}
If you refresh now you see that you do indeed have more than one square! But you can't see all 16 of them.

That's because the cell coordinates you generate are (0, 0), (1, 1), (2, 2)... all the way to (15, 15), but only the first four of those fit on the canvas. To make the grid that you want, you need to transform the instance_index such that each index maps to a unique cell within your grid, like this:

The math for that is reasonably straightforward. For each cell's X value, you want the modulo of the instance_index and the grid width, which you can perform in WGSL with the % operator. And for each cell's Y value you want the instance_index divided by the grid width, discarding any fractional remainder. You can do that with WGSL's floor() function.
- Change the calculations, like this:
فهرست.html
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f,
@builtin(instance_index) instance: u32) ->
@builtin(position) vec4f {
let i = f32(instance);
// Compute the cell coordinate from the instance_index
let cell = vec2f(i % grid.x, floor(i / grid.x));
let cellOffset = cell / grid * 2;
let gridPos = (pos + 1) / grid - 1 + cellOffset;
return vec4f(gridPos, 0, 1);
}
After making that update to the code you have the long-awaited grid of squares at last!

- And now that it's working, go back and crank up the grid size!
فهرست.html
const GRID_SIZE = 32;

Tada! You can actually make this grid really, really big now and your average GPU handles it just fine. You'll stop seeing the individual squares long before you run into any GPU performance bottlenecks.
6. Extra credit: make it more colorful!
At this point, you can easily skip to the next section since you've laid the groundwork for the rest of the codelab. But while the grid of squares all sharing the same color is serviceable, it's not exactly exciting, is it? Fortunately you can make things a bit brighter with a little more math and shader code!
Use structs in shaders
Until now, you've passed one piece of data out of the vertex shader: the transformed position. But you can actually return a lot more data from the vertex shader and then use it in the fragment shader!
The only way to pass data out of the vertex shader is by returning it. A vertex shader is always required to return a position, so if you want to return any other data along with it, you need to place it in a struct. Structs in WGSL are named object types that contain one or more named properties. The properties can be marked up with attributes like @builtin and @location too. You declare them outside of any functions, and then you can pass instances of them in and out of functions, as needed. For example, consider your current vertex shader:
index.html (createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(@location(0) pos: vec2f,
@builtin(instance_index) instance: u32) ->
@builtin(position) vec4f {
let i = f32(instance);
let cell = vec2f(i % grid.x, floor(i / grid.x));
let cellOffset = cell / grid * 2;
let gridPos = (pos + 1) / grid - 1 + cellOffset;
return vec4f(gridPos, 0, 1);
}
- Express the same thing using structs for the function input and output:
index.html (createShaderModule call)
struct VertexInput {
@location(0) pos: vec2f,
@builtin(instance_index) instance: u32,
};
struct VertexOutput {
@builtin(position) pos: vec4f,
};
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(input: VertexInput) -> VertexOutput {
let i = f32(input.instance);
let cell = vec2f(i % grid.x, floor(i / grid.x));
let cellOffset = cell / grid * 2;
let gridPos = (input.pos + 1) / grid - 1 + cellOffset;
var output: VertexOutput;
output.pos = vec4f(gridPos, 0, 1);
return output;
}
Notice that this requires you to refer to the input position and instance index with input , and the struct that you return first needs to be declared as a variable and have its individual properties set. In this case, it doesn't make too much difference, and in fact makes the shader function a bit longer, but as your shaders grow more complex, using structs can be a great way to help organize your data.
Pass data between the vertex and fragment functions
As a reminder, your @fragment function is as simple as possible:
index.html (createShaderModule call)
@fragment
fn fragmentMain() -> @location(0) vec4f {
return vec4f(1, 0, 0, 1);
}
You are not taking any inputs, and you are passing out a solid color (red) as your output. If the shader knew more about the geometry that it's coloring, though, you could use that extra data to make things a bit more interesting. For instance, what if you want to change the color of each square based on its cell coordinate? The @vertex stage knows which cell is being rendered; you just need to pass it along to the @fragment stage.
To pass any data between the vertex and fragment stages, you need to include it in an output struct with a @location of our choice. Since you want to pass the cell coordinate, add it to the VertexOutput struct from earlier, and then set it in the @vertex function before you return.
- Change the return value of your vertex shader, like this:
index.html (createShaderModule call)
struct VertexInput {
@location(0) pos: vec2f,
@builtin(instance_index) instance: u32,
};
struct VertexOutput {
@builtin(position) pos: vec4f,
@location(0) cell: vec2f, // New line!
};
@group(0) @binding(0) var<uniform> grid: vec2f;
@vertex
fn vertexMain(input: VertexInput) -> VertexOutput {
let i = f32(input.instance);
let cell = vec2f(i % grid.x, floor(i / grid.x));
let cellOffset = cell / grid * 2;
let gridPos = (input.pos + 1) / grid - 1 + cellOffset;
var output: VertexOutput;
output.pos = vec4f(gridPos, 0, 1);
output.cell = cell; // New line!
return output;
}
- In the
@fragmentfunction, receive the value by adding an argument with the same@location. (The names don't have to match, but it's easier to keep track of things if they do!)
index.html (createShaderModule call)
@fragment
fn fragmentMain(@location(0) cell: vec2f) -> @location(0) vec4f {
// Remember, fragment return values are (Red, Green, Blue, Alpha)
// and since cell is a 2D vector, this is equivalent to:
// (Red = cell.x, Green = cell.y, Blue = 0, Alpha = 1)
return vec4f(cell, 0, 1);
}
- Alternatively, you could use a struct instead:
index.html (createShaderModule call)
struct FragInput {
@location(0) cell: vec2f,
};
@fragment
fn fragmentMain(input: FragInput) -> @location(0) vec4f {
return vec4f(input.cell, 0, 1);
}
- Another alternative, since in your code both of these functions are defined in the same shader module, is to reuse the
@vertexstage's output struct! This makes passing values easy because the names and locations are naturally consistent.
index.html (createShaderModule call)
@fragment
fn fragmentMain(input: VertexOutput) -> @location(0) vec4f {
return vec4f(input.cell, 0, 1);
}
No matter which pattern you chose, the result is that you have access to the cell number in the @fragment function and are able to use it in order to influence the color. With any of the above code, the output looks like this:

There are definitely more colors now, but it's not exactly nice looking. You might wonder why only the left and bottom rows are different. That's because the color values that you return from the @fragment function expect each channel to be in the range of 0 to 1, and any values outside of that range are clamped to it. Your cell values, on the other hand, range from 0 to 32 along each axis. So what you see here is that the first row and column immediately hit that full 1 value on either the red or green color channel, and every cell after that clamps to the same value.
If you want a smoother transition between colors, you need to return a fractional value for each color channel, ideally starting at zero and ending at one along each axis, which means yet another divide by grid !
- Change the fragment shader, like this:
index.html (createShaderModule call)
@fragment
fn fragmentMain(input: VertexOutput) -> @location(0) vec4f {
return vec4f(input.cell/grid, 0, 1);
}
Refresh the page, and you can see that the new code does give you a much nicer gradient of colors across the entire grid.

While that's certainly an improvement, there's now an unfortunate dark corner in the lower left, where the grid becomes black. When you start doing the Game of Life simulation, a hard-to-see section of the grid will obscure what's going on. It would be nice to brighten that up.
Fortunately, you have a whole unused color channel—blue—that you can use. The effect that you ideally want is to have the blue be brightest where the other colors are darkest, and then fade out as the other colors grow in intensity. The easiest way to do that is to have the channel start at 1 and subtract one of the cell values. It can be either cx or cy . Try both, and then pick the one you prefer!
- Add brighter colors to the fragment shader, like this:
createShaderModule call
@fragment
fn fragmentMain(input: VertexOutput) -> @location(0) vec4f {
let c = input.cell / grid;
return vec4f(c, 1-c.x, 1);
}
The result looks quite nice!

This isn't a critical step! But because it looks better, it's included it in the corresponding checkpoint source file, and the rest of the screenshots in this codelab reflect this more colorful grid.
7. Manage cell state
Next, you need to control which cells on the grid render, based on some state that's stored on the GPU. This is important for the final simulation!
All you need is an on-off signal for each cell, so any options that allow you to store a large array of nearly any value type works. You might think that this is another use case for uniform buffers! While you could make that work, it's more difficult because uniform buffers are limited in size, can't support dynamically sized arrays (you have to specify the array size in the shader), and can't be written to by compute shaders. That last item is the most problematic, since you want to do the Game of Life simulation on the GPU in a compute shader.
Fortunately, there's another buffer option that avoids all of those limitations.
Create a storage buffer
Storage buffers are general-use buffers that can be read and written to in compute shaders, and read in vertex shaders. They can be very large, and they don't need a specific declared size in a shader, which makes them much more like general memory. That's what you use to store the cell state.
- To create a storage buffer for your cell state, use what—by now—is probably starting to be a familiar-looking snippet of buffer creation code:
فهرست.html
// Create an array representing the active state of each cell.
const cellStateArray = new Uint32Array(GRID_SIZE * GRID_SIZE);
// Create a storage buffer to hold the cell state.
const cellStateStorage = device.createBuffer({
label: "Cell State",
size: cellStateArray.byteLength,
usage: GPUBufferUsage.STORAGE | GPUBufferUsage.COPY_DST,
});
Just like with your vertex and uniform buffers, call device.createBuffer() with the appropriate size, and then make sure to specify a usage of GPUBufferUsage.STORAGE this time.
You can populate the buffer the same way as before by filling the TypedArray of the same size with values and then calling device.queue.writeBuffer() . Because you want to see the effect of your buffer on the grid, start by filling it with something predictable.
- Activate every third cell with the following code:
فهرست.html
// Mark every third cell of the grid as active.
for (let i = 0; i < cellStateArray.length; i += 3) {
cellStateArray[i] = 1;
}
device.queue.writeBuffer(cellStateStorage, 0, cellStateArray);
Read the storage buffer in the shader
Next, update your shader to look at the contents of the storage buffer before you render the grid. This looks very similar to how uniforms were added previously.
- Update your shader with the following code:
فهرست.html
@group(0) @binding(0) var<uniform> grid: vec2f;
@group(0) @binding(1) var<storage> cellState: array<u32>; // New!
First, you add the binding point, which tucks right underneath the grid uniform. You want to keep the same @group as the grid uniform, but the @binding number needs to be different. The var type is storage , in order to reflect the different type of buffer, and rather than a single vector, the type that you give for the cellState is an array of u32 values, in order to match the Uint32Array in JavaScript.
Next, in the body of your @vertex function, query the cell's state. Because the state is stored in a flat array in the storage buffer, you can use the instance_index in order to look up the value for the current cell!
How do you turn off a cell if the state says that it's inactive? Well, since the active and inactive states that you get from the array are 1 or 0, you can scale the geometry by the active state! Scaling it by 1 leaves the geometry alone, and scaling it by 0 makes the geometry collapse into a single point, which the GPU then discards.
- Update your shader code to scale the position by the cell's active state. The state value must be cast to a
f32in order to satisfy WGSL's type safety requirements:
فهرست.html
@vertex
fn vertexMain(@location(0) pos: vec2f,
@builtin(instance_index) instance: u32) -> VertexOutput {
let i = f32(instance);
let cell = vec2f(i % grid.x, floor(i / grid.x));
let state = f32(cellState[instance]); // New line!
let cellOffset = cell / grid * 2;
// New: Scale the position by the cell's active state.
let gridPos = (pos*state+1) / grid - 1 + cellOffset;
var output: VertexOutput;
output.pos = vec4f(gridPos, 0, 1);
output.cell = cell;
return output;
}
Add the storage buffer to the bind group
Before you can see the cell state take effect, add the storage buffer to a bind group. Because it's part of the same @group as the uniform buffer, add it to the same bind group in the JavaScript code, as well.
- Add the storage buffer, like this:
فهرست.html
const bindGroup = device.createBindGroup({
label: "Cell renderer bind group",
layout: cellPipeline.getBindGroupLayout(0),
entries: [{
binding: 0,
resource: { buffer: uniformBuffer }
},
// New entry!
{
binding: 1,
resource: { buffer: cellStateStorage }
}],
});
Make sure that the binding of the new entry matches the @binding() of the corresponding value in the shader!
With that in place, you should be able to refresh and see the pattern appear in the grid.

Use the ping-pong buffer pattern
Most simulations like the one you're building typically use at least two copies of their state. On each step of the simulation, they read from one copy of the state and write to the other. Then, on the next step, flip it and read from the state they wrote to previously. This is commonly referred to as a ping pong pattern because the most up-to-date version of the state bounces back and forth between state copies each step.
Why is that necessary? Look at a simplified example: imagine that you're writing a very simple simulation in which you move any active blocks right by one cell each step. To keep things easy to understand, you define your data and simulation in JavaScript:
// Example simulation. Don't copy into the project!
const state = [1, 0, 0, 0, 0, 0, 0, 0];
function simulate() {
for (let i = 0; i < state.length-1; ++i) {
if (state[i] == 1) {
state[i] = 0;
state[i+1] = 1;
}
}
}
simulate(); // Run the simulation for one step.
But if you run that code, the active cell moves all the way to the end of the array in one step! Why? Because you keep updating the state in-place, so you move the active cell right, and then you look at the next cell and... hey! It's active! Better move it to the right again. The fact that you change the data at the same time that you observe it corrupts the results.
By using the ping pong pattern, you ensure that you always perform the next step of the simulation using only the results of the last step.
// Example simulation. Don't copy into the project!
const stateA = [1, 0, 0, 0, 0, 0, 0, 0];
const stateB = [0, 0, 0, 0, 0, 0, 0, 0];
function simulate(inArray, outArray) {
outArray[0] = 0;
for (let i = 1; i < inArray.length; ++i) {
outArray[i] = inArray[i-1];
}
}
// Run the simulation for two step.
simulate(stateA, stateB);
simulate(stateB, stateA);
- Use this pattern in your own code by updating your storage buffer allocation in order to create two identical buffers:
فهرست.html
// Create two storage buffers to hold the cell state.
const cellStateStorage = [
device.createBuffer({
label: "Cell State A",
size: cellStateArray.byteLength,
usage: GPUBufferUsage.STORAGE | GPUBufferUsage.COPY_DST,
}),
device.createBuffer({
label: "Cell State B",
size: cellStateArray.byteLength,
usage: GPUBufferUsage.STORAGE | GPUBufferUsage.COPY_DST,
})
];
- To help visualize the difference between the two buffers, fill them with different data:
فهرست.html
// Mark every third cell of the first grid as active.
for (let i = 0; i < cellStateArray.length; i+=3) {
cellStateArray[i] = 1;
}
device.queue.writeBuffer(cellStateStorage[0], 0, cellStateArray);
// Mark every other cell of the second grid as active.
for (let i = 0; i < cellStateArray.length; i++) {
cellStateArray[i] = i % 2;
}
device.queue.writeBuffer(cellStateStorage[1], 0, cellStateArray);
- To show the different storage buffers in your rendering, update your bind groups to have two different variants, as well:
فهرست.html
const bindGroups = [
device.createBindGroup({
label: "Cell renderer bind group A",
layout: cellPipeline.getBindGroupLayout(0),
entries: [{
binding: 0,
resource: { buffer: uniformBuffer }
}, {
binding: 1,
resource: { buffer: cellStateStorage[0] }
}],
}),
device.createBindGroup({
label: "Cell renderer bind group B",
layout: cellPipeline.getBindGroupLayout(0),
entries: [{
binding: 0,
resource: { buffer: uniformBuffer }
}, {
binding: 1,
resource: { buffer: cellStateStorage[1] }
}],
})
];
Set up a render loop
So far, you've only done one draw per page refresh, but now you want to show data updating over time. To do that you need a simple render loop.
A render loop is an endlessly repeating loop that draws your content to the canvas at a certain interval. Many games and other content that want to animate smoothly use the requestAnimationFrame() function to schedule callbacks at the same rate that the screen refreshes (60 times every second).
This app can use that, as well, but in this case, you probably want updates to happen in longer steps so that you can more easily follow what the simulation is doing. Manage the loop yourself instead so that you can control the rate at which your simulation updates.
- First, pick a rate for our simulation to update at (200ms is good, but you can go slower or faster if you like), and then keep track of how many steps of simulation have been completed.
فهرست.html
const UPDATE_INTERVAL = 200; // Update every 200ms (5 times/sec)
let step = 0; // Track how many simulation steps have been run
- Then move all of the code you currently use for rendering into a new function. Schedule that function to repeat at your desired interval with
setInterval(). Make sure that the function also updates the step count, and use that to pick which of the two bind groups to bind.
فهرست.html
// Move all of our rendering code into a function
function updateGrid() {
step++; // Increment the step count
// Start a render pass
const encoder = device.createCommandEncoder();
const pass = encoder.beginRenderPass({
colorAttachments: [{
view: context.getCurrentTexture().createView(),
loadOp: "clear",
clearValue: { r: 0, g: 0, b: 0.4, a: 1.0 },
storeOp: "store",
}]
});
// Draw the grid.
pass.setPipeline(cellPipeline);
pass.setBindGroup(0, bindGroups[step % 2]); // Updated!
pass.setVertexBuffer(0, vertexBuffer);
pass.draw(vertices.length / 2, GRID_SIZE * GRID_SIZE);
// End the render pass and submit the command buffer
pass.end();
device.queue.submit([encoder.finish()]);
}
// Schedule updateGrid() to run repeatedly
setInterval(updateGrid, UPDATE_INTERVAL);
And now when you run the app you see that the canvas flips back and forth between showing the two state buffers you created.


With that, you're pretty much done with the rendering side of things! You're all set to display the output of the Game of Life simulation you build in the next step, where you finally start using compute shaders.
Obviously there is so much more to WebGPU's rendering capabilities than the tiny slice that you explored here, but the rest is beyond the scope of this codelab. Hopefully, it gives you enough of a taste of how WebGPU's rendering works, though, that it helps make exploring more advanced techniques like 3D rendering easier to grasp.
8. Run the simulation
Now, for the last major piece of the puzzle: performing the Game of Life simulation in a compute shader!
Use compute shaders, at last!
You've learned abstractly about compute shaders throughout this codelab, but what exactly are they?
A compute shader is similar to vertex and fragment shaders in that they are designed to run with extreme parallelism on the GPU, but unlike the other two shader stages, they don't have a specific set of inputs and outputs. You are reading and writing data exclusively from sources you choose, like storage buffers. This means that instead of executing once for each vertex, instance, or pixel, you have to tell it how many invocations of the shader function you want. Then, when you run the shader, you are told which invocation is being processed, and you can decide what data you are going to access and which operations you are going to perform from there.
Compute shaders must be created in a shader module, just like vertex and fragment shaders, so add that to your code to get started. As you might guess, given the structure of the other shaders that you've implemented, the main function for your compute shader needs to be marked with the @compute attribute.
- Create a compute shader with the following code:
فهرست.html
// Create the compute shader that will process the simulation.
const simulationShaderModule = device.createShaderModule({
label: "Game of Life simulation shader",
code: `
@compute
fn computeMain() {
}`
});
Because GPUs are used frequently for 3D graphics, compute shaders are structured such that you can request that the shader be invoked a specific number of times along an X, Y, and Z axis. This lets you very easily dispatch work that conforms to a 2D or 3D grid, which is great for your use case! You want to call this shader GRID_SIZE times GRID_SIZE times, once for each cell of your simulation.
Due to the nature of GPU hardware architecture, this grid is divided into workgroups . A workgroup has an X, Y, and Z size, and although the sizes can be 1 each, there are often performance benefits to making your workgroups a bit bigger. For your shader, choose a somewhat arbitrary workgroup size of 8 times 8. This is useful to keep track of in your JavaScript code.
- Define a constant for your workgroup size, like this:
فهرست.html
const WORKGROUP_SIZE = 8;
You also need to add the workgroup size to the shader function itself, which you do using JavaScript's template literals so that you can easily use the constant you just defined.
- Add the workgroup size to the shader function, like this:
index.html (Compute createShaderModule call)
@compute
@workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE}) // New line
fn computeMain() {
}
This tells the shader that work done with this function is done in (8 x 8 x 1) groups. (Any axis you leave off defaults to 1, although you have to at least specify the X axis.)
As with the other shader stages, there's a variety of @builtin values that you can accept as input into your compute shader function in order to tell you which invocation you're on and decide what work you need to do.
- Add a
@builtinvalue, like this:
index.html (Compute createShaderModule call)
@compute @workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE})
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
}
You pass in the global_invocation_id builtin, which is a three-dimensional vector of unsigned integers that tells you where in the grid of shader invocations you are. You run this shader once for each cell in your grid. You get numbers like (0, 0, 0) , (1, 0, 0) , (1, 1, 0) ... all the way to (31, 31, 0) , which means that you can treat it as the cell index you're going to operate on!
Compute shaders can also use uniforms, which you use just like in the vertex and fragment shaders.
- Use a uniform with your compute shader to tell you the grid size, like this:
index.html (Compute createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f; // New line
@compute @workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE})
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
}
Just like in the vertex shader, you also expose the cell state as a storage buffer. But in this case, you need two of them! Because compute shaders don't have a required output, like a vertex position or fragment color, writing values to a storage buffer or texture is the only way to get results out of a compute shader. Use the ping-pong method that you learned earlier; you have one storage buffer that feeds in the current state of the grid and one that you write out the new state of the grid to.
- Expose the cell input and output state as storage buffers, like this:
index.html (Compute createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
// New lines
@group(0) @binding(1) var<storage> cellStateIn: array<u32>;
@group(0) @binding(2) var<storage, read_write> cellStateOut: array<u32>;
@compute @workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE})
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
}
Note that the first storage buffer is declared with var<storage> , which makes it read-only, but the second storage buffer is declared with var<storage, read_write> . This allows you to both read and write to the buffer, using that buffer as the output for your compute shader. (There is no write-only storage mode in WebGPU).
Next, you need to have a way to map your cell index into the linear storage array. This is basically the opposite of what you did in the vertex shader, where you took the linear instance_index and mapped it to a 2D grid cell. (As a reminder, your algorithm for that was vec2f(i % grid.x, floor(i / grid.x)) .)
- Write a function to go in the other direction. It takes the cell's Y value, multiplies it by the grid width, and then adds the cell's X value.
index.html (Compute createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@group(0) @binding(1) var<storage> cellStateIn: array<u32>;
@group(0) @binding(2) var<storage, read_write> cellStateOut: array<u32>;
// New function
fn cellIndex(cell: vec2u) -> u32 {
return cell.y * u32(grid.x) + cell.x;
}
@compute @workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE})
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
}
And, finally, to see that it's working, implement a really simple algorithm: if a cell is currently on, it turns off, and vice versa. It's not the Game of Life yet, but it's enough to show that the compute shader is working.
- Add the simple algorithm, like this:
index.html (Compute createShaderModule call)
@group(0) @binding(0) var<uniform> grid: vec2f;
@group(0) @binding(1) var<storage> cellStateIn: array<u32>;
@group(0) @binding(2) var<storage, read_write> cellStateOut: array<u32>;
fn cellIndex(cell: vec2u) -> u32 {
return cell.y * u32(grid.x) + cell.x;
}
@compute @workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE})
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
// New lines. Flip the cell state every step.
if (cellStateIn[cellIndex(cell.xy)] == 1) {
cellStateOut[cellIndex(cell.xy)] = 0;
} else {
cellStateOut[cellIndex(cell.xy)] = 1;
}
}
And that's it for your compute shader—for now! But before you can see the results, there are a few more changes that you need to make.
Use Bind Group and Pipeline Layouts
One thing that you might notice from the above shader is that it largely uses the same inputs (uniforms and storage buffers) as your render pipeline. So you might think that you can simply use the same bind groups and be done with it, right? The good news is that you can! It just takes a bit more manual setup to be able to do that.
Any time that you create a bind group, you need to provide a GPUBindGroupLayout . Previously, you got that layout by calling getBindGroupLayout() on the render pipeline, which in turn created it automatically because you supplied layout: "auto" when you created it. That approach works well when you only use a single pipeline, but if you have multiple pipelines that want to share resources, you need to create the layout explicitly, and then provide it to both the bind group and pipelines.
To help understand why, consider this: in your render pipelines you use a single uniform buffer and a single storage buffer, but in the compute shader you just wrote, you need a second storage buffer. Because the two shaders use the same @binding values for the uniform and first storage buffer, you can share those between pipelines, and the render pipeline ignores the second storage buffer, which it doesn't use. You want to create a layout that describes all of the resources that are present in the bind group, not just the ones used by a specific pipeline.
- To create that layout, call
device.createBindGroupLayout():
فهرست.html
// Create the bind group layout and pipeline layout.
const bindGroupLayout = device.createBindGroupLayout({
label: "Cell Bind Group Layout",
entries: [{
binding: 0,
// Add GPUShaderStage.FRAGMENT here if you are using the `grid` uniform in the fragment shader.
visibility: GPUShaderStage.VERTEX | GPUShaderStage.COMPUTE,
buffer: {} // Grid uniform buffer
}, {
binding: 1,
visibility: GPUShaderStage.VERTEX | GPUShaderStage.COMPUTE,
buffer: { type: "read-only-storage"} // Cell state input buffer
}, {
binding: 2,
visibility: GPUShaderStage.COMPUTE,
buffer: { type: "storage"} // Cell state output buffer
}]
});
This is similar in structure to creating the bind group itself, in that you describe a list of entries . The difference is that you describe what type of resource the entry must be and how it's used rather than providing the resource itself.
In each entry, you give the binding number for the resource, which (as you learned when you created the bind group) matches the @binding value in the shaders. You also provide the visibility , which are GPUShaderStage flags that indicate which shader stages can use the resource. You want both the uniform and first storage buffer to be accessible in the vertex and compute shaders, but the second storage buffer only needs to be accessible in compute shaders.
Finally, you indicate what type of resource is being used. This is a different dictionary key, depending on what you need to expose. Here, all three resources are buffers, so you use the buffer key to define the options for each. Other options include things like texture or sampler , but you don't need those here.
In the buffer dictionary, you set options like what type of buffer is used. The default is "uniform" , so you can leave the dictionary empty for binding 0. (You do have to at least set buffer: {} , though, so that the entry is identified as a buffer.) Binding 1 is given a type of "read-only-storage" because you don't use it with read_write access in the shader, and binding 2 has a type of "storage" because you do use it with read_write access!
Once the bindGroupLayout is created, you can pass it in when creating your bind groups rather than querying the bind group from the pipeline. Doing so means that you need to add a new storage buffer entry to each bind group in order to match the layout you just defined.
- Update the bind group creation, like this:
فهرست.html
// Create a bind group to pass the grid uniforms into the pipeline
const bindGroups = [
device.createBindGroup({
label: "Cell renderer bind group A",
layout: bindGroupLayout, // Updated Line
entries: [{
binding: 0,
resource: { buffer: uniformBuffer }
}, {
binding: 1,
resource: { buffer: cellStateStorage[0] }
}, {
binding: 2, // New Entry
resource: { buffer: cellStateStorage[1] }
}],
}),
device.createBindGroup({
label: "Cell renderer bind group B",
layout: bindGroupLayout, // Updated Line
entries: [{
binding: 0,
resource: { buffer: uniformBuffer }
}, {
binding: 1,
resource: { buffer: cellStateStorage[1] }
}, {
binding: 2, // New Entry
resource: { buffer: cellStateStorage[0] }
}],
}),
];
And now that the bind group has been updated to use this explicit bind group layout, you need to update the render pipeline to use the same thing.
- Create a
GPUPipelineLayout.
فهرست.html
const pipelineLayout = device.createPipelineLayout({
label: "Cell Pipeline Layout",
bindGroupLayouts: [ bindGroupLayout ],
});
A pipeline layout is a list of bind group layouts (in this case, you have one) that one or more pipelines use. The order of the bind group layouts in the array needs to correspond with the @group attributes in the shaders. (This means that bindGroupLayout is associated with @group(0) .)
- Once you have the pipeline layout, update the render pipeline to use it instead of
"auto".
فهرست.html
const cellPipeline = device.createRenderPipeline({
label: "Cell pipeline",
layout: pipelineLayout, // Updated!
vertex: {
module: cellShaderModule,
entryPoint: "vertexMain",
buffers: [vertexBufferLayout]
},
fragment: {
module: cellShaderModule,
entryPoint: "fragmentMain",
targets: [{
format: canvasFormat
}]
}
});
Create the compute pipeline
Just like you need a render pipeline to use your vertex and fragment shaders, you need a compute pipeline to use your compute shader. Fortunately, compute pipelines are far less complicated than render pipelines, as they don't have any state to set, only the shader and layout.
- Create a compute pipeline with the following code:
فهرست.html
// Create a compute pipeline that updates the game state.
const simulationPipeline = device.createComputePipeline({
label: "Simulation pipeline",
layout: pipelineLayout,
compute: {
module: simulationShaderModule,
entryPoint: "computeMain",
}
});
Notice that you pass in the new pipelineLayout instead of "auto" , just like in the updated render pipeline, which ensures that both your render pipeline and your compute pipeline can use the same bind groups.
Compute passes
This brings you to the point of actually making use of the compute pipeline! Given that you do your rendering in a render pass, you can probably guess that you need to do compute work in a compute pass. Compute and render work can both happen in the same command encoder, so you want to shuffle your updateGrid function a bit.
- Move the encoder creation to the top of the function, and then begin a compute pass with it (before the
step++).
فهرست.html
// In updateGrid()
// Move the encoder creation to the top of the function.
const encoder = device.createCommandEncoder();
const computePass = encoder.beginComputePass();
// Compute work will go here...
computePass.end();
// Existing lines
step++; // Increment the step count
// Start a render pass...
Just like compute pipelines, compute passes are much simpler to kick off than their rendering counterparts because you don't need to worry about any attachments.
You want to do the compute pass before the render pass because it allows the render pass to immediately use the latest results from the compute pass. That's also the reason that you increment the step count between the passes, so that the output buffer of the compute pipeline becomes the input buffer for the render pipeline.
- Next, set the pipeline and bind group inside the compute pass, using the same pattern for switching between bind groups as you do for the rendering pass.
فهرست.html
const computePass = encoder.beginComputePass();
// New lines
computePass.setPipeline(simulationPipeline);
computePass.setBindGroup(0, bindGroups[step % 2]);
computePass.end();
- Finally, instead of drawing like in a render pass, you dispatch the work to the compute shader, telling it how many workgroups you want to execute on each axis.
فهرست.html
const computePass = encoder.beginComputePass();
computePass.setPipeline(simulationPipeline);
computePass.setBindGroup(0, bindGroups[step % 2]);
// New lines
const workgroupCount = Math.ceil(GRID_SIZE / WORKGROUP_SIZE);
computePass.dispatchWorkgroups(workgroupCount, workgroupCount);
computePass.end();
Something very important to note here is that the number you pass into dispatchWorkgroups() is not the number of invocations! Instead, it's the number of workgroups to execute, as defined by the @workgroup_size in your shader.
If you want the shader to execute 32x32 times in order to cover your entire grid, and your workgroup size is 8x8, you need to dispatch 4x4 workgroups (4 * 8 = 32). That's why you divide the grid size by the workgroup size and pass that value into dispatchWorkgroups() .
Now you can refresh the page again, and you should see that the grid inverts itself with each update.


Implement the algorithm for the Game of Life
Before you update the compute shader to implement the final algorithm, you want to go back to the code that's initializing the storage buffer content and update it to produce a random buffer on each page load. (Regular patterns don't make for very interesting Game of Life starting points.) You can randomize the values however you want, but there's an easy way to start that gives reasonable results.
- To start each cell in a random state, update the
cellStateArrayinitialization to the following code:
فهرست.html
// Set each cell to a random state, then copy the JavaScript array
// into the storage buffer.
for (let i = 0; i < cellStateArray.length; ++i) {
cellStateArray[i] = Math.random() > 0.6 ? 1 : 0;
}
device.queue.writeBuffer(cellStateStorage[0], 0, cellStateArray);
Now you can finally implement the logic for the Game of Life simulation. After everything it took to get here, the shader code may be disappointingly simple!
First, you need to know for any given cell how many of its neighbors are active. You don't care about which ones are active, only the count.
- To make getting neighboring cell data easier, add a
cellActivefunction that returns thecellStateInvalue of the given coordinate.
index.html (Compute createShaderModule call)
fn cellActive(x: u32, y: u32) -> u32 {
return cellStateIn[cellIndex(vec2(x, y))];
}
The cellActive function returns one if the cell is active, so adding the return value of calling cellActive for all eight surrounding cells gives you how many neighboring cells are active.
- Find the number of active neighbors, like this:
index.html (Compute createShaderModule call)
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
// New lines:
// Determine how many active neighbors this cell has.
let activeNeighbors = cellActive(cell.x+1, cell.y+1) +
cellActive(cell.x+1, cell.y) +
cellActive(cell.x+1, cell.y-1) +
cellActive(cell.x, cell.y-1) +
cellActive(cell.x-1, cell.y-1) +
cellActive(cell.x-1, cell.y) +
cellActive(cell.x-1, cell.y+1) +
cellActive(cell.x, cell.y+1);
This leads to a minor problem, though: what happens when the cell you're checking is off the edge of the board? According to your cellIndex() logic right now, it either overflows to the next or previous row, or runs off the edge of the buffer!
For the Game of Life, a common and easy way to resolve this is to have cells on the edge of the grid treat cells on the opposite edge of the grid as their neighbors, creating a kind of wrap-around effect.
- Support grid wrap-around with a minor change to the
cellIndex()function.
index.html (Compute createShaderModule call)
fn cellIndex(cell: vec2u) -> u32 {
return (cell.y % u32(grid.y)) * u32(grid.x) +
(cell.x % u32(grid.x));
}
By using the % operator to wrap the cell X and Y when it extends past the grid size, you ensure that you never access outside the storage buffer bounds. With that, you can rest assured that the activeNeighbors count is predictable.
Then you apply one of four rules:
- Any cell with fewer than two neighbors becomes inactive.
- Any active cell with two or three neighbors stays active.
- Any inactive cell with exactly three neighbors becomes active.
- Any cell with more than three neighbors becomes inactive.
You can do this with a series of if statements, but WGSL also supports switch statements, which are a good fit for this logic.
- Implement the Game of Life logic, like this:
index.html (Compute createShaderModule call)
let i = cellIndex(cell.xy);
// Conway's game of life rules:
switch activeNeighbors {
case 2: { // Active cells with 2 neighbors stay active.
cellStateOut[i] = cellStateIn[i];
}
case 3: { // Cells with 3 neighbors become or stay active.
cellStateOut[i] = 1;
}
default: { // Cells with < 2 or > 3 neighbors become inactive.
cellStateOut[i] = 0;
}
}
For reference, the final compute shader module call now looks like this:
فهرست.html
const simulationShaderModule = device.createShaderModule({
label: "Life simulation shader",
code: `
@group(0) @binding(0) var<uniform> grid: vec2f;
@group(0) @binding(1) var<storage> cellStateIn: array<u32>;
@group(0) @binding(2) var<storage, read_write> cellStateOut: array<u32>;
fn cellIndex(cell: vec2u) -> u32 {
return (cell.y % u32(grid.y)) * u32(grid.x) +
(cell.x % u32(grid.x));
}
fn cellActive(x: u32, y: u32) -> u32 {
return cellStateIn[cellIndex(vec2(x, y))];
}
@compute @workgroup_size(${WORKGROUP_SIZE}, ${WORKGROUP_SIZE})
fn computeMain(@builtin(global_invocation_id) cell: vec3u) {
// Determine how many active neighbors this cell has.
let activeNeighbors = cellActive(cell.x+1, cell.y+1) +
cellActive(cell.x+1, cell.y) +
cellActive(cell.x+1, cell.y-1) +
cellActive(cell.x, cell.y-1) +
cellActive(cell.x-1, cell.y-1) +
cellActive(cell.x-1, cell.y) +
cellActive(cell.x-1, cell.y+1) +
cellActive(cell.x, cell.y+1);
let i = cellIndex(cell.xy);
// Conway's game of life rules:
switch activeNeighbors {
case 2: {
cellStateOut[i] = cellStateIn[i];
}
case 3: {
cellStateOut[i] = 1;
}
default: {
cellStateOut[i] = 0;
}
}
}
`
});
And... that's it! You're done! Refresh your page and watch your newly built cellular automaton grow!

۹. تبریک میگویم!
You created a version of the classic Conway's Game of Life simulation that runs entirely on your GPU using the WebGPU API!
بعدش چی؟
- Review the WebGPU Samples