serverless-compute · 17 мин чтения

AWS Lambda vs Cloudflare Workers vs Vercel Functions в 2026: где запускать serverless-код

AWS Lambda Cloudflare Workers Vercel Functions serverless бессерверные функции edge computing FaaS
Содержание

Serverless-вычисления в 2026 году перестали быть экспериментальной технологией — это мейнстрим. По данным Datadog State of Serverless Report, более 70% организаций, работающих с облачными провайдерами, используют хотя бы один serverless-сервис. Но рынок FaaS (Functions as a Service) за последние годы сильно фрагментировался: помимо классического AWS Lambda появились edge-ориентированные платформы вроде Cloudflare Workers и тесно интегрированные с фреймворками решения вроде Vercel Functions.

Выбор между этими тремя платформами — не вопрос «лучший vs худший», а вопрос архитектурных приоритетов: максимальная гибкость и экосистема AWS, минимальная задержка на edge от Cloudflare или бесшовная интеграция с Next.js от Vercel. В этой статье мы разберём каждую платформу по всем ключевым параметрам — архитектура, производительность, ценообразование, экосистема, ограничения и сценарии использования — чтобы помочь вам сделать осознанный выбор. Статья адресована бэкенд-разработчикам, DevOps-инженерам и архитекторам, проектирующим serverless-инфраструктуру.

Краткий обзор участников

AWS Lambda — пионер serverless

AWS Lambda был представлен в 2014 году и фактически создал категорию FaaS. На февраль 2026 года Lambda поддерживает рантаймы Node.js 24, Python 3.14, Java 25, .NET 9, Ruby 3.4, а также Go и Rust через custom runtimes и произвольные контейнерные образы. По данным AWS, Lambda обрабатывает триллионы вызовов ежемесячно для сотен тысяч клиентов.

Архитектура Lambda основана на микро-виртуальных машинах Firecracker — легковесных KVM-инстансах, которые запускаются за миллисекунды. Каждая функция выполняется в изолированной среде с выделенными ресурсами: до 10 ГБ оперативной памяти, до 10 ГБ эфемерного хранилища и до 6 виртуальных ядер CPU (пропорционально выделенной памяти).

Ключевые нововведения 2025—2026 года: расширение SnapStart на Python и .NET (помимо Java) для радикального сокращения cold start, поддержка Advanced Logging Controls с JSON-форматированием и фильтрацией по уровню, Recursive Loop Detection для предотвращения бесконечных рекурсий между сервисами, а также улучшенная интеграция с Amazon Bedrock для AI/ML-сценариев.

Cloudflare Workers — edge без компромиссов

Cloudflare Workers запущен в 2018 году и использует принципиально другую модель исполнения: вместо контейнеров или VM — V8 Isolates, те же движки JavaScript, что работают в Google Chrome. Это позволяет запускать код за менее чем 1 мс — практически с нулевым cold start.

На февраль 2026 года Workers развёрнуты в более чем 330 дата-центрах Cloudflare по всему миру. Каждый запрос обрабатывается в ближайшем к пользователю PoP (Point of Presence), что обеспечивает медианную задержку менее 20 мс глобально.

Workers поддерживают JavaScript, TypeScript и WebAssembly (Wasm). Из значимых обновлений 2025—2026: увеличение лимита CPU-времени до 5 минут на запрос для Paid-плана, Storage billing для SQLite-backed Durable Objects (с января 2026), обновлённый API для deleteAll() в Durable Objects, и расширенные возможности Workers AI для запуска ML-моделей на edge.

Vercel Functions — serverless для фронтенд-разработчиков

Vercel Functions — это serverless-платформа, тесно интегрированная с фреймворками Next.js, SvelteKit, Nuxt и Astro. Vercel предлагает два рантайма: Node.js (полноценный серверный рантайм) и Edge Runtime (лёгкий V8-рантайм, аналогичный Cloudflare Workers).

В 2025 году Vercel представил модель Fluid Compute — новый подход к исполнению функций, при котором один инстанс может обрабатывать несколько конкурентных запросов, что сокращает cold start через кеширование байт-кода и переиспользование idle-инстансов. Fluid Compute теперь используется по умолчанию для всех новых проектов.

Примечательно, что Vercel рекомендует мигрировать с Edge Runtime на Node.js для большинства сценариев, мотивируя это улучшенной производительностью и надёжностью. Обе среды работают на Fluid Compute с биллингом по активному CPU-времени.

Архитектура и модель исполнения

Архитектурные различия между тремя платформами — корень всех отличий в производительности, ограничениях и сценариях использования.

AWS Lambda: Firecracker microVM

Lambda использует Firecracker — открытый гипервизор, созданный Amazon для serverless. Каждая функция исполняется в собственной microVM с полноценным Linux-ядром, что обеспечивает аппаратную изоляцию на уровне виртуализации.

┌──────────────── AWS Lambda ────────────────────┐
│                                                  │
│  ┌─────────────┐  ┌─────────────┐               │
│  │ Firecracker  │  │ Firecracker  │   ...        │
│  │   microVM    │  │   microVM    │              │
│  │ ┌─────────┐ │  │ ┌─────────┐ │              │
│  │ │ Runtime │ │  │ │ Runtime │ │              │
│  │ │ (Node/  │ │  │ │ (Python/│ │              │
│  │ │ Python) │ │  │ │  Java)  │ │              │
│  │ └─────────┘ │  │ └─────────┘ │              │
│  └─────────────┘  └─────────────┘              │
│                                                  │
│        Lambda Execution Environment              │
└──────────────────────────────────────────────────┘

При cold start Lambda должна: выделить microVM, загрузить рантайм, выполнить init-код функции. Это занимает от 100 мс до 1+ секунды в зависимости от рантайма и объёма зависимостей. Java и .NET традиционно имеют самые долгие cold start (500 мс — 2 с), Node.js и Python — самые быстрые (100—300 мс).

SnapStart (доступен для Java, Python, .NET) сокращает cold start на до 90%: Lambda делает snapshot памяти и диска инициализированного окружения и кеширует его. При новом вызове вместо полной инициализации восстанавливается snapshot — cold start сокращается до 100—200 мс даже для Java.

Cloudflare Workers: V8 Isolates

Workers отказались от VM и контейнеров в пользу V8 Isolates — легковесных песочниц внутри одного процесса V8:

┌──────────────── Cloudflare Edge PoP ───────────┐
│                                                  │
│  ┌──── V8 Engine Process ────────────────────┐  │
│  │                                            │  │
│  │  ┌─────────┐ ┌─────────┐ ┌─────────┐     │  │
│  │  │ Isolate │ │ Isolate │ │ Isolate │     │  │
│  │  │ Worker A│ │ Worker B│ │ Worker C│     │  │
│  │  └─────────┘ └─────────┘ └─────────┘     │  │
│  │                                            │  │
│  └────────────────────────────────────────────┘  │
│                                                  │
│    Один процесс — тысячи изолятов               │
└──────────────────────────────────────────────────┘

Isolate создаётся за менее чем 1 мс — фактически нулевой cold start. Но эта архитектура накладывает жёсткие ограничения: 128 МБ памяти на isolate, только JavaScript/TypeScript/Wasm, нет доступа к файловой системе и нет нативных Node.js API (хотя совместимость с Node.js API активно расширяется).

Vercel Functions: гибридная модель

Vercel комбинирует оба подхода. Node.js Runtime работает на AWS Lambda под капотом (Vercel использует AWS-инфраструктуру), обеспечивая полную совместимость с Node.js экосистемой. Edge Runtime использует V8 Isolates, аналогичные Cloudflare Workers, и разворачивается на edge-серверах Vercel.

С Fluid Compute Vercel добавил ещё одну оптимизацию: инстанс функции может обрабатывать несколько запросов одновременно (по аналогии с традиционным сервером), вместо создания нового инстанса на каждый запрос. Это особенно эффективно для I/O-bound задач (запросы к БД, вебхуки), где CPU простаивает в ожидании ответа.

Сравнительная таблица

ПараметрAWS LambdaCloudflare WorkersVercel Functions
Модель исполненияFirecracker microVMV8 IsolatesNode.js (Lambda) + Edge (V8)
Cold start100 мс — 1 с (50—200 мс с SnapStart)< 1 мс (практически нет)50—250 мс (Fluid Compute)
ЯзыкиNode.js, Python, Java, .NET, Go, Rust, Ruby, контейнерыJavaScript, TypeScript, WasmJavaScript, TypeScript, Python, Go, Ruby
Макс. память10 ГБ128 МБ3 ГБ (Node.js) / ограничено (Edge)
Макс. время выполнения15 мин5 мин CPU (Paid)5 мин (Pro) / 60 с (Hobby)
Edge-развёртываниеЧерез Lambda@Edge/CloudFront330+ PoP (по умолчанию)Edge Runtime: ~310+ городов
Бесплатный план1 млн запросов + 400K ГБ-с / мес (бессрочно)100K запросов/день (Workers Free)100K вызовов/мес (Hobby)
Стоимость (Paid)$0.20/млн запросов + $0.0000166667/ГБ-с$5/мес + $0.30/млн запросов + $0.02/млн CPU-мс$20/мес + потребление
Макс. размер пакета250 МБ (zip) / 10 ГБ (контейнер)10 МБ (Free) / 30 МБ (Paid)250 МБ (Node.js) / 4 МБ (Edge)
Экосистема храненияDynamoDB, S3, EFS, RDS, SQS, SNS…KV, R2, D1, Durable Objects, QueuesVercel KV, Vercel Postgres, Vercel Blob
МониторингCloudWatch, X-Ray, PowertoolsWorkers Analytics, LogpushVercel Analytics, OpenTelemetry
Вендор-локВысокий (AWS-экосистема)Средний (Web Standards)Средний-высокий (Next.js-оптимизация)

Cold start: подробный разбор

Cold start — один из ключевых факторов при выборе serverless-платформы, особенно для API, обслуживающих пользователей в реальном времени.

AWS Lambda имеет наиболее ощутимый cold start из трёх платформ, но предлагает больше всего инструментов для его минимизации:

  • SnapStart (Java, Python, .NET) — снижает cold start на 90%, snapshot инициализированного окружения восстанавливается мгновенно
  • Provisioned Concurrency — заранее «прогретые» инстансы, гарантированный нулевой cold start (за дополнительную плату)
  • Graviton2 (ARM) — ARM-рантаймы обеспечивают более быстрый старт и на 20% дешевле

Cloudflare Workers практически лишены проблемы cold start благодаря V8 Isolates. Создание нового isolate занимает менее 1 мс. Это делает Workers идеальным решением для сценариев, где каждая миллисекунда на счету: аутентификация, маршрутизация, A/B-тестирование на edge.

Vercel Functions с Fluid Compute сократили cold start до 50—250 мс для Node.js-рантайма за счёт переиспользования инстансов и кеширования байт-кода. Edge Runtime функции стартуют почти мгновенно, аналогично Cloudflare Workers.

Примеры кода

Рассмотрим реализацию простого API-эндпоинта на каждой платформе — обработчика, который принимает JSON-запрос, обращается к внешнему API и возвращает трансформированный результат.

AWS Lambda (Node.js)

// handler.mjs — AWS Lambda с Node.js 24
export const handler = async (event) => {
  const body = JSON.parse(event.body);
  const { userId } = body;

  // Обращение к внешнему API
  const response = await fetch(
    `https://api.example.com/users/${userId}/profile`
  );
  const profile = await response.json();

  // Трансформация данных
  const result = {
    id: profile.id,
    displayName: `${profile.firstName} ${profile.lastName}`,
    avatar: profile.avatarUrl,
    memberSince: new Date(profile.createdAt).getFullYear(),
  };

  return {
    statusCode: 200,
    headers: {
      "Content-Type": "application/json",
      "Cache-Control": "public, max-age=60",
    },
    body: JSON.stringify(result),
  };
};

Конфигурация в template.yaml (AWS SAM):

# template.yaml — AWS SAM
AWSTemplateFormatVersion: "2010-09-09"
Transform: AWS::Serverless-2016-10-31

Globals:
  Function:
    Runtime: nodejs24.x
    Architecture: arm64   # Graviton2: быстрее + дешевле на 20%
    MemorySize: 256
    Timeout: 10

Resources:
  GetProfileFunction:
    Type: AWS::Serverless::Function
    Properties:
      Handler: handler.handler
      Events:
        Api:
          Type: HttpApi
          Properties:
            Path: /profile
            Method: post

Cloudflare Workers

// src/index.js — Cloudflare Worker
export default {
  async fetch(request, env, ctx) {
    if (request.method !== "POST") {
      return new Response("Method not allowed", { status: 405 });
    }

    const { userId } = await request.json();

    // Обращение к внешнему API
    const response = await fetch(
      `https://api.example.com/users/${userId}/profile`
    );
    const profile = await response.json();

    // Трансформация данных
    const result = {
      id: profile.id,
      displayName: `${profile.firstName} ${profile.lastName}`,
      avatar: profile.avatarUrl,
      memberSince: new Date(profile.createdAt).getFullYear(),
    };

    return new Response(JSON.stringify(result), {
      headers: {
        "Content-Type": "application/json",
        "Cache-Control": "public, max-age=60",
      },
    });
  },
};

Конфигурация wrangler.toml:

# wrangler.toml
name = "profile-api"
main = "src/index.js"
compatibility_date = "2026-02-01"

# Привязка к KV namespace для кеширования
[[kv_namespaces]]
binding = "CACHE"
id = "abc123"

Обратите внимание: Cloudflare Workers используют Web Standard API (fetch, Request, Response) — тот же код, что работает в браузере. Нет обёрток вроде event.body — вы работаете с нативным объектом Request.

Vercel Functions (Next.js App Router)

// app/api/profile/route.ts — Vercel Function (Next.js)
import { NextRequest, NextResponse } from "next/server";

export async function POST(request: NextRequest) {
  const { userId } = await request.json();

  // Обращение к внешнему API
  const response = await fetch(
    `https://api.example.com/users/${userId}/profile`,
    { next: { revalidate: 60 } } // ISR-кеширование через Next.js
  );
  const profile = await response.json();

  // Трансформация данных
  const result = {
    id: profile.id,
    displayName: `${profile.firstName} ${profile.lastName}`,
    avatar: profile.avatarUrl,
    memberSince: new Date(profile.createdAt).getFullYear(),
  };

  return NextResponse.json(result, {
    headers: {
      "Cache-Control": "public, s-maxage=60, stale-while-revalidate=300",
    },
  });
}

// Опционально: запустить на Edge Runtime
// export const runtime = "edge";

Vercel Functions в контексте Next.js выглядят максимально лаконично: маршрутизация определяется файловой структурой, а кеширование интегрировано через next.js-конвенции. Добавление export const runtime = "edge" переключает функцию на V8-рантайм.

Пример с использованием хранилища: счётчик посещений

Каждая платформа предоставляет собственные решения для хранения данных. Рассмотрим реализацию простого счётчика:

Cloudflare Workers + KV:

export default {
  async fetch(request, env) {
    const url = new URL(request.url);
    const page = url.pathname;

    // Атомарный инкремент через KV
    const current = parseInt((await env.COUNTERS.get(page)) || "0");
    const updated = current + 1;
    await env.COUNTERS.put(page, updated.toString());

    return new Response(JSON.stringify({ page, views: updated }), {
      headers: { "Content-Type": "application/json" },
    });
  },
};

AWS Lambda + DynamoDB:

import { DynamoDBClient } from "@aws-sdk/client-dynamodb";
import { UpdateCommand, DynamoDBDocumentClient } from "@aws-sdk/lib-dynamodb";

const client = DynamoDBDocumentClient.from(new DynamoDBClient());

export const handler = async (event) => {
  const page = event.rawPath;

  const result = await client.send(
    new UpdateCommand({
      TableName: "PageViews",
      Key: { page },
      UpdateExpression: "ADD #views :inc",
      ExpressionAttributeNames: { "#views": "views" },
      ExpressionAttributeValues: { ":inc": 1 },
      ReturnValues: "ALL_NEW",
    })
  );

  return {
    statusCode: 200,
    body: JSON.stringify({
      page,
      views: result.Attributes.views,
    }),
  };
};

Ценообразование: реальные сценарии

Абстрактные цифры из прайс-листов мало что говорят. Рассмотрим стоимость для конкретного сценария: API с 10 миллионами запросов в месяц, средним временем выполнения 50 мс и выделением 256 МБ памяти.

AWS Lambda

  • Запросы: 10M x $0.20/млн = $2.00
  • Compute: 10M x 0.05 с x 0.25 ГБ x $0.0000166667/ГБ-с = $2.08
  • Итого: ~$4.08/мес (без учёта бесплатного уровня)
  • С бесплатным уровнем (1M запросов + 400K ГБ-с): ~$3.50/мес

Cloudflare Workers

  • Базовый план: $5.00/мес (включает 10M запросов)
  • CPU-время: 10M x 50 мс x $0.02/млн CPU-мс = $10.00
  • Трафик: $0 (бесплатный egress)
  • Итого: ~$15.00/мес

Но важно учесть: реальное CPU-время Workers обычно значительно меньше wall-clock time, так как Workers биллят только за CPU-время, а не за ожидание I/O. Для типичного API с внешними вызовами реальное CPU-время может составлять 5—10 мс вместо 50 мс, что снижает итог до ~$6.00/мес.

Vercel Functions (Pro)

  • Базовый план: $20.00/мес/пользователь
  • Вызовы: включены в план (1M бесплатно, далее $0.60/млн)
  • Active CPU Time: зависит от потребления
  • Fast Data Transfer: 100 ГБ включено
  • Итого: ~$25—35/мес для команды из одного разработчика

Vercel дороже при чистом сравнении, но стоимость включает хостинг фронтенда, CI/CD, Preview Deployments, аналитику и другие фичи платформы. Если вы уже используете Vercel для фронтенда — добавление serverless-функций не требует дополнительной инфраструктуры.

Вывод по ценам

Для чистого API без фронтенда AWS Lambda — самый дешёвый вариант. Cloudflare Workers выгоднее при высоком трафике с лёгкими вычислениями благодаря бесплатному egress. Vercel оптимален, когда фронтенд и бэкенд живут в одной экосистеме.

Экосистема и интеграции

AWS Lambda

Lambda — часть гигантской экосистемы AWS с более чем 200 сервисами. Ключевые интеграции:

  • API Gateway / HTTP API — маршрутизация HTTP-запросов
  • SQS / SNS / EventBridge — событийная архитектура
  • DynamoDB Streams — реакция на изменения в базе данных
  • S3 Events — обработка загрузки файлов
  • Step Functions — оркестрация сложных workflow
  • Bedrock — интеграция с AI/ML-моделями

Это делает Lambda незаменимой для сложных бэкенд-систем с очередями, стейт-машинами, обработкой файлов и event-driven архитектурой.

Cloudflare Workers

Cloudflare построил полноценную Developer Platform:

  • Workers KV — глобально распределённое key-value хранилище (eventually consistent)
  • R2 — объектное хранилище, совместимое с S3 API (нулевой egress)
  • D1 — serverless SQL-база данных на основе SQLite
  • Durable Objects — stateful-вычисления с гарантированной уникальностью (идеально для чатов, collaboration, multiplayer)
  • Queues — очереди сообщений
  • Workers AI — запуск ML-моделей на edge
  • Hyperdrive — ускорение подключений к внешним PostgreSQL/MySQL

Экосистема Cloudflare компактнее AWS, но все сервисы оптимизированы для edge и работают вместе без конфигурации VPC, IAM-ролей и прочей облачной инфраструктуры.

Vercel Functions

Vercel фокусируется на DX (Developer Experience) для фронтенд-команд:

  • Next.js — нативная интеграция: SSR, ISR, Server Actions, Middleware
  • Vercel KV — Redis-совместимое хранилище (через Upstash)
  • Vercel Postgres — managed PostgreSQL (через Neon)
  • Vercel Blob — объектное хранилище
  • Preview Deployments — уникальный URL для каждого PR
  • Edge Config — глобально распределённая конфигурация с ультра-низкой задержкой
  • Speed Insights / Web Analytics — мониторинг производительности

Vercel — не универсальный облачный провайдер, а платформа, оптимизированная для развёртывания веб-приложений. Для сложных бэкенд-сценариев (очереди, стейт-машины, обработка файлов) потребуется интеграция с внешними сервисами.

Ограничения и подводные камни

AWS Lambda

  • Cold start остаётся проблемой для latency-sensitive API без Provisioned Concurrency
  • Сложность конфигурации — IAM-роли, VPC, Security Groups, API Gateway настройки
  • Вендор-лок — глубокая интеграция с AWS-экосистемой затрудняет миграцию
  • 15-минутный таймаут — не подходит для длительных задач (нужен Step Functions)
  • Стоимость egress — передача данных из AWS стоит денег ($0.09/ГБ)

Cloudflare Workers

  • 128 МБ памяти — жёсткое ограничение, невозможно увеличить
  • Нет полной Node.js-совместимости — многие npm-пакеты не работают (хотя compat-слой расширяется)
  • 50 subrequests на выполнение — лимит исходящих HTTP-запросов
  • Нет поддержки TCP/UDP напрямую (только через connect() API)
  • Отладка сложнее — V8 Isolates отличаются от привычной Node.js-среды
  • Размер пакета: 10 МБ (Free) / 30 МБ (Paid) — после gzip, включая зависимости

Vercel Functions

  • Привязка к фреймворку — максимальные преимущества только с Next.js
  • Лимиты Hobby-плана — 60 с таймаут, 100K вызовов/мес
  • Размер payload — максимум 4.5 МБ для тела запроса
  • Цена за пользователя — $20/мес за каждого члена команды (Pro)
  • Нет встроенных очередей или event-driven триггеров — только HTTP
  • Зависимость от AWS — Node.js Functions работают на Lambda под капотом

Когда что выбрать

Выбирайте AWS Lambda, если:

  • Вы строите сложный бэкенд с очередями, стейт-машинами, обработкой файлов и event-driven архитектурой
  • Нужна поддержка любого языка — Java, Python, Go, Rust, .NET, контейнеры
  • Требуется до 10 ГБ памяти для тяжёлых вычислений (ML-инференс, обработка изображений)
  • Ваша инфраструктура уже на AWS и вы хотите глубокую интеграцию с DynamoDB, S3, SQS, EventBridge
  • Вам нужны длительные выполнения до 15 минут
  • Cold start не критичен или вы готовы платить за Provisioned Concurrency

Выбирайте Cloudflare Workers, если:

  • Приоритет — минимальная глобальная задержка (< 20 мс медиана)
  • Вы строите edge-first приложения: аутентификация, маршрутизация, A/B-тесты, персонализация
  • Нужен нулевой cold start для каждого запроса
  • Хотите нулевые egress-расходы при высоком трафике
  • Приложение укладывается в 128 МБ памяти и написано на JavaScript/TypeScript
  • Вам нужен stateful edge (Durable Objects для чатов, collaboration, gaming)
  • Хотите полноценную платформу без сложности AWS (KV, R2, D1, Queues — всё работает из коробки)

Выбирайте Vercel Functions, если:

  • Вы строите Next.js/SvelteKit/Nuxt приложение и хотите serverless «из коробки»
  • Приоритет — Developer Experience: Preview Deployments, автоматический CI/CD, zero-config
  • Нужна ISR (Incremental Static Regeneration) и Server Components с serverless-бэкендом
  • Команда — фронтенд-разработчики, которым нужен бэкенд без управления инфраструктурой
  • Бюджет включает $20/мес за пользователя и объём трафика умеренный
  • Вы хотите единую платформу для фронтенда и бэкенда без настройки отдельного API Gateway

Гибридные стратегии

В реальных проектах часто используют несколько платформ одновременно:

  1. Cloudflare Workers + AWS Lambda: Workers обрабатывают edge-логику (аутентификация, rate limiting, маршрутизация), а Lambda — тяжёлые бэкенд-задачи (обработка изображений, ML-инференс, batch-операции)

  2. Vercel Functions + AWS Lambda: Vercel отвечает за SSR/ISR и API Routes фронтенда, а Lambda — за фоновые задачи через SQS/EventBridge

  3. Cloudflare Workers + Vercel: Workers на уровне CDN для кеширования, security headers и геомаршрутизации, Vercel — для рендеринга приложения

Такие архитектуры позволяют использовать сильные стороны каждой платформы: edge-скорость Cloudflare, вычислительную мощь Lambda и DX Vercel.

Заключение

В 2026 году выбор serverless-платформы — это не техническое, а архитектурное решение, определяемое приоритетами проекта.

AWS Lambda остаётся наиболее мощной и гибкой платформой: любой язык, до 10 ГБ памяти, 200+ интеграций с AWS-сервисами, зрелая экосистема. Cold start перестал быть критической проблемой благодаря SnapStart и Provisioned Concurrency. Если вы строите серьёзный бэкенд с event-driven архитектурой — Lambda по-прежнему безальтернативна.

Cloudflare Workers — самая быстрая платформа с нулевым cold start и 330+ edge-локациями. Экосистема (KV, R2, D1, Durable Objects) позволяет строить полноценные приложения на edge без традиционной облачной инфраструктуры. Ограничение в 128 МБ памяти компенсируется нулевыми расходами на egress и простотой развёртывания. Для edge-first архитектуры — лучший выбор.

Vercel Functions — оптимальный вариант для команд, строящих веб-приложения на Next.js и других современных фреймворках. Fluid Compute, Preview Deployments и zero-config деплой делают Vercel непревзойдённым по Developer Experience. Но за удобство приходится платить — как в прямом смысле ($20/мес за пользователя), так и в ограничении сценариев использования.

Прагматичная рекомендация: начните с одной платформы, которая лучше всего соответствует вашему основному сценарию, и добавляйте другие по мере необходимости. Serverless в 2026 году — это не монолит, а конструктор, и лучшие архитектуры комбинируют сильные стороны нескольких платформ.

Источники

  1. AWS Lambda Pricing — Amazon Web Services
  2. Cloudflare Workers Platform Pricing — Cloudflare Docs
  3. Cloudflare Workers Limits — Cloudflare Docs
  4. Vercel Functions Documentation — Vercel Docs
  5. Vercel Fluid Compute — Vercel Docs
  6. re:Invent 2025 — What’s New with AWS Lambda — AWS re:Post
  7. AWS Lambda SnapStart — AWS Documentation
  8. Cloudflare Workers CPU Performance Benchmarks — Cloudflare Blog
  9. Baselime: 80% Lower Cloud Cost Moving from AWS to Cloudflare — Cloudflare Blog
  10. Lambda@Edge vs Cloudflare Workers vs Vercel Edge: Latency, Limits, and Cost — Prabhat Giri
← Все статьи