AWS Lambda vs Cloudflare Workers vs Vercel Functions в 2026: где запускать serverless-код
Содержание
Serverless-вычисления в 2026 году перестали быть экспериментальной технологией — это мейнстрим. По данным Datadog State of Serverless Report, более 70% организаций, работающих с облачными провайдерами, используют хотя бы один serverless-сервис. Но рынок FaaS (Functions as a Service) за последние годы сильно фрагментировался: помимо классического AWS Lambda появились edge-ориентированные платформы вроде Cloudflare Workers и тесно интегрированные с фреймворками решения вроде Vercel Functions.
Выбор между этими тремя платформами — не вопрос «лучший vs худший», а вопрос архитектурных приоритетов: максимальная гибкость и экосистема AWS, минимальная задержка на edge от Cloudflare или бесшовная интеграция с Next.js от Vercel. В этой статье мы разберём каждую платформу по всем ключевым параметрам — архитектура, производительность, ценообразование, экосистема, ограничения и сценарии использования — чтобы помочь вам сделать осознанный выбор. Статья адресована бэкенд-разработчикам, DevOps-инженерам и архитекторам, проектирующим serverless-инфраструктуру.
Краткий обзор участников
AWS Lambda — пионер serverless
AWS Lambda был представлен в 2014 году и фактически создал категорию FaaS. На февраль 2026 года Lambda поддерживает рантаймы Node.js 24, Python 3.14, Java 25, .NET 9, Ruby 3.4, а также Go и Rust через custom runtimes и произвольные контейнерные образы. По данным AWS, Lambda обрабатывает триллионы вызовов ежемесячно для сотен тысяч клиентов.
Архитектура Lambda основана на микро-виртуальных машинах Firecracker — легковесных KVM-инстансах, которые запускаются за миллисекунды. Каждая функция выполняется в изолированной среде с выделенными ресурсами: до 10 ГБ оперативной памяти, до 10 ГБ эфемерного хранилища и до 6 виртуальных ядер CPU (пропорционально выделенной памяти).
Ключевые нововведения 2025—2026 года: расширение SnapStart на Python и .NET (помимо Java) для радикального сокращения cold start, поддержка Advanced Logging Controls с JSON-форматированием и фильтрацией по уровню, Recursive Loop Detection для предотвращения бесконечных рекурсий между сервисами, а также улучшенная интеграция с Amazon Bedrock для AI/ML-сценариев.
Cloudflare Workers — edge без компромиссов
Cloudflare Workers запущен в 2018 году и использует принципиально другую модель исполнения: вместо контейнеров или VM — V8 Isolates, те же движки JavaScript, что работают в Google Chrome. Это позволяет запускать код за менее чем 1 мс — практически с нулевым cold start.
На февраль 2026 года Workers развёрнуты в более чем 330 дата-центрах Cloudflare по всему миру. Каждый запрос обрабатывается в ближайшем к пользователю PoP (Point of Presence), что обеспечивает медианную задержку менее 20 мс глобально.
Workers поддерживают JavaScript, TypeScript и WebAssembly (Wasm). Из значимых обновлений 2025—2026: увеличение лимита CPU-времени до 5 минут на запрос для Paid-плана, Storage billing для SQLite-backed Durable Objects (с января 2026), обновлённый API для deleteAll() в Durable Objects, и расширенные возможности Workers AI для запуска ML-моделей на edge.
Vercel Functions — serverless для фронтенд-разработчиков
Vercel Functions — это serverless-платформа, тесно интегрированная с фреймворками Next.js, SvelteKit, Nuxt и Astro. Vercel предлагает два рантайма: Node.js (полноценный серверный рантайм) и Edge Runtime (лёгкий V8-рантайм, аналогичный Cloudflare Workers).
В 2025 году Vercel представил модель Fluid Compute — новый подход к исполнению функций, при котором один инстанс может обрабатывать несколько конкурентных запросов, что сокращает cold start через кеширование байт-кода и переиспользование idle-инстансов. Fluid Compute теперь используется по умолчанию для всех новых проектов.
Примечательно, что Vercel рекомендует мигрировать с Edge Runtime на Node.js для большинства сценариев, мотивируя это улучшенной производительностью и надёжностью. Обе среды работают на Fluid Compute с биллингом по активному CPU-времени.
Архитектура и модель исполнения
Архитектурные различия между тремя платформами — корень всех отличий в производительности, ограничениях и сценариях использования.
AWS Lambda: Firecracker microVM
Lambda использует Firecracker — открытый гипервизор, созданный Amazon для serverless. Каждая функция исполняется в собственной microVM с полноценным Linux-ядром, что обеспечивает аппаратную изоляцию на уровне виртуализации.
┌──────────────── AWS Lambda ────────────────────┐
│ │
│ ┌─────────────┐ ┌─────────────┐ │
│ │ Firecracker │ │ Firecracker │ ... │
│ │ microVM │ │ microVM │ │
│ │ ┌─────────┐ │ │ ┌─────────┐ │ │
│ │ │ Runtime │ │ │ │ Runtime │ │ │
│ │ │ (Node/ │ │ │ │ (Python/│ │ │
│ │ │ Python) │ │ │ │ Java) │ │ │
│ │ └─────────┘ │ │ └─────────┘ │ │
│ └─────────────┘ └─────────────┘ │
│ │
│ Lambda Execution Environment │
└──────────────────────────────────────────────────┘
При cold start Lambda должна: выделить microVM, загрузить рантайм, выполнить init-код функции. Это занимает от 100 мс до 1+ секунды в зависимости от рантайма и объёма зависимостей. Java и .NET традиционно имеют самые долгие cold start (500 мс — 2 с), Node.js и Python — самые быстрые (100—300 мс).
SnapStart (доступен для Java, Python, .NET) сокращает cold start на до 90%: Lambda делает snapshot памяти и диска инициализированного окружения и кеширует его. При новом вызове вместо полной инициализации восстанавливается snapshot — cold start сокращается до 100—200 мс даже для Java.
Cloudflare Workers: V8 Isolates
Workers отказались от VM и контейнеров в пользу V8 Isolates — легковесных песочниц внутри одного процесса V8:
┌──────────────── Cloudflare Edge PoP ───────────┐
│ │
│ ┌──── V8 Engine Process ────────────────────┐ │
│ │ │ │
│ │ ┌─────────┐ ┌─────────┐ ┌─────────┐ │ │
│ │ │ Isolate │ │ Isolate │ │ Isolate │ │ │
│ │ │ Worker A│ │ Worker B│ │ Worker C│ │ │
│ │ └─────────┘ └─────────┘ └─────────┘ │ │
│ │ │ │
│ └────────────────────────────────────────────┘ │
│ │
│ Один процесс — тысячи изолятов │
└──────────────────────────────────────────────────┘
Isolate создаётся за менее чем 1 мс — фактически нулевой cold start. Но эта архитектура накладывает жёсткие ограничения: 128 МБ памяти на isolate, только JavaScript/TypeScript/Wasm, нет доступа к файловой системе и нет нативных Node.js API (хотя совместимость с Node.js API активно расширяется).
Vercel Functions: гибридная модель
Vercel комбинирует оба подхода. Node.js Runtime работает на AWS Lambda под капотом (Vercel использует AWS-инфраструктуру), обеспечивая полную совместимость с Node.js экосистемой. Edge Runtime использует V8 Isolates, аналогичные Cloudflare Workers, и разворачивается на edge-серверах Vercel.
С Fluid Compute Vercel добавил ещё одну оптимизацию: инстанс функции может обрабатывать несколько запросов одновременно (по аналогии с традиционным сервером), вместо создания нового инстанса на каждый запрос. Это особенно эффективно для I/O-bound задач (запросы к БД, вебхуки), где CPU простаивает в ожидании ответа.
Сравнительная таблица
| Параметр | AWS Lambda | Cloudflare Workers | Vercel Functions |
|---|---|---|---|
| Модель исполнения | Firecracker microVM | V8 Isolates | Node.js (Lambda) + Edge (V8) |
| Cold start | 100 мс — 1 с (50—200 мс с SnapStart) | < 1 мс (практически нет) | 50—250 мс (Fluid Compute) |
| Языки | Node.js, Python, Java, .NET, Go, Rust, Ruby, контейнеры | JavaScript, TypeScript, Wasm | JavaScript, TypeScript, Python, Go, Ruby |
| Макс. память | 10 ГБ | 128 МБ | 3 ГБ (Node.js) / ограничено (Edge) |
| Макс. время выполнения | 15 мин | 5 мин CPU (Paid) | 5 мин (Pro) / 60 с (Hobby) |
| Edge-развёртывание | Через Lambda@Edge/CloudFront | 330+ PoP (по умолчанию) | Edge Runtime: ~310+ городов |
| Бесплатный план | 1 млн запросов + 400K ГБ-с / мес (бессрочно) | 100K запросов/день (Workers Free) | 100K вызовов/мес (Hobby) |
| Стоимость (Paid) | $0.20/млн запросов + $0.0000166667/ГБ-с | $5/мес + $0.30/млн запросов + $0.02/млн CPU-мс | $20/мес + потребление |
| Макс. размер пакета | 250 МБ (zip) / 10 ГБ (контейнер) | 10 МБ (Free) / 30 МБ (Paid) | 250 МБ (Node.js) / 4 МБ (Edge) |
| Экосистема хранения | DynamoDB, S3, EFS, RDS, SQS, SNS… | KV, R2, D1, Durable Objects, Queues | Vercel KV, Vercel Postgres, Vercel Blob |
| Мониторинг | CloudWatch, X-Ray, Powertools | Workers Analytics, Logpush | Vercel Analytics, OpenTelemetry |
| Вендор-лок | Высокий (AWS-экосистема) | Средний (Web Standards) | Средний-высокий (Next.js-оптимизация) |
Cold start: подробный разбор
Cold start — один из ключевых факторов при выборе serverless-платформы, особенно для API, обслуживающих пользователей в реальном времени.
AWS Lambda имеет наиболее ощутимый cold start из трёх платформ, но предлагает больше всего инструментов для его минимизации:
- SnapStart (Java, Python, .NET) — снижает cold start на 90%, snapshot инициализированного окружения восстанавливается мгновенно
- Provisioned Concurrency — заранее «прогретые» инстансы, гарантированный нулевой cold start (за дополнительную плату)
- Graviton2 (ARM) — ARM-рантаймы обеспечивают более быстрый старт и на 20% дешевле
Cloudflare Workers практически лишены проблемы cold start благодаря V8 Isolates. Создание нового isolate занимает менее 1 мс. Это делает Workers идеальным решением для сценариев, где каждая миллисекунда на счету: аутентификация, маршрутизация, A/B-тестирование на edge.
Vercel Functions с Fluid Compute сократили cold start до 50—250 мс для Node.js-рантайма за счёт переиспользования инстансов и кеширования байт-кода. Edge Runtime функции стартуют почти мгновенно, аналогично Cloudflare Workers.
Примеры кода
Рассмотрим реализацию простого API-эндпоинта на каждой платформе — обработчика, который принимает JSON-запрос, обращается к внешнему API и возвращает трансформированный результат.
AWS Lambda (Node.js)
// handler.mjs — AWS Lambda с Node.js 24
export const handler = async (event) => {
const body = JSON.parse(event.body);
const { userId } = body;
// Обращение к внешнему API
const response = await fetch(
`https://api.example.com/users/${userId}/profile`
);
const profile = await response.json();
// Трансформация данных
const result = {
id: profile.id,
displayName: `${profile.firstName} ${profile.lastName}`,
avatar: profile.avatarUrl,
memberSince: new Date(profile.createdAt).getFullYear(),
};
return {
statusCode: 200,
headers: {
"Content-Type": "application/json",
"Cache-Control": "public, max-age=60",
},
body: JSON.stringify(result),
};
};
Конфигурация в template.yaml (AWS SAM):
# template.yaml — AWS SAM
AWSTemplateFormatVersion: "2010-09-09"
Transform: AWS::Serverless-2016-10-31
Globals:
Function:
Runtime: nodejs24.x
Architecture: arm64 # Graviton2: быстрее + дешевле на 20%
MemorySize: 256
Timeout: 10
Resources:
GetProfileFunction:
Type: AWS::Serverless::Function
Properties:
Handler: handler.handler
Events:
Api:
Type: HttpApi
Properties:
Path: /profile
Method: post
Cloudflare Workers
// src/index.js — Cloudflare Worker
export default {
async fetch(request, env, ctx) {
if (request.method !== "POST") {
return new Response("Method not allowed", { status: 405 });
}
const { userId } = await request.json();
// Обращение к внешнему API
const response = await fetch(
`https://api.example.com/users/${userId}/profile`
);
const profile = await response.json();
// Трансформация данных
const result = {
id: profile.id,
displayName: `${profile.firstName} ${profile.lastName}`,
avatar: profile.avatarUrl,
memberSince: new Date(profile.createdAt).getFullYear(),
};
return new Response(JSON.stringify(result), {
headers: {
"Content-Type": "application/json",
"Cache-Control": "public, max-age=60",
},
});
},
};
Конфигурация wrangler.toml:
# wrangler.toml
name = "profile-api"
main = "src/index.js"
compatibility_date = "2026-02-01"
# Привязка к KV namespace для кеширования
[[kv_namespaces]]
binding = "CACHE"
id = "abc123"
Обратите внимание: Cloudflare Workers используют Web Standard API (fetch, Request, Response) — тот же код, что работает в браузере. Нет обёрток вроде event.body — вы работаете с нативным объектом Request.
Vercel Functions (Next.js App Router)
// app/api/profile/route.ts — Vercel Function (Next.js)
import { NextRequest, NextResponse } from "next/server";
export async function POST(request: NextRequest) {
const { userId } = await request.json();
// Обращение к внешнему API
const response = await fetch(
`https://api.example.com/users/${userId}/profile`,
{ next: { revalidate: 60 } } // ISR-кеширование через Next.js
);
const profile = await response.json();
// Трансформация данных
const result = {
id: profile.id,
displayName: `${profile.firstName} ${profile.lastName}`,
avatar: profile.avatarUrl,
memberSince: new Date(profile.createdAt).getFullYear(),
};
return NextResponse.json(result, {
headers: {
"Cache-Control": "public, s-maxage=60, stale-while-revalidate=300",
},
});
}
// Опционально: запустить на Edge Runtime
// export const runtime = "edge";
Vercel Functions в контексте Next.js выглядят максимально лаконично: маршрутизация определяется файловой структурой, а кеширование интегрировано через next.js-конвенции. Добавление export const runtime = "edge" переключает функцию на V8-рантайм.
Пример с использованием хранилища: счётчик посещений
Каждая платформа предоставляет собственные решения для хранения данных. Рассмотрим реализацию простого счётчика:
Cloudflare Workers + KV:
export default {
async fetch(request, env) {
const url = new URL(request.url);
const page = url.pathname;
// Атомарный инкремент через KV
const current = parseInt((await env.COUNTERS.get(page)) || "0");
const updated = current + 1;
await env.COUNTERS.put(page, updated.toString());
return new Response(JSON.stringify({ page, views: updated }), {
headers: { "Content-Type": "application/json" },
});
},
};
AWS Lambda + DynamoDB:
import { DynamoDBClient } from "@aws-sdk/client-dynamodb";
import { UpdateCommand, DynamoDBDocumentClient } from "@aws-sdk/lib-dynamodb";
const client = DynamoDBDocumentClient.from(new DynamoDBClient());
export const handler = async (event) => {
const page = event.rawPath;
const result = await client.send(
new UpdateCommand({
TableName: "PageViews",
Key: { page },
UpdateExpression: "ADD #views :inc",
ExpressionAttributeNames: { "#views": "views" },
ExpressionAttributeValues: { ":inc": 1 },
ReturnValues: "ALL_NEW",
})
);
return {
statusCode: 200,
body: JSON.stringify({
page,
views: result.Attributes.views,
}),
};
};
Ценообразование: реальные сценарии
Абстрактные цифры из прайс-листов мало что говорят. Рассмотрим стоимость для конкретного сценария: API с 10 миллионами запросов в месяц, средним временем выполнения 50 мс и выделением 256 МБ памяти.
AWS Lambda
- Запросы: 10M x $0.20/млн = $2.00
- Compute: 10M x 0.05 с x 0.25 ГБ x $0.0000166667/ГБ-с = $2.08
- Итого: ~$4.08/мес (без учёта бесплатного уровня)
- С бесплатным уровнем (1M запросов + 400K ГБ-с): ~$3.50/мес
Cloudflare Workers
- Базовый план: $5.00/мес (включает 10M запросов)
- CPU-время: 10M x 50 мс x $0.02/млн CPU-мс = $10.00
- Трафик: $0 (бесплатный egress)
- Итого: ~$15.00/мес
Но важно учесть: реальное CPU-время Workers обычно значительно меньше wall-clock time, так как Workers биллят только за CPU-время, а не за ожидание I/O. Для типичного API с внешними вызовами реальное CPU-время может составлять 5—10 мс вместо 50 мс, что снижает итог до ~$6.00/мес.
Vercel Functions (Pro)
- Базовый план: $20.00/мес/пользователь
- Вызовы: включены в план (1M бесплатно, далее $0.60/млн)
- Active CPU Time: зависит от потребления
- Fast Data Transfer: 100 ГБ включено
- Итого: ~$25—35/мес для команды из одного разработчика
Vercel дороже при чистом сравнении, но стоимость включает хостинг фронтенда, CI/CD, Preview Deployments, аналитику и другие фичи платформы. Если вы уже используете Vercel для фронтенда — добавление serverless-функций не требует дополнительной инфраструктуры.
Вывод по ценам
Для чистого API без фронтенда AWS Lambda — самый дешёвый вариант. Cloudflare Workers выгоднее при высоком трафике с лёгкими вычислениями благодаря бесплатному egress. Vercel оптимален, когда фронтенд и бэкенд живут в одной экосистеме.
Экосистема и интеграции
AWS Lambda
Lambda — часть гигантской экосистемы AWS с более чем 200 сервисами. Ключевые интеграции:
- API Gateway / HTTP API — маршрутизация HTTP-запросов
- SQS / SNS / EventBridge — событийная архитектура
- DynamoDB Streams — реакция на изменения в базе данных
- S3 Events — обработка загрузки файлов
- Step Functions — оркестрация сложных workflow
- Bedrock — интеграция с AI/ML-моделями
Это делает Lambda незаменимой для сложных бэкенд-систем с очередями, стейт-машинами, обработкой файлов и event-driven архитектурой.
Cloudflare Workers
Cloudflare построил полноценную Developer Platform:
- Workers KV — глобально распределённое key-value хранилище (eventually consistent)
- R2 — объектное хранилище, совместимое с S3 API (нулевой egress)
- D1 — serverless SQL-база данных на основе SQLite
- Durable Objects — stateful-вычисления с гарантированной уникальностью (идеально для чатов, collaboration, multiplayer)
- Queues — очереди сообщений
- Workers AI — запуск ML-моделей на edge
- Hyperdrive — ускорение подключений к внешним PostgreSQL/MySQL
Экосистема Cloudflare компактнее AWS, но все сервисы оптимизированы для edge и работают вместе без конфигурации VPC, IAM-ролей и прочей облачной инфраструктуры.
Vercel Functions
Vercel фокусируется на DX (Developer Experience) для фронтенд-команд:
- Next.js — нативная интеграция: SSR, ISR, Server Actions, Middleware
- Vercel KV — Redis-совместимое хранилище (через Upstash)
- Vercel Postgres — managed PostgreSQL (через Neon)
- Vercel Blob — объектное хранилище
- Preview Deployments — уникальный URL для каждого PR
- Edge Config — глобально распределённая конфигурация с ультра-низкой задержкой
- Speed Insights / Web Analytics — мониторинг производительности
Vercel — не универсальный облачный провайдер, а платформа, оптимизированная для развёртывания веб-приложений. Для сложных бэкенд-сценариев (очереди, стейт-машины, обработка файлов) потребуется интеграция с внешними сервисами.
Ограничения и подводные камни
AWS Lambda
- Cold start остаётся проблемой для latency-sensitive API без Provisioned Concurrency
- Сложность конфигурации — IAM-роли, VPC, Security Groups, API Gateway настройки
- Вендор-лок — глубокая интеграция с AWS-экосистемой затрудняет миграцию
- 15-минутный таймаут — не подходит для длительных задач (нужен Step Functions)
- Стоимость egress — передача данных из AWS стоит денег ($0.09/ГБ)
Cloudflare Workers
- 128 МБ памяти — жёсткое ограничение, невозможно увеличить
- Нет полной Node.js-совместимости — многие npm-пакеты не работают (хотя compat-слой расширяется)
- 50 subrequests на выполнение — лимит исходящих HTTP-запросов
- Нет поддержки TCP/UDP напрямую (только через connect() API)
- Отладка сложнее — V8 Isolates отличаются от привычной Node.js-среды
- Размер пакета: 10 МБ (Free) / 30 МБ (Paid) — после gzip, включая зависимости
Vercel Functions
- Привязка к фреймворку — максимальные преимущества только с Next.js
- Лимиты Hobby-плана — 60 с таймаут, 100K вызовов/мес
- Размер payload — максимум 4.5 МБ для тела запроса
- Цена за пользователя — $20/мес за каждого члена команды (Pro)
- Нет встроенных очередей или event-driven триггеров — только HTTP
- Зависимость от AWS — Node.js Functions работают на Lambda под капотом
Когда что выбрать
Выбирайте AWS Lambda, если:
- Вы строите сложный бэкенд с очередями, стейт-машинами, обработкой файлов и event-driven архитектурой
- Нужна поддержка любого языка — Java, Python, Go, Rust, .NET, контейнеры
- Требуется до 10 ГБ памяти для тяжёлых вычислений (ML-инференс, обработка изображений)
- Ваша инфраструктура уже на AWS и вы хотите глубокую интеграцию с DynamoDB, S3, SQS, EventBridge
- Вам нужны длительные выполнения до 15 минут
- Cold start не критичен или вы готовы платить за Provisioned Concurrency
Выбирайте Cloudflare Workers, если:
- Приоритет — минимальная глобальная задержка (< 20 мс медиана)
- Вы строите edge-first приложения: аутентификация, маршрутизация, A/B-тесты, персонализация
- Нужен нулевой cold start для каждого запроса
- Хотите нулевые egress-расходы при высоком трафике
- Приложение укладывается в 128 МБ памяти и написано на JavaScript/TypeScript
- Вам нужен stateful edge (Durable Objects для чатов, collaboration, gaming)
- Хотите полноценную платформу без сложности AWS (KV, R2, D1, Queues — всё работает из коробки)
Выбирайте Vercel Functions, если:
- Вы строите Next.js/SvelteKit/Nuxt приложение и хотите serverless «из коробки»
- Приоритет — Developer Experience: Preview Deployments, автоматический CI/CD, zero-config
- Нужна ISR (Incremental Static Regeneration) и Server Components с serverless-бэкендом
- Команда — фронтенд-разработчики, которым нужен бэкенд без управления инфраструктурой
- Бюджет включает $20/мес за пользователя и объём трафика умеренный
- Вы хотите единую платформу для фронтенда и бэкенда без настройки отдельного API Gateway
Гибридные стратегии
В реальных проектах часто используют несколько платформ одновременно:
-
Cloudflare Workers + AWS Lambda: Workers обрабатывают edge-логику (аутентификация, rate limiting, маршрутизация), а Lambda — тяжёлые бэкенд-задачи (обработка изображений, ML-инференс, batch-операции)
-
Vercel Functions + AWS Lambda: Vercel отвечает за SSR/ISR и API Routes фронтенда, а Lambda — за фоновые задачи через SQS/EventBridge
-
Cloudflare Workers + Vercel: Workers на уровне CDN для кеширования, security headers и геомаршрутизации, Vercel — для рендеринга приложения
Такие архитектуры позволяют использовать сильные стороны каждой платформы: edge-скорость Cloudflare, вычислительную мощь Lambda и DX Vercel.
Заключение
В 2026 году выбор serverless-платформы — это не техническое, а архитектурное решение, определяемое приоритетами проекта.
AWS Lambda остаётся наиболее мощной и гибкой платформой: любой язык, до 10 ГБ памяти, 200+ интеграций с AWS-сервисами, зрелая экосистема. Cold start перестал быть критической проблемой благодаря SnapStart и Provisioned Concurrency. Если вы строите серьёзный бэкенд с event-driven архитектурой — Lambda по-прежнему безальтернативна.
Cloudflare Workers — самая быстрая платформа с нулевым cold start и 330+ edge-локациями. Экосистема (KV, R2, D1, Durable Objects) позволяет строить полноценные приложения на edge без традиционной облачной инфраструктуры. Ограничение в 128 МБ памяти компенсируется нулевыми расходами на egress и простотой развёртывания. Для edge-first архитектуры — лучший выбор.
Vercel Functions — оптимальный вариант для команд, строящих веб-приложения на Next.js и других современных фреймворках. Fluid Compute, Preview Deployments и zero-config деплой делают Vercel непревзойдённым по Developer Experience. Но за удобство приходится платить — как в прямом смысле ($20/мес за пользователя), так и в ограничении сценариев использования.
Прагматичная рекомендация: начните с одной платформы, которая лучше всего соответствует вашему основному сценарию, и добавляйте другие по мере необходимости. Serverless в 2026 году — это не монолит, а конструктор, и лучшие архитектуры комбинируют сильные стороны нескольких платформ.
Источники
- AWS Lambda Pricing — Amazon Web Services
- Cloudflare Workers Platform Pricing — Cloudflare Docs
- Cloudflare Workers Limits — Cloudflare Docs
- Vercel Functions Documentation — Vercel Docs
- Vercel Fluid Compute — Vercel Docs
- re:Invent 2025 — What’s New with AWS Lambda — AWS re:Post
- AWS Lambda SnapStart — AWS Documentation
- Cloudflare Workers CPU Performance Benchmarks — Cloudflare Blog
- Baselime: 80% Lower Cloud Cost Moving from AWS to Cloudflare — Cloudflare Blog
- Lambda@Edge vs Cloudflare Workers vs Vercel Edge: Latency, Limits, and Cost — Prabhat Giri