Чтобы она была общей для всех бэкендов. Нам не нужно четыре отдельных compose‑файла – иначе мы будем править одно и то же в четырёх местах.
tests/e2e: одни тесты на все API
Папка /tests/e2e содержит end-to-end тесты, которые запускаются против любого из бэкендов. Это важный принцип книги: мы сравниваем реализации честно, по одинаковым проверкам.
Что делают e2e‑тесты:
– поднимают окружение (или подключаются к уже запущенному);
– делают реальные HTTP‑запросы к API;
– проверяют статус-коды, тело ответа, ошибки;
– (опционально) сверяют ответы со схемой OpenAPI.
Как это выглядит на практике:
– вы запускаете api-ts и гоняете e2e – всё зелёное;
– переключаете на api-go и гоняете те же e2e – тесты должны пройти без изменений.
Если тесты завязаны на конкретную реализацию – это плохие e2e.
Хорошие e2e завязаны на контракт.
Минимальные договорённости по именованию и портам
Чтобы всё собиралось без «магии», вводим простые правила:
1. У каждого бэкенда свой порт по умолчанию (например: 3001/3002/3003/3004).
Но порт всегда можно переопределить через переменную окружения.
2. У каждого бэкенда общий базовый префикс API (например, без префикса или /api – главное, чтобы одинаково везде).
3. Фронтенд читает API_BASE_URL из env и не «хардкодит» адрес.
4. E2E тесты читают E2E_BASE_URL (или аналог) – один параметр, чтобы тесты знали, куда стучаться.
Это мелочи, но они экономят огромное количество времени.
0.2.8. Инструменты, которые удобно поставить для работы с монорепо
Ниже – набор программ, которые заметно упрощают жизнь. Ничего “обязательного” здесь нет, но с ними будет легче.
Для работы с Git и кодом
– VS Code – универсальный редактор для всего монорепо.
– IntelliJ IDEA – очень удобна для Spring Boot/Gradle/Maven.
– Git client (по желанию) – если вам проще визуально смотреть историю и конфликты.
Для инфраструктуры
– Docker Desktop (macOS/Windows) или Docker Engine (Linux).
– Postman или Insomnia – быстро вручную дергать API (хотя у нас будет OpenAPI и тесты).
Для работы с API-контрактом
– Плагин OpenAPI для редактора (подсветка, подсказки, валидация).
– Любой HTTP клиент в IDE (в VS Code/JetBrains есть встроенные варианты).
Для языков
– Node.js (лучше через менеджер версий), плюс pnpm.
– Python (через pyenv/uv – как удобнее).
– JDK (например, 21) для JVM-проекта.
– Go (желательно фиксировать версию в проекте).
Что мы получаем в итоге
После того как структура задана, у нас появляется понятная картина:
– В apps/ лежат разные реализации, которые можно запускать по очереди.
– В packages/shared-contract лежит единый контракт API и генерация типов/клиентов.
– В infra/ лежит общая инфраструктура, которую не нужно дублировать.
– В tests/e2e лежат тесты, которые одинаково проверяют любой бэкенд.
Эта структура – фундамент книги. Дальше мы будем добавлять функциональность (эндпоинты, модели, базы данных, авторизацию), но базовые правила останутся прежними: контракт один, тесты одни, реализаций много.
Небольшая правка по ответам из предыдущего раздела
Перед новой главой уточним два момента, чтобы дальше не было путаницы.
Где лежит контракт API и почему он один?
В общем смысле вы правы: контракт – это соглашение. Но в нашем проекте это соглашение должно быть зафиксировано в коде в одном месте, иначе оно начнёт «плавать» между реализациями.
В монорепозитории книги контракт лежит здесь:
– /packages/shared-contract/openapi.yaml
Почему он один:
– единый источник правды: фронтенд, тесты и все бэкенды сверяются с одним файлом;
– нет расхождений «в TS так, а в Go чуть иначе»;
– проще развивать API: изменения проходят через одно место и проверяются автоматически.
Где будут e2e‑тесты и почему они не должны зависеть от конкретного языка?
В нашем проекте e2e‑тесты лежат в:
– /tests/e2e
Они не зависят от языка, потому что их цель – проверять поведение системы через HTTP, то есть:
– одинаковые URL и методы,
– одинаковые статус-коды,
– одинаковые тела ответов,
– одинаковые ошибки.
То, написан сервер на Python или Java, для e2e вообще не важно – важен контракт и фактическое поведение.
Что относится к apps/, а что – к packages/?
– apps/ – запускаемые приложения (frontend и каждый бэкенд).
– packages/ – общие библиотеки/артефакты, которые переиспользуются несколькими приложениями (в нашем случае – контракт и генерация типов/клиентов).
Почему инфраструктура вынесена в infra/, а не разбросана по приложениям?
Потому что инфраструктура у нас общая. Postgres/Redis/очередь – не «часть конкретного api-ts», они нужны всем реализациям.
Если размазать infra по приложениям:
– придётся дублировать docker-compose и конфиги;
– версии сервисов начнут расходиться;
– станет сложнее запускать и поддерживать окружение.
Папка infra/ делает инфраструктуру одной, а значит – повторяемой и предсказуемой.
Контракт как основа: OpenAPI-first
В этой книге мы идём подходом OpenAPI-first: сначала описываем API как контракт, а потом реализуем его на разных языках.
Это дисциплина, которая сначала кажется «лишней бюрократией», но очень быстро окупается:
– фронтенд получает типы и клиент без ручной работы;
– e2e‑тесты знают, что проверять, и могут дополнительно сверять схему;
– разные бэкенды реализуют один и тот же договор, без «творчества»;
– изменения API становятся управляемыми: видно, что сломается.
Наша цель в этой главе простая:
написать openapi.yaml, научиться генерировать из него типы/клиенты и заставить CI проверять, что контракт валиден.
Где живёт OpenAPI в нашем монорепо
Мы договорились: контракт лежит в одном месте.
Структура пакета:
text
/packages/shared-contract
openapi.yaml
/generated
/scripts
– openapi.yaml – главный файл спецификации.
– generated/ – сюда можно складывать сгенерированные артефакты (типы, клиенты).
– scripts/ – скрипты генерации и проверки.
Папки generated и scripts – опциональны, но они помогают держать порядок: «ручной код» отдельно, «генерация» отдельно.
Пишем первый openapi.yaml
Начнём с минимального, но реального API. Нам нужно что-то, что:
1) легко проверить e2e‑тестами;
2) пригодится для health-check;
3) задаст стиль ответов и ошибок.
Сделаем два эндпоинта:
– GET /health – проверка, что сервис жив.
– GET /api/version – показывает версию API (или приложения), чтобы удобно сравнивать окружения.
Создаём файл:
/packages/shared-contract/openapi.yaml
yaml
openapi: 3.0.3
info:
title: Demo API
version: 0.1.0
description: |
Контракт API для учебного проекта.
Все реализации (TS/Python/Java/Go) обязаны ему соответствовать.
servers:
– url: http://localhost:3001
description: Local dev (пример)
tags:
– name: system
description: Системные эндпоинты
paths:
/health:
get:
tags: [system]
summary: Health check
description: Проверяет, что сервис доступен
responses:
"200":
description: OK
content:
application/json:
schema:
$ref: "/components/schemas/HealthResponse"
/api/version:
get:
tags: [system]
summary: API version
description: Возвращает версию приложения/контракта
responses:
"200":
description: OK
content:
application/json:
schema:
$ref: "/components/schemas/VersionResponse"
components:
schemas:
HealthResponse:
type: object
additionalProperties: false
required: [status]
properties:
status:
type: string
enum: [ok]
VersionResponse:
type: object
additionalProperties: false
required: [version]
properties:
version:
type: string
example: "0.1.0"
Почему мы сразу добавили additionalProperties: false
Это важная деталь. Она означает: в ответах не должно быть неожиданных полей.
Если это не включать, сервер может вернуть лишнее, фронт случайно начнёт это использовать, а потом вы захотите убрать поле – и получите «тихий» breaking change.
С additionalProperties: false API становится строже, зато стабильнее.
Договоримся о стиле ошибок (на будущее)
Пока в контракте нет ошибок, но уже сейчас полезно задать единый формат. Тогда все реализации будут возвращать одно и то же.
Добавим схему ошибки в components/schemas (даже если эндпоинты пока её не используют):
yaml
components:
schemas:
ApiError:
type: object
additionalProperties: false
required: [code, message]
properties:
code:
type: string
example: "VALIDATION_ERROR"
message:
type: string
example: "Invalid request"
details:
type: object
additionalProperties: true
description: Дополнительная информация (опционально)
Позже мы начнём ссылаться на ApiError в ответах 400/401/404/500. Сейчас важно: мы заранее закрепили формат.
Генерируем клиентов и типы
OpenAPI полезен сам по себе как документация. Но настоящая сила – в генерации.
Что мы обычно хотим генерировать:
– TypeScript типы для фронтенда и e2e‑тестов;
– TypeScript API клиент (чтобы не писать fetch вручную);
– опционально: клиенты для других языков (если нужно).
Какие инструменты можно использовать
Ниже несколько популярных вариантов. В книге можно выбрать один (или даже сменить позже), главное – чтобы процесс был повторяемым.
– OpenAPI Generator – умеет генерировать почти всё, поддерживает массу языков.
– Swagger Codegen – старый, но встречается.
– Для TS:
– генерация типов отдельно (например, из схем),
– генерация клиента (fetch/axios).
Практический совет: для старта проще всего выбрать один генератор, который делает TS‑клиент и типы, и пользоваться им везде.
Куда складывать результат
Есть два подхода:
1) Коммитить generated в репозиторий
Плюсы: быстро, всё видно, CI проще.
Минусы: лишние диффы, больше шума в PR.
2) Не коммитить, генерировать в CI и локально
Плюсы: чище репозиторий.
Минусы: нужно следить, чтобы все запускали генерацию.
Для учебного проекта допустимы оба. Важно не «что лучше в вакууме», а чтобы команда договорилась.
В нашей структуре логично держать генерацию здесь:
– packages/shared-contract/generated/
Как встроить генерацию в рабочий процесс
Нам нужно, чтобы генерация была:
– одинаковой у всех
– воспроизводимой
– не зависела от ручных действий
Минимальная схема работы:
1. Меняем openapi.yaml.
2. Запускаем генерацию (скрипт).
3. Фронтенд и тесты используют обновлённые типы/клиент.
Даже если вы пока не пишете реальные команды, полезно уже сейчас завести «точку входа», например:
– packages/shared-contract/scripts/generate
– packages/shared-contract/scripts/validate
Важно: не размазывать генерацию по разным местам. Контракт и его обслуживание должны жить рядом.
Валидация контракта в CI
Контракт имеет смысл только тогда, когда он валиден и изменения контролируются.
В CI нам нужны проверки:
1) OpenAPI файл корректный YAML
2) OpenAPI соответствует схеме OpenAPI 3.0.x
3) (опционально) в контракте нет грубых проблем (линтинг, стиль, ошибки описания)
Что именно проверять
Минимально достаточно:
– «файл парсится»
– «спецификация валидна»
Чуть лучше:
– запретить дубли, неиспользуемые схемы, неописанные ответы
– требовать operationId на каждом эндпоинте (удобно для генерации клиентов)
Например, можно договориться, что каждый endpoint обязан иметь operationId. Это выглядит так:
yaml
/health:
get:
operationId: getHealth
…
Почему это удобно:
– генератор делает стабильные имена методов;
– проще искать операции в коде и в логах.
Как CI будет это использовать
Идея простая:
– на каждый PR запускается job,
– job валидирует openapi.yaml,
– если файл сломан – PR не проходит.
Так вы избегаете ситуации «спецификация поехала, генерация упала у половины команды».
Правила изменения API (очень коротко)
Чтобы OpenAPI-first реально работал, вводим базовые правила:
1. Любое изменение API начинается с изменения openapi.yaml.
Не наоборот.
2. После изменения контракта должны обновиться генерации (типы/клиенты).
3. Реализации API обновляются после контракта и должны проходить e2e‑тесты.
Это создаёт правильную последовательность: контракт → инструменты → реализация → тесты.
Что будет в следующем разделе
Дальше мы сделаем первый минимальный API на одной из платформ (обычно удобно начать с TypeScript или Python, потому что быстрее старт), и:
– поднимем /health и /api/version так, чтобы они соответствовали OpenAPI;
– подключим e2e‑тесты из /tests/e2e, которые будут проверять эти два эндпоинта;
– подготовим основу, чтобы затем легко переключаться между api-ts, api-py, api-java, api-go.
Главная цель следующего шага: впервые увидеть замкнутый цикл
контракт → реализация → e2e‑тесты – и убедиться, что он работает одинаково для любого языка.
Глава 1. TypeScript/Node – плюсы/минусы (практически)
TypeScript/Node.js – один из самых популярных вариантов для прикладных API: от небольших сервисов до больших BFF и API‑шлюзов. Его часто выбирают не потому, что он «самый быстрый» или «самый строгий», а потому что он быстро даёт результат и хорошо ложится на продуктовую разработку.
В этой главе разберём плюсы и минусы именно практично: что вы почувствуете в проекте через неделю, месяц и год. Без теории «что такое event loop», а с фокусом на ежедневные решения: скорость разработки, качество типов, предсказуемость под нагрузкой и дисциплина архитектуры.
1.1. Что мы подразумеваем под TypeScript/Node.js в книге
Чтобы говорить предметно, зафиксируем контекст. Когда дальше в книге будет «TS/Node.js реализация», мы обычно имеем в виду:
– Node.js как runtime (чаще LTS‑версия).
– TypeScript как язык разработки.
– Веб‑фреймворк уровня Express/Fastify/Nest (выбор влияет на стиль, но не отменяет общие свойства платформы).
– Обязательное наличие:
– линтера (ESLint),
– форматтера (Prettier),
– тестов,
– сборки (tsc, иногда bundler),
– строгих настроек TypeScript (насколько возможно).
Что полезно установить для работы
Ниже – типичный минимум. Конкретные версии не важны, важна идея:
– Node.js (LTS) – среда выполнения.
– npm / pnpm / yarn – менеджер пакетов (любое одно).
– TypeScript – компилятор и типизация.
– Docker – удобно для инфраструктуры (PostgreSQL/Redis/очереди), чтобы окружение было одинаковым у всех.
– HTTP‑клиент для ручной проверки: curl или Postman/Insomnia.
– Инструмент для профилирования (на будущее): встроенный Node inspector и/или клинические утилиты типа autocannon для нагрузочного прогона.
Это не «обязательный список для счастья», но с ним меньше сюрпризов.
1.2. Плюсы: почему TS/Node.js часто выигрывает в реальности
Плюс 1. Максимальная скорость разработки и огромная экосистема
На практике Node.js выигрывает там, где важны:
– быстро поднять сервис;
– быстро интегрироваться со сторонними системами;
– быстро менять продуктовую логику.
Причина проста: экосистема.
Для большинства задач уже есть готовые решения:
– авторизация (JWT, OAuth),
– валидация входных данных,
– логирование, трассировка,
– очереди, кэш, базы данных,
– платежи, интеграции, SDK внешних сервисов,
– генерация клиента из OpenAPI.
Это снижает «время до первой работающей версии» и уменьшает риск, что вам придётся писать инфраструктурные куски самим.
Что вы ощущаете в проекте:
– меньше времени уходит на «поднять каркас»;
– много вещей можно сделать через конфигурацию;
– проще нанять разработчиков: Node/TS распространены.
Важное уточнение: экосистема – это и плюс, и источник риска. Пакетов много, качество разное. Поэтому дисциплина выбора зависимостей – отдельная тема (вернёмся к ней ниже в минусах).
Плюс 2. Один язык на фронт и бэк – удобно для full‑stack
Когда фронтенд и бэкенд на одном языке, появляется набор «мелких», но очень ощутимых преимуществ:
– общие принципы типизации и структуры данных;
– один стиль работы с JSON и датами;
– проще «перекидывать» людей между задачами;
– проще писать BFF (Backend For Frontend), где API подстраивается под UI.
Если команда в основном из фронтендеров, TypeScript‑бэкенд – это самый короткий путь:
– не нужно учить Java/Go «с нуля»,
– можно переносить привычные практики (линтинг, форматирование, подход к модулям).
Особенно хорошо этот плюс раскрывается, когда у вас:
– много экранов и фич,
– API постоянно меняется,
– продукт ещё ищет «правильную форму».
Плюс 3. TypeScript даёт контракты, автокомплит и рефакторинг
TypeScript – это не «магическая защита от багов», но это мощный инструмент, который:
– делает структуры данных явными;
– помогает IDE подсказывать правильные поля и типы;
– позволяет рефакторить безопаснее (переименования, перемещения, выделения типов).
На практике вы быстро замечаете две вещи:
1) Код становится самодокументируемым.
Хорошо описанные типы входа/выхода читаются как документация.
2) Меньше «неожиданных» ошибок на ровном месте.
Например, когда поле называется `createdAt`, а вы случайно использовали `createAt`.
Но есть тонкость: типы в TS особенно хороши, когда вы:
– избегаете `any`,
– ограничиваете «непроверенные» данные на границе (HTTP запросы, внешние API),
– используете строгие настройки компилятора.
Иначе TypeScript может превратиться в видимость безопасности.
Плюс 4. Отлично для BFF, API‑шлюзов и SaaS
Есть классы задач, где Node.js чувствует себя «дома»:
– BFF: собрать данные из нескольких источников, подготовить JSON под конкретный UI.
– API‑шлюз: проксирование, авторизация, rate limit, агрегация.
– SaaS‑продукты: много бизнес‑логики, много интеграций, постоянные изменения.
Node.js особенно силён в I/O‑нагрузке:
– много запросов,
– много походов в базу/кэш/внешние сервисы,
– много «склеивания» ответов.
Здесь важнее не «сырой CPU», а скорость разработки и удобство интеграций.
1.3. Минусы: где Node.js может ударить больно
Минусы – не «приговор». Это просто список мест, где нужно осознанно компенсировать слабые стороны платформы.
Минус 1. Производительность и предсказуемость latency обычно хуже, чем у Go/Java
В среднем, при равной реализации и при нагрузке, Go и Java часто дают:
– более высокую пропускную способность,
– более стабильные хвостовые задержки (p95/p99),
– лучшее использование CPU.
Node.js может показывать отличные результаты, но есть типичные причины, почему latency «плывёт»:
– один event loop: если вы случайно сделали тяжёлую синхронную работу, она блокирует обработку запросов;
– сборка мусора (GC): паузы могут проявляться как редкие, но неприятные пики;
– зависимости: одна «неудачная» библиотека может создать нагрузку и ухудшить хвосты.
Что это значит практично:
– для большинства продуктовых API это не проблема на старте;
– но при росте нагрузки и требований к p99 придётся:
– профилировать,
– контролировать память,
– оптимизировать горячие места,
– иногда выносить CPU‑тяжёлое в отдельные воркеры/сервисы.
О проекте
О подписке
Другие проекты
