Зачем нужен единый пул хранения и как Space Stor решает проблему доступа к данным?
Когда виртуализация выходит за пределы одного сервера
Современные инфраструктуры строятся на кластерах — нескольких узлах, работающих как единое целое. Чтобы виртуальные машины могли свободно перемещаться между ними, требуется общее хранилище, к которому имеют доступ все узлы одновременно. Без этого кластер остаётся набором отдельных серверов, а не единой системой.
Почему обычные файловые системы не справляются
EXT4, NTFS, XFS и другие традиционные файловые системы рассчитаны на одного владельца — конкретный сервер, который единолично управляет диском. Если дать к нему доступ нескольким узлам, структура данных разрушается: каждый хост будет считать, что диск принадлежит только ему. В кластере такая архитектура попросту невозможна.
А сетевые протоколы вроде NFS и SMB тоже не спасают
Они позволяют делиться файлами, но не дают настоящего параллельного блочного доступа. Каждая операция чтения или записи проходит через сетевой сервер — это добавляет задержки, создаёт узкие места и снижает отказоустойчивость. Для высоконагруженной виртуализации этого недостаточно.
Что нужно вместо этого
Хранилище должно быть общим, но управляться каждым узлом напрямую, без посредников и без потери целостности данных. То есть — единый пул, доступный всему кластеру на уровне блочного устройства, но с контролем синхронизации и блокировок. Такую задачу решают кластерные файловые системы.
Кластерная файловая система: ключ к совместному доступу
В отличие от обычных ФС, кластерная обеспечивает распределённое управление доступом: несколько серверов читают и пишут в одни и те же файлы, а специальный механизм блокировок гарантирует, что данные не будут повреждены. Это позволяет всем узлам работать с единым хранилищем, как будто оно локальное
Так появилась архитектура Space Stor
Space Stor объединяет все типы данных — образы ВМ, виртуальные диски, резервные копии и конфигурации — в едином пуле, доступном каждому узлу.
В основе — кластерные файловые системы GFS2 и GlusterFS, а поверх них — слой автоматизации, управления и валидации, разработанный в SpaceVM.
Главная идея Space Stor
Хранилище не должно быть “привязано” к серверу. Оно должно быть частью кластера — умной, самоуправляемой системой. Space Stor делает это возможны
Как устроен кластерный доступ к данным в Space Stor?
GFS2 — ядро общей файловой системы
В основе Space Stor лежит GFS2 — кластерная файловая система, изначально созданная для Linux. Её задача — позволить нескольким узлам одновременно читать и писать в одно и то же блочное устройство, сохраняя консистентность данных. Каждый сервер видит один и тот же набор файлов, а GFS2 координирует их использование на уровне блоков.
Координация через распределённые блокировки
Во избежание одновременной записи разных узлов в одно место, GFS2 задействует DLM — менеджер распределённых блокировок. Он контролирует доступ к файлам и их частям, разрешая работу с ресурсом только тому серверу, который захватил на него блокировку. Так достигается синхронная работа без конфликтов и повреждения данных.
Почему это лучше подходит для платформ серверной виртуализации
В сетевых файловых системах NFS или SMB все запросы идут через один сервер — это создаёт узкое место и зависимость от сети. В GFS2 же операции выполняются локально: каждый узел сам пишет и читает данные с блочного устройства, а синхронизируются только метаданные. В результате задержки минимальны, а производительность ближе к локальной.
Механизмы отказоустойчивости: quorum и fencing
GFS2 имеет встроенную защиту от “split-brain” — ситуации, когда узлы теряют связь и начинают писать данные несогласованно. Для этого используются механизмы quorum и fencing: если узел теряет синхронизацию с кластером, он изолируется от общего хранилища, предотвращая порчу данных. Всё это управляется автоматически.
Сценарии восстановления
Если один узел выходит из строя, остальные продолжают работу с общим пулом данных. Когда сервер возвращается в строй, он повторно синхронизирует метаданные и возвращается в кластер без ручного вмешательства. Это даёт ту самую “self-healing” модель, где инфраструктура сама восстанавливает согласованность состояния.
Производительность и масштабируемость
GFS2 масштабируется горизонтально: добавление новых узлов не требует миграции данных или изменения конфигурации. Каждый сервер подключается к общему блочному устройству и регистрируется в кластере.
Так формируется единая файловая система, равноправная для всех участников, без центральной точки отказа.
Интеграция с GlusterFS
В Space Stor могут использоваться две независимые кластерные файловые системы. GlusterFS создает распределенное хранилище на локальных дисках узлов с репликацией данных между ними. GFS2 обеспечивает кластерный доступ к общему внешнему хранилищу (LUN). Обе реализуют единую концепцию Space Stor — создание отказоустойчивого распределенного хранилища, доступного на каждом узле с централизованным управлением.
Почему это важно для SpaceVM
Данное сочетание технологий создает унифицированное разделяемое хранилище для всех типов данных — образов, дисков ВМ, резервных копий и метаданных. В отличие от стандартного внешнего блочного доступа, такое решение предоставляет расширенные возможности: древовидную систему снимков, тонкие диски и единые атрибуты безопасности для всех файлов. Это обеспечивает бесшовный доступ к данным с любого узла и формирует основу для полноценной высокой доступности и живой миграции в SpaceVM.
Интеграция, автоматизация и уникальность реализации в SpaceVM?
Файловая система — не отдельный компонент, а часть архитектуры
В SpaceVM GFS2 и GlusterFS встроены в инфраструктурный слой, а не устанавливаются вручную. Платформа сама создаёт кластер, формирует конфигурацию и регистрирует узлы в общем пуле. Благодаря этому администратору не нужно писать ни одной команды — всё работает через графический интерфейс или API, автоматически и воспроизводимо.
Автоматическое создание и настройка кластера
При развертывании среды SpaceVM автоматически конфигурирует DLM, quorum и fencing.
Платформа проверяет сетевую связанность, назначает роли, синхронизирует параметры хранилища и сама контролирует, чтобы ни один узел не оказался “в стороне”. Это избавляет от типичных ошибок ручной настройки GFS2 и упрощает администрирование.
Управление через оркестратор
SpaceVM обеспечивает отказоустойчивость кластера через централизованный оркестратор. Он управляет конфигурацией, блокировками и мониторингом, автоматически восстанавливая работу при сбоях. Такой подход гарантирует, что отказ отдельного узла не повлияет на доступность всего кластера, и позволяет безопасно масштабировать инфраструктуру.
Политики отказоустойчивости под контролем администратора
SpaceVM позволяет задавать собственные политики fencing’а и реакции на сбои. Можно выбрать, какие события считать критическими — потерю связи, зависание DLM или отказ хранилища. Это даёт баланс между надёжностью и гибкостью: система остаётся безопасной, но не “перестраховывается” там, где можно обойтись мягкой реакцией.
Предиктивная диагностика и самоконтроль
SpaceVM отслеживает метрики блокировок, нагрузку на хранилище и задержки синхронизации между узлами.
Если система видит потенциальный конфликт — она предупреждает администратора или сама применяет корректирующие действия. Это снижает риск “зависаний” и обеспечивает стабильность кластера под нагрузкой.
Оптимизация производительности под виртуальные среды
Space Stor базируется на низкоуровневых оптимизациях: планировщик BFQ, ускорение I/O через virtio, эффективное выделение пространства с fallocate.
Эти параметры подбираются динамически, исходя из профиля нагрузки, что позволяет поддерживать стабильную производительность даже при росте числа ВМ и объёма операций.
Space Stor — концепция единого пула данных
Space Stor объединяет все типы файлов — образы, виртуальные диски, резервные копии и конфигурации ВМ — в едином хранилище, доступном каждому узлу кластера.
Архитектура построена на кластерных файловых системах GFS2 и GlusterFS, дополненных собственным слоем автоматизации, управления и валидации.
В отличие от многих решений, где для разных типов данных нужны отдельные хранилища, Space Stor обеспечивает централизованное управление и единый пул, доступный всей инфраструктуре.