Сан серверы и их уход. SAS, NAS, SAN: шаг к сетям хранения данных

В данной статье, мы рассмотрим, какие виды систем хранения данных (СХД) на сегодняшнее время существуют, так же рассмотрю одни из основных компонентов СХД – внешние интерфейсы подключения (протоколы взаимодействия) и накопители, на которых хранятся данные. Так же проведем их общее сравнение по предоставляемым возможностям. Для примеров мы буду ссылаться на линейку СХД, представляемую компанией DELL.

  • Примеры моделей DAS
  • Примеры моделей NAS
  • Примеры моделей SAN
  • Типы носителей информации и протокол взаимодействия с системами хранения данных Протокол Fibre Channel
  • Протокол iSCSI
  • Протокол SAS
  • Сравнение протоколов подключения систем хранения данных

Существующие типы систем хранения данных

В случае отдельного ПК под системой хранения данных можно понимать внутренний жесткий диск или систему дисков (RAID массив). Если же речь заходит о системах хранения данных разного уровня предприятий, то традиционно можно выделить три технологии организации хранения данных:

  • Direct Attached Storage (DAS);
  • Network Attach Storage (NAS);
  • Storage Area Network (SAN).

Устройства DAS (Direct Attached Storage) – решение, когда устройство для хранения данных подключено непосредственно к серверу, или к рабочей станции, как правило, через интерфейс по протоколу SAS.

Устройства NAS (Network Attached Storage) – отдельно стоящая интегрированная дисковая система, по-сути, NAS-cервер, со своей специализированной ОС и набором полезных функций быстрого запуска системы и обеспечения доступа к файлам. Система подключается к обычной компьютерной сети (ЛВС), и является быстрым решением проблемы нехватки свободного дискового пространства, доступного для пользователей данной сети.

Storage Area Network (SAN) –это специальная выделенная сеть, объединяющая устройства хранения данных с серверами приложений, обычно строится на основе протокола Fibre Channel или протокола iSCSI.

Теперь давайте более детально рассмотрим каждый из приведенных выше типов СХД, их положительные и отрицательные стороны.

Архитектура системы хранения DAS (Direct Attached Storage)

К основным преимуществам DAS систем можно отнести их низкую стоимость (в сравнении с другими решениями СХД), простоту развертывания и администрирования, а также высокую скорость обмена данными между системой хранения и сервером. Собственно, именно благодаря этому они завоевали большую популярность в сегменте малых офисов, хостинг-провайдеров и небольших корпоративных сетей. В то же время DAS-системы имеют и свои недостатки, к которым можно отнести неоптимальную утилизацию ресурсов, поскольку каждая DAS система требует подключения выделенного сервера и позволяет подключить максимум 2 сервера к дисковой полке в определенной конфигурации.

Рисунок 1: Архитектура Direct Attached Storage

  • Достаточно низкая стоимость. По сути эта СХД представляет собой дисковую корзину с жесткими дисками, вынесенную за пределы сервера.
  • Простота развертывания и администрирования.
  • Высокая скорость обмена между дисковым массивом и сервером.
  • Низкая надежность. При выходе из строя сервера, к которому подключено данное хранилище, данные перестают быть доступными.
  • Низкая степень консолидации ресурсов – вся ёмкость доступна одному или двум серверам, что снижает гибкость распределения данных между серверами. В результате необходимо закупать либо больше внутренних жестких дисков, либо ставить дополнительные дисковые полки для других серверных систем
  • Низкая утилизация ресурсов.

Примеры моделей DAS

Из интересных моделей устройств этого типа хотелось бы отметить модельный ряд DELL PowerVaultсерии MD. Начальные модели дисковых полок (JBOD) MD1000 и MD1120 позволяют создавать дисковые массивы c количеством диском до 144-х. Это достигается за счет модульности архитектуры, в массив можно подключить вплоть до 6 устройств, по три дисковых полки на каждый канал RAID-контроллера. Например, если использовать стойку из 6 DELL PowerVault MD1120, то реализуем массив с эффективным объемом данных 43,2 ТБ. Подобные дисковые полки подключаются одним или двумя кабелями SAS к внешним портам RAID-контроллеров, установленных в серверах Dell PowerEdge и управляются консолью управления самого сервера.

Если же есть потребность в создании архитектуры с высокой отказоустойчивостью, например, для создания отказоустойчивого кластера MS Exchange, SQL-сервера, то для этих целей подойдет модельDELL PowerVault MD3000. Это система уже имеет активную логику внутри дисковой полки и полностью избыточна за счет использования двух встроенных контроллеров RAID, работающих по схеме «актвиный-активный» и имеющих зеркалированную копию буферизованных в кэш-памяти данных.

Оба контроллера параллельно обрабатывают потоки чтения и записи данных, и в случае неисправности одного из них, второй «подхватывает» данные с соседнего контроллера. При этом подключение к низко уровнему SAS-контроллеру внутри 2-х серверов (кластеру) может производиться по нескольким интерфейсам (MPIO), что обеспечивает избыточность и балансировку нагрузки в средах Microsoft. Для наращивания дискового пространства к PowerVault MD3000 можно подключить 2-е дополнительные дисковые полки MD1000.

Архитектура системы хранения NAS (Network Attached Storage)

Технология NAS (сетевые подсистемы хранения данных, Network Attached Storage) развивается как альтернатива универсальным серверам, несущим множество функций (печати, приложений, факс сервер, электронная почта и т.п.). В отличие от них NAS-устройства исполняют только одну функцию — файловый сервер. И стараются сделать это как можно лучше, проще и быстрее.

NAS подключаются к ЛВС и осуществляют доступ к данным для неограниченного количества гетерогенных клиентов (клиентов с различными ОС) или других серверов. В настоящее время практически все NAS устройства ориентированы на использование в сетях Ethernet (Fast Ethernet, Gigabit Ethernet) на основе протоколов TCP/IP. Доступ к устройствам NAS производится с помощью специальных протоколов доступа к файлам. Наиболее распространенными протоколами файлового доступа являются протоколы CIFS, NFS и DAFS. Внутри подобных серверов стоят специализированные ОС, такие как MS Windows Storage Server.

Рисунок 2: Архитектура Network Attached Storage

  • Дешевизна и доступность его ресурсов не только для отдельных серверов, но и для любых компьютеров организации.
  • Простота коллективного использования ресурсов.
  • Простота развертывания и администрирования
  • Универсальность для клиентов (один сервер может обслуживать клиентов MS, Novell, Mac, Unix)
  • Доступ к информации через протоколы “сетевых файловых систем” зачастую медленнее, чем как к локальному диску.
  • Большинство недорогих NAS-серверов не позволяют обеспечить скоростной и гибкий метод доступа к данным на уровне блоков, присущих SAN системам, а не на уровне файлов.

Примеры моделей NAS

В настоящий момент классические NAS решения, такие как PowerVault NF100/500/600 . Это системы на базе массовых 1 и 2-х процессорных серверов Dell, оптимизированных для быстрого развертывания NAS-сервисов. Они позволяют создавать файловое хранилище вплоть до 10 ТБ (PowerVault NF600) используя SATA или SAS диски, и подключив данный сервер к ЛВС. Также имеются и более высокопроизводительные интегрированные решение, например PowerVault NX1950 , вмещающие в себя 15 дисков и расширяемые до 45 за счет подключения дополнительных дисковых полок MD1000.

Серьезным преимуществом NX1950 является возможность работать не только с файлами, но и с блоками данных на уровне протокола iSCSI. Также разновидность NX1950 может работать как «гейтвэй», позволяющий организовать файловый доступ к СХД на базе iSCSI (c блочным методом доступа), например MD3000i или к Dell EqualLogic PS5x00.

Архитектура системы хранения SAN (Storage Area Network)

Storage Area Network (SAN) — это специальная выделенная сеть, объединяющая устройства хранения данных с серверами приложений, обычно строится на основе протокола Fibre Channel, либо на набирающем обороты протоколу iSCSI. В отличие от NAS, SAN не имеет понятия о файлах: файловые операции выполняются на подключенных к SAN серверах. SAN оперирует блоками, как некий большой жесткий диск. Идеальный результат работы SAN — возможность доступа любого сервера под любой операционной системой к любой части дисковой емкости, находящейся в SAN. Оконечные элементы SAN — это серверы приложений и системы хранения данных (дисковые массивы, ленточные библиотеки и т. п.). А между ними, как и в обычной сети, находятся адаптеры, коммутаторы, мосты, концентраторы. ISCSI является более «дружелюбным» протоколом, поскольку он основан на использовании стандартной инфраструктуры Ethernet – сетевых карт, коммутаторов, кабелей. Более того, именно системы хранения данных на базе iSCSI являются наиболее популярными для виртуализированных серверов, в силу простоты настройки протокола.

Рисунок 3: Архитектура Storage Area Network

  • Высокая надёжность доступа к данным, находящимся на внешних системах хранения. Независимость топологии SAN от используемых СХД и серверов.
  • Централизованное хранение данных (надёжность, безопасность).
  • Удобное централизованное управление коммутацией и данными.
  • Перенос интенсивного трафика ввода-вывода в отдельную сеть, разгружая LAN.
  • Высокое быстродействие и низкая латентность.
  • Масштабируемость и гибкость логической структуры SAN
  • Возможность организации резервных, удаленных СХД и удаленной системы бэкапа и восстановления данных.
  • Возможность строить отказоустойчивые кластерные решения без дополнительных затрат на базе имеющейся SAN.
  • Более высокая стоимость
  • Сложность в настройке FC-систем
  • Необходимость сертификации специалистов по FC-сетям (iSCSI является более простым протоколом)
  • Более жесткие требования к совместимости и валидации компонентов.
  • Появление в силу дороговизны DAS-«островов» в сетях на базе FC-протокола, когда на предприятиях появляются одиночные серверы с внутренним дисковым пространством, NAS-серверы или DAS-системы в силу нехватки бюджета.

Примеры моделей SAN

В настоящий момент имеется достаточно большой выбор дисковых массивов для построения SAN, начиная от моделей для малых и средних предприятий, такие как серия DELL AX, которые позволяют создавать хранилища емкостью до 60 Тбайт, и заканчивая дисковыми массивами для больших корпораций DELL/EMC серии CX4, они позволяют создать хранилища емкостью до 950 Тб. Есть недорогое решение на основе iSCSI, это PowerVault MD3000i – решение позволяет подключать до 16-32 серверов, в одно устройство можно установить до 15 дисков, и расширить систему двумя полками MD1000, создав массив на 45Тб.

Отдельного упоминания заслуживает система Dell EqualLogic на базе протокола iSCSI. Она позиционируется как СХД масштаба предприятия и сравнима по цене с системами Dell | EMC CX4, с модульной архитектурой портов, поддерживающих как FC протокол, так и iSCSI протокол. Система EqualLogic является одноранговой, т.е каждая дисковая полка имеет активные контроллеры RAID. При подключении этих массивов в единую систему, производительность дискового пула плавно растет с ростом доступного объема хранения данных. Система позволяет создать массивы более 500TB, настраивается менее, чем за час, и не требует специализированных знаний администраторов.

Модель лицензирования также отличается от остальных и уже включает в первоначальную стоимость все возможные опции моментальных копий, репликацию и средства интеграции в различные ОС и приложения. Эта система считается одной из наиболее быстрых систем в тестах для MS Exchange (ESRP).

Типы носителей информации и протокол взаимодействия с СХД

Определившись с типом СХД, который Вам наиболее подходит для решения тех или иных задач, необходимо перейти к выбору протокола взаимодействия с СХД и выбору накопителей, которые будут использоваться в системе хранения.

В настоящий момент для хранения данных в дисковых массивах используются SATA и SAS диски. Какие диски выбрать в хранилище зависит от конкретных задач. Стоит отметить несколько фактов.

SATA II диски:

  • Доступны объемы одного диска до 1 ТБ
  • Скорость вращения 5400-7200 RPM
  • Скорость ввода/вывода до 2,4 Гбит/с
  • Время наработки на отказ примерно в два раза меньше чем у SAS дисков.
  • Менее надежные, чем SAS диски.
  • Дешевле примерно в 1,5 раза, чем SAS-диски.
  • Доступны объемы одного диска до 450 ГБ
  • Скорость вращения 7200 (NearLine), 10000 и 15000 RPM
  • Скорость ввода/вывода до 3,0 Гбит/с
  • Время наработки на отказ в два раза больше чем у SATA II дисков.
  • Более надежные диски.

Важно! В прошлом году начался промышленный выпуск SAS дисков с пониженной скоростью вращения – 7200 rpm (Near-line SAS Drive). Это позволило повысить объем хранимых данных на одном диске до 1 ТБ и снизить энергопторебление дисков со скоростным интерфейсом. При том, что стоимость таких дисков сравнима со стоимостью дисков SATA II, а надежность и скорость ввода/вывода осталась на уровне SAS дисков.

Таким образом, в настоящий момент стоит действительно серьезно задуматься над протоколами хранения данных, которые вы собираетесь использовать в рамках корпоративной СХД.

До недавнего времени основными протоколами взаимодействия с СХД являлись – FibreChannel и SCSI. Сейчас на смену SCSI, расширив его функционал, пришли протоколы iSCSI и SAS. Давайте ниже рассмотрим плюсы и минусы каждого из протоколов и соответствующих интерфейсов подключения к СХД.

Протокол Fibre Channel

На практике современный Fibre Channel (FC) имеет скорости 2 Гбит/Сек (Fibre Channel 2 Gb), 4 Гбит/Сек (Fibre Channel 4 Gb) full- duplex или 8 Гбит/Сек, то есть такая скорость обеспечивается одновременно в обе стороны. При таких скоростях расстояния подключения практически не ограничены – от стандартных 300 метров на самом «обычном» оборудовании до нескольких сотен или даже тысяч километров при использовании специализированного оборудования. Главный плюс протокола FC – возможность объединения многих устройств хранения и хостов (серверов) в единую сеть хранения данных (SAN). При этом не проблема распределенности устройств на больших расстояниях, возможность агрегирования каналов, возможность резервирования путей доступа, «горячего подключения» оборудования, большая помехозащищенность. Но с другой стороны мы имеем высокую стоимость, и высокую трудоемкость инсталляции и обслуживания дисковых массивов использующих FC.

Важно! Следует разделять два термина протокол Fibre Channel и оптоволоконный интерфейс Fiber Channel. Протокол Fibre Сhannel может работать на разных интерфейсах — и на оптоволоконном соединении с разной модуляцией, и на медных соединениях.

  • Гибкая масштабируемость СХД;
  • Позволяет создавать СХД на значительных расстояниях (но меньших, чем в случае iSCSI протокола; где, в теории, вся глобальная IP сеть может выступать носителем.
  • Большие возможности резервирования.
  • Высокая стоимость решения;
  • Еще более высокая стоимость при организации FC-сети на сотни или тысячи километров
  • Высокая трудоемкость при внедрении и обслуживании.

Важно! Помимо появления протокола FC8 Гб/c, ожидается появление протокола FCoE (Fibre Channel over Ethernet), который позволит использовать стандартные IP сети для организации обмена пакетами FC.

Протокол iSCSI

Протокол iSCSI (инкапсуляция SCSI пакетов в протокол IP) позволяет пользователям создать сети хранения данных на базе протокола IP с использованием Ethernet-инфраструктуры и портов RJ45. Таким образом, протокол iSCSI дает возможность обойти те ограничения, которыми характеризуются хранилища данных с непосредственным подключением, включая невозможность совместного использования ресурсов через серверы и невозможность расширения емкости без отключения приложений. Скорость передачи на данный момент ограничена 1 Гб/c (Gigabit Ethernet), но данная скорость является достаточной для большинства бизнес-приложений масштаба средних предприятий и это подтверждают многочисленные тесты. Интересно то, что важна не столько скорость передачи данных на одном канале, сколько алгоритмы работы RAID контроллеров и возможность агрегации массивов в единый пул, как в случае с DELL EqualLogic, когда используются по три 1Гб порта на каждом массиве, и идет балансировка нагрузки среди массивов одной группы.

Важно отметить, что сети SAN на базе протокола iSCSI обеспечивают те же преимущества, что и сети SAN с использованием протокола Fibre Channel, но при этом упрощаются процедуры развертывания и управления сетью, и значительно снижаются стоимостные затраты на данную СХД.

  • Высокая доступность;
  • Масштабируемость;
  • Простота администрирования, так как используется технология Ethernet;
  • Более низкая цена организации SAN на протоколе iSCSI, чем на FC.
  • Простота интеграции в среды виртуализации
  • Есть определенные ограничения по использованию СХД с протоколом iSCSI с некоторыми OLAP и OLTP приложениями, с системами Real Time и при работе с большим числом видеопотоков в HD формате
  • Высокоуровневые СХД на базе iSCSI, также как и CХД c FC-протоколом, требуют использования быстрых, дорогостоящих Ethernet-коммутаторов
  • Рекомендуется использование либо выделенных Ethernet коммутаторов, либо организация VLAN для разделения потоков данных. Дизайн сети является не менее важной частью проекта, чем при разработке FC-сетей.

Важно! В скором времени производители обещают выпустить в серийное производство SAN на базе протокола iSCSI с поддержкой скоростей передачи данных до 10 Гб/c. Также готовится финальная версия протокола DCE (Data Center Ethernet), массовое появление устройств, поддерживающих протокол DCE, ожидается к 2011 году.

C точки зрения используемых интерфейсов, протокол iSCSI задействует интерфейсы Ethernet 1Гбит/C, а ими могут быть как медные, так оптоволоконные интерфейсы при работе на больших расстояниях.

Протокол SAS

Протокол SAS и одноименный интерфейс разработаны для замены параллельного SCSI и позволяет достичь более высокой пропускной способности, чем SCSI. Хотя SAS использует последовательный интерфейс в отличие от параллельного интерфейса, используемого традиционным SCSI, для управления SAS-устройствами по-прежнему используются команды SCSI. SAS позволяет обеспечить физическое подключение между массивом данных и несколькими серверами на небольшие расстояния.

  • Приемлемая цена;
  • Легкость консолидации хранилищ – хотя СХД на базе SAS не может подключаться к такому количеству хостов (серверов), как SAN конфигурации которые используют протоколы FC или iSCSI, но при использовании протокола SAS не возникает трудностей с дополнительным оборудованием для организации общего хранилища для нескольких серверов.
  • Протокол SAS позволяет обеспечить большую пропускную способность с помощью 4 канальных соединений внутри одного интерфейса. Каждый канал обеспечивает 3 Гб/c , что позволяет достичь скорости передачи данных 12 Гб/с (в настоящий момент это наивысшая скорость передачи данных для СХД).
  • Ограниченность досягаемости – длинна кабеля не может превышать 8 метров. Тем самым хранилища с подключением по протоколу SAS, будут оптимальны только тогда когда серверы и массивы будут расположены в одной стойке или в одной серверной;
  • Количество подключаемых хостов (серверов) как правило, ограничено несколькими узлами.

Важно! В 2009 году ожидается появление технологии SAS со скоростью передачи данных по одному каналу – 6 Гбит/c, что позволит значительно увеличить привлекательность использования данного протокола.

Сравнение протоколов подключения СХД

Ниже приведена сводная таблица сравнения возможностей различных протоколов взаимодействия с СХД.

Параметр

Протоколы подключения СХД

Архитектура SCSI команды инкапсулируются в IP пакет и передаются через Ethernet, последовательная передача Последовательная передача SCSI команд Коммутируемая
Растояние между дисковым массивом и узлом (сервер или свитч) Ограничено лишь расстоянием IP cетей. Не более 8 метров между устройствами. 50.000 метров без использования специализрованных рипитеров
Масштабируемость Миллионы устройств – при работе по протоколу IPv6. 32 устройства 256 устройств
16 миллионов устройств, если использовать FC-SW (fabric switches) архитектура
Производительность 1 Гб/с (планируется развитие до 10 Гб/с) 3 Гб/с при использовании 4х портов, до 12 Гб/с (в 2009 году до 6 Гб/с по одному порту) До 8 Гб/с
Уровень вложений (затрат на внедрение) Незначительный – используется Ethernet Средний Значительный

Таким образом, представленные решения на первый взгляд достаточно четко разделяются по соответствию требованиям заказчиков. Однако на практике все не так однозначно, включаются дополнительные факторы в виде ограничений по бюджетам, динамики развития организации (и динамики увеличения объема хранимой информации), отраслевая специфика и т.д.

SAN Коммутаторы (SAN switches)

SAN коммутаторы используются в качестве центрального коммутирующего устройства для узлов сети SAN. Вы вставляете один конец оптического кабеля в разъем на адаптере вашего сервера или контроллере дискового массива, а другой в порт на коммутаторе. Коммутатор можно сравнить с набором проводов, которые скроссированы таким образом, чтобы позволить каждому устройству сети «говорить» по одному проводу с любым другим устройством сети одновременно. Т.е, иными словами все абоненты могут разговаривать одновременно.
Один или несколько коммутаторов, соединенных между собой образуют фабрику. Одна фабрика может состоять из одного или нескольких коммутаторов (до 239 в настоящее время). Поэтому, фабрику можно определить как сеть, состоящую из соединенных между собой коммутаторов. SAN может состоять из нескольких фабрик. Большинство SAN состоит по крайне мере из двух фабрик, одна из которых является резервной.
Вы можете подключить серверы и хранилища к SAN используя один коммутатор, но правилом хорошего тона является использование двух коммутаторов, дабы избежать потерю данных и простои при выходе из строя одного из них. На рисунке 1 показана обычная фабрика, использующая два коммутатора для соединения серверов с дисковым массивом.

Рис 1. Простейшая фабрика с использованием 2-х коммутаторов.

С увеличением количества серверов и хранилищ в вашей SAN вы просто добавляете коммутаторы.

Рис 2. Расширение SAN Fabric

Модульные или обычные коммутаторы (modular switches)

SAN коммутаторы бывают на любой вкус от 8 до сотен портов. Большинство модульных коммутаторов поставляется с 8 или 16 портами. Последним веянием является возможность наращивать количество портов на приобретенном коммутаторе с инкрементом 4. Типичным примером такого коммутатора может служить Qlogic SANbox 5200 (рис. 3). Этот продукт вы можете приобрести с 8-ю портами в базе, и наращивать затем до 16 в одном модуле и до 64 портов (!) в четырех модулях, соединяемых между собой 10 гигабитным FC.

Рис 3. Qlogic SANbox 5200 - четырехмодульный стек с 64 портами

Директоры или коммутаторы класса предприятия (director switches)

Директоры на много дороже модульных коммутаторов и обычно содержат сотни портов (рис. 4). Директоры можно увидеть в центре очень больших коммутированных фабрик в качестве ядра сети. Директоры обладают исключительной отказоустойчивостью и поддерживают работоспособность всей инфраструктуры 24 часа в сутки, 7 дней в неделю. Они позволяют осуществлять регламентные работы и замену модулей «на лету».

Рис. 4. SilkWorm 1200 128 port и McData InterPid 6140

Директор состоит из платформы, модулей портов горячей замены (обычно 12 или 16 портов) и процессорных модулей горячей замены (обычно двухпроцессорных). Директор можно приобрести с 32 портами и наращивать его до 128 – 140 портов.
В корпоративных сетях SAN обычно используют директоры в качестве ядра сети. К ним подключают модульные коммутаторы в качестве оконечных (граничных) коммутаторов. К тем, в свою очередь подключают серверы и хранилища. Такая топология называется ядро-граница (core-to-edge topology) и позволяет масштабировать сеть до тысяч портов (рис. 5).

Рис. 5. Топология ядро-граница с использованием директоров.


SAN маршрутизаторы или мультипротокльные коммутаторы (multiprotocol switches)

SAN маршрутизаторы служат для соединения удаленных островков SAN в единую сеть для решения задач защиты от катастроф, консолидации ресурсов хранения, организации процедур back-up данных удаленных подразделений на ленточные и дисковые ресурсы головного центра данных и т.д (рис 6.). Объединение удаленных сетей SAN в единый ресурс это следующий шаг в эволюции сетей хранения данных после внедрения SAN в головной структуре и подразделениях предприятий (рис. 7).

Рис. 6: McDATA Eclipse 1620, 3300 и 4300

Рис. 7: Объединение удаленных сетей SAN в единый ресурс

Островки SAN можно соединить, используя протокол FC и обычные модульные коммутаторы или директоры, через одномодовый оптический кабель (single mode cable или dark fiber) или же используя оборудование мультиплексирования (DWDM). Однако такой метод не позволит вам выйти за рамки города (радиус 70 км.). Для большего удаления понадобится протокол Fiber Channel over IP (FCIP, http://www.iscsistorage.com/ipstorage.htm), реализованный в маршрутизаторах Eclipse компании McData (рис. 6). FCIP «заворачивает» каждый кадр FC в пакет IP для транспорта через сеть IP. Принимающая сторона распаковывает пакет IP и достает оттуда оригинальный кадр FC для дальнейшей передачи уже по локальной сети FC. Здесь расстояния не ограничены. Все дело лишь в скорости вашего канала IP.

Типы FC кабелей

В качестве физической среды передачи данных в сетях FC используют оптоволоконный или медный кабель. Медный кабель представляет собой витую пару в оболочке и использовался в основном для местных подключений в сетях FC 1Gbit/s. В современных сетях FC 2Gbit/s в основном используется оптоволоконный кабель.
Существует два вида оптоволоконного кабеля: одномодовый и многомодовый.

Одномодовый кабель (long wave)

В одномодовом кабеле (SM) существует единственный путь распространения световой волны. Размер сердцевины (core size) обычно составляет 8.3 мк. Одномодовые кабели используются в устройствах, в которых требуется низкий уровень исчезновения (потери) сигнала и высокая скорость передачи данных, например на больших интервалах между двумя системами или сетевыми устройствами. Например, между сервером и хранилищем, расстояние между которыми, несколько десятков километров.

Максимальное расстояние между двумя узлами сети FC 2Gbit, соединенных одномодовым кабелем 80км без повторителей.

Многомодовый кабель (short wave)

Многомодовый кабель (MM) способен передавать по одному волокну несколько световых волн, так как относительно большой размер сердцевины позволяет свету распространяться под различными углами (рефракция). Типичными размерами сердцевины для MM являются 50 мк и 62.5 мк. Многомодовые волоконные соединения лучше всего подходят для устройств, работающих на небольших расстояниях. Внутри офиса, здания.

Максимальное расстояние на которое многомодовый кабель поддерживает скорость 2 Gbit/s – 300 (50um) и 150м (62,5 um).

Типы разъемов FC кабелей (Cable connector types)

Разъемы FC кабелей бывают:

Типы трансиверов (GBIC types)

Устройства для преобразования света в электрический сигнал и наоборот, называют трансиверами. Их еще называют GBIC (Gigabit Interface Connectors). Трансивер находится на плате FC адаптера (FC HBA), обычно он впаян в нее, в свитче - в виде съемного модуля (см. рис.) и на устройстве хранения в том или ином виде.

Трансиверы бывают:


SFP-LC HSSDC2

Cъемные модули трансиверов (SFP)

HSSDC2 : для 1/2Gbit FC для медного кабеля
SFP-LC : (Small Form Factor Pluggable LC) 1/2Gbit FC Short/Long wave для оптоволоконного кабеля с LC коннектором
SFP-SC : (Small Form Factor Pluggable SC) 1/2Gbit FC Short/Long wave для оптоволоконного кабеля с SC коннектором

Если вы управляете своей собственной инфраструктурой в своем собственном центре обработки данных, вы должны пройти выбор различных предложений для хранения. Выбор решения для хранения данных в значительной степени зависит от вашего требования. Перед окончательной доработкой определенного варианта хранения для вашего случая использования немного полезно понимание технологии.

Я на самом деле собирался написать статью об хранении объектов (которая является самой актуальной опцией хранения в облаке). Но прежде чем идти и обсуждать эту часть арены хранения, я подумал, что лучше обсудить два основных метода хранения, которые совместно существуют вместе с очень долгое время, которые используются компаниями внутри страны для их нужд.

Решение вашего типа хранилища будет зависеть от многих факторов, таких как приведенные ниже.

  • Тип данных, которые вы хотите сохранить
  • Схема использования
  • Масштабирование
  • Наконец, ваш бюджет

Когда вы начинаете свою карьеру в качестве системного администратора, вы часто слышите, как ваши коллеги рассказывают о различных методах хранения, таких как SAN, NAS, DAS и т.д. И без небольшого рытья вы должны путаться с разными условиями хранения. Путаница возникает часто из-за сходства между различными подходами к хранению. Единственное твердое и быстрое правило оставаться в курсе технических терминов — продолжать читать материалы (особенно концепции, лежащие в основе определенной технологии).

Сегодня мы обсудим два разных метода, которые определяют структуру хранилища в вашей среде. Ваш выбор из двух в вашей архитектуре должен зависеть только от вашего варианта использования и типа данных, которые вы храните.

В конце этого урока я надеюсь, что у вас будет четкое представление о двух основных методах хранения и о том, что выбрать для ваших нужд.

SAN (сеть хранения данных) и NAS (сетевое хранилище)

Ниже приводятся основные отличия каждой из этих технологий.

  • Как хранилище подключено к системе. Короче, как делается соединение между системой доступа и компонентом хранения (напрямую подключенным или подключенным к сети)
  • Тип кабеля, используемый для подключения. Короче говоря, это тип кабелей для подключения системы к компоненту хранения (например, Ethernet и Fibre Channel)
  • Как выполняются запросы ввода и вывода. Короче говоря, это протокол, используемый для выполнения запросов ввода и вывода (например, SCSI, NFS, CIFS и т.д.)

Давайте обсудим SAN сначала, а затем NAS, и в конце давайте сравним каждую из этих технологий, чтобы очистить различия между ними.

SAN (сеть хранения)

Сегодняшние приложения очень ресурсоемкие, из-за запросов, которые необходимо обрабатывать одновременно в секунду. Возьмите пример веб-сайта электронной коммерции, где тысячи людей делают заказы в секунду, и все они должны быть правильно сохранены в базе данных для последующего поиска. Технология хранения, используемая для хранения таких баз данных с высоким трафиком, должна быть быстрой в обслуживании и ответе запросов (вкратце, это должно быть быстрым на входе и выходе).

В таких случаях (когда вам нужна высокая производительность и быстрый ввод-вывод), мы можем использовать SAN.

SAN — это не что иное, как высокоскоростная сеть, которая делает соединения между устройствами хранения и серверами.

Традиционно серверы приложений использовали свои собственные устройства хранения, прикрепленные к ним. Разговор с этими устройствами с помощью протокола, известного как SCSI (Small Computer System Interface). SCSI — это не что иное, как стандарт, используемый для связи между серверами и устройствами хранения. Все обычные жесткие диски, ленточные накопители и т.д. Используют SCSI. Вначале требования к хранилищу сервера выполнялись устройствами хранения, которые были включены внутри сервера (сервер, используемый для разговора с этим внутренним устройством хранения данных, используя SCSI. Это очень похоже на то, как обычный рабочий стол разговаривает с его внутренним жесткий диск.).

Такие устройства, как компакт-диски, подключаются к серверу (который является частью сервера) с использованием SCSI. Основным преимуществом SCSI для подключения устройств к серверу была его высокая пропускная способность. Хотя этой архитектуры достаточно для низких требований, существует несколько ограничений, таких как приведенные ниже.

  • Сервер может получать доступ только к данным на устройствах, которые непосредственно привязаны к нему.
    Если что-то случится с сервером, доступ к данным завершится неудачно (поскольку устройство хранения является частью сервера и подключено к нему с использованием SCSI)
  • Ограничение количества устройств хранения, к которым может получить доступ сервер. В случае, если серверу требуется больше места для хранения, не будет больше места, которое можно подключить, поскольку шина SCSI может вместить только конечное число устройств.
  • Кроме того, сервер, использующий хранилище SCSI, должен находиться рядом с устройством хранения (поскольку параллельный SCSI, который является обычной реализацией на большинстве компьютеров и серверов, имеет некоторые ограничения на расстояние, он может работать до 25 метров).

Некоторые из этих ограничений можно преодолеть с помощью DAS (непосредственно привязанного хранилища). Смарт, используемый для прямого подключения хранилища к серверу, может быть любым из каналов SCSI, Ethernet, Fiber и т. Д.). Низкая сложность, низкие инвестиции, простота в развертывании привела к тому, что DAS были приняты многими для нормальных требований. Решение было хорошим даже с точки зрения производительности, если оно используется с более быстрыми средами, такими как волоконный канал.

Даже внешний USB-накопитель, подключенный к серверу, также является DAS (хорошо концептуально его DAS, так как он непосредственно подключен к USB-шине сервера). Но USB-накопители обычно не используются из-за ограничения скорости шины USB. Обычно для тяжелых и больших систем хранения данных DAS используется носитель SAS (последовательно подключенный SCSI). Внутренне устройство хранения данных может использовать RAID (что обычно имеет место) или что-либо, чтобы обеспечить объемы хранения на серверах. В настоящее время параметры хранения SAS обеспечивают скорость 6 Гбит / с.

Примером устройства хранения данных DAS является MD1220 от Dell.

На сервере хранилище DAS будет очень похоже на собственный накопитель или внешний накопитель, который вы подключили.

Хотя DAS хорош для нормальных потребностей и дает хорошую производительность, существуют такие ограничения, как количество серверов, которые могут получить к нему доступ. Храните устройство или скажем, что хранилище DAS должно находиться рядом с сервером (в той же стойке или в пределах допустимого расстояния используемого носителя).

Можно утверждать, что непосредственно прикрепленное хранилище (DAS) работает быстрее, чем любые другие методы хранения. Это связано с тем, что он не связан с некоторыми издержками передачи данных по сети (вся передача данных происходит на выделенном соединении между сервером и устройством хранения. В основном его последовательно подключен SCSI или SAS). Однако из-за последних улучшений в волоконном канале и других механизмах кэширования SAN также обеспечивает лучшую скорость, подобную DAS, и в некоторых случаях превосходит скорость, предоставляемую DAS.

Прежде чем войти в SAN, давайте разобраться в нескольких типах и методах мультимедиа, которые используются для соединения устройств хранения данных (когда я говорю о устройствах хранения данных, пожалуйста, не рассматривайте его как один жесткий диск. Возьмите его как массив дисков, возможно, на каком-то уровне RAID. Считайте это чем-то вроде Dell MD1200).

Что такое SAS (Serial Attached SCSI), FC (Fibre Channel) и iSCSI (Internet Small Computer System Interface)?

Традиционно устройства SCSI, такие как внутренний жесткий диск, подключаются к общей параллельной шине SCSI. Это означает, что все подключенные устройства будут использовать одну и ту же шину для отправки / получения данных. Но совместные параллельные соединения не очень хороши для высокой точности и создают проблемы при высокоскоростных передачах. Однако последовательное соединение между устройством и сервером может увеличить общую пропускную способность передачи данных. SAS между устройствами хранения и серверами использует выделенный 300 МБ / сек на диск. Подумайте о шине SCSI, которая имеет одинаковую скорость для всех подключенных устройств.

SAS использует одни и те же команды SCSI для отправки и приема данных с устройства. Также, пожалуйста, не думайте, что SCSI используется только для внутреннего хранилища. Он также используется для подключения внешнего устройства хранения к серверу.

Если производительность передачи данных и надежность являются выбором, то использование SAS — лучшее решение. С точки зрения надежности и частоты ошибок диски SAS намного лучше по сравнению со старыми дисками SATA. SAS был разработан с учетом производительности, благодаря которой он является полнодуплексным. Это означает, что данные могут быть отправлены и приняты одновременно с устройства, использующего SAS. Также один хост-порт SAS может подключаться к нескольким дискам SAS с использованием расширителей. SAS использует передачу данных точка-точка, используя последовательную связь между устройствами (устройствами хранения, такими как дисковые накопители и дисковые массивы) и хостами.

Первое поколение SAS обеспечило скорость 3Gb / s. Второе поколение SAS улучшило это до 6 Гбит / с. И третье поколение (которое в настоящее время используется многими организациями для экстремально высокой пропускной способности) улучшило это до 12 Гбит / с.

Протокол Fibre Channel

Fibre Channel — относительно новая технология межсоединений, используемая для быстрой передачи данных. Основная цель его конструкции — обеспечить передачу данных с более высокими скоростями с очень низкой / незначительной задержкой. Он может использоваться для соединения рабочих станций, периферийных устройств, массивов хранения и т. Д.

Основным фактором, который отличает оптоволоконный канал от другого метода соединения, является то, что он может управлять как сетью, так и связью ввода-вывода по одному каналу с использованием одних и тех же адаптеров.

ANSI (Американский национальный институт стандартов) стандартизовал канал Fiber в течение 1988 года. Когда мы говорим, что Fiber (в канале Fiber) не думает, что он поддерживает только среду оптического волокна. Fiber — термин, используемый для любого носителя, используемого для соединения по протоколу волоконного канала. Вы даже можете использовать медный провод для более низкой стоимости.

Обратите внимание на то, что стандарт волоконных каналов от ANSI поддерживает сетевое взаимодействие, хранение и передачу данных. Канал Fiber не знает тип данных, которые вы передаете. Он может отправлять команды SCSI, инкапсулированные в кадр волоконного канала (у него нет собственных команд ввода-вывода для отправки и получения памяти). Основное преимущество заключается в том, что он может включать широко распространенные протоколы, такие как SCSI и IP внутри.

Ниже перечислены компоненты соединения волоконного канала. Требование ниже минимально для достижения одноточечного соединения. Обычно это может использоваться для прямого соединения между массивом хранения и хостом.

  • HBA (адаптер основной шины) с портом Fibre Channel
  • Драйвер для карты HBA
  • Кабели для соединения устройств в канале волоконно-оптического канала HBA

Как упоминалось ранее, протокол SCSI инкапсулируется внутри волоконного канала. Таким образом, обычно данные SCSI должны быть изменены в другом формате, который волоконный канал может доставить в пункт назначения. И когда получатель получает данные, он передает его на SCSI.

Возможно, вы думаете, почему нам нужно это сопоставление и переназначение, почему мы не можем напрямую использовать SCSI для доставки данных. Это связано с тем, что SCSI не может доставлять данные на большие расстояния до большого количества устройств (или большого количества хостов).

Канал волокна можно использовать для соединения систем до 10 км (если они используются с оптическими волокнами, вы можете увеличить это расстояние за счет наличия повторителей между ними). И вы также можете передавать данные в размере 30 м с использованием медного провода для снижения стоимости в канале волокна.

С появлением коммутаторов оптоволоконных каналов от множества крупных поставщиков, подключение большого количества устройств хранения и серверов стало легкой задачей (при условии, что у вас есть бюджет для инвестиций). Сетевая способность волоконного канала привела к передовому внедрению SAN (Storage Area Networks) для быстрого, долгого и надежного доступа к данным. Большая часть вычислительной среды (которая требует быстрой передачи больших объемов данных) использует волоконно-оптический канал SAN с оптоволоконными кабелями.

Текущий стандарт волоконного канала (называемый 16GFC) может передавать данные со скоростью 1600 МБ / с (не забывайте, что этот стандарт был выпущен в 2011 году). Ожидается, что предстоящие стандарты в ближайшие годы обеспечат скорость 3200 Мбайт / с и 6400 Мбайт / с.

Интерфейс iSCSI (интерфейс для работы с малыми компьютерами)

iSCSI — это не что иное, как стандарт на основе IP для соединения массивов и узлов хранения. Он используется для переноса трафика SCSI через IP-сети. Это самое простое и дешевое решение (хотя и не лучшее) для подключения к запоминающему устройству.

Это отличная технология для хранения, не зависящего от местоположения. Поскольку он может установить соединение с устройством хранения данных с использованием локальных сетей, глобальной сети. Его стандарт межсетевого взаимодействия с сетью хранения. Он не требует специальных кабелей и оборудования, как в случае сети волоконных каналов.

Для системы, использующей массив хранения с iSCSI, хранилище отображается как локально подключенный диск. Эта технология появилась после волоконного канала и была широко принята благодаря низкой стоимости.

Это сетевой протокол, который выполняется поверх TCP / IP. Вы можете догадаться, что это не очень хорошая производительность по сравнению с оптоволоконным каналом (просто потому, что все работает по TCP без специального оборудования и изменений в вашей архитектуре).

iSCSI вводит немного нагрузки на процессор на сервере, потому что сервер должен выполнять дополнительную обработку для всех запросов на хранение по сети с помощью обычного TCP.

iSCSI имеет следующие недостатки, по сравнению с оптоволоконным каналом

  • iSCSI вводит немного больше латентности по сравнению с оптоволоконным каналом из-за накладных расходов на заголовки IP
  • Приложения базы данных имеют небольшие операции чтения и записи, которые, когда они выполняются на iSCSI,
    iSCSI, когда выполняется в той же локальной сети, которая содержит другой обычный трафик (другой инфраструктурный трафик, отличный от iSCSI), приведет к задержке чтения / записи или низкой производительности.
  • Максимальная скорость / пропускная способность ограничена скоростью вашего Ethernet и сети. Даже если вы объединяете несколько ссылок, он не масштабируется до уровня волоконного канала.

NAS (сетевое хранилище)

Простейшим определением NAS является «Любой сервер, который имеет собственное хранилище с другими в сети и выступает в качестве файлового сервера, является самой простой формой NAS».

Пожалуйста, обратите внимание на то, что Network Attached Storage совместно использует файлы по сети. Не устройство хранения данных по сети.

NAS будет использовать Ethernet-соединение для обмена файлами по сети. Устройство NAS будет иметь IP-адрес, а затем будет доступно через сеть через этот IP-адрес. Когда вы получаете доступ к файлам на файловом сервере в вашей системе Windows, это в основном NAS.

Основное различие заключается в том, как ваш компьютер или сервер обрабатывает конкретное хранилище. Если компьютер рассматривает хранилище как часть себя (подобно тому, как вы присоединяете DAS к вашему серверу), другими словами, если процессор сервера отвечает за управление прикрепленным хранилищем, это будет своего рода DAS. И если компьютер / сервер рассматривает хранилище, прикрепленное как другой компьютер, который делится своими данными через сеть, то это NAS.

Прямо подключенное хранилище (DAS) можно рассматривать как любое другое периферийное устройство, такое как клавиатура мыши и т. Д. Так как сервер / компьютер — это прямое устройство хранения данных. Однако NAS — это еще один сервер или сказать, что оборудование имеет свои собственные вычислительные функции, которые могут совместно использовать собственное хранилище с другими.

Даже SAN-хранилище также можно рассматривать как оборудование, имеющее собственную вычислительную мощность. Таким образом, основное различие между NAS, SAN и DAS заключается в том, как видит сервер / компьютер. Устройство хранения данных DAS появляется на сервере как часть самого себя. Сервер видит его как свою физическую часть. Хотя хранилище DAS не может находиться внутри сервера (обычно это другое устройство со своим собственным массивом хранения), сервер видит его как свою внутреннюю часть (хранилище DAS появляется на сервере как собственное внутреннее хранилище)

Когда мы говорим о NAS, нам нужно назвать их акциями, а не устройствами хранения. Поскольку NAS появляется на сервере как общая папка вместо общего устройства по сети. Не забывайте, что NAS-устройства сами по себе являются компьютерами, которые могут делиться своим хранилищем с другими. Когда вы совместно используете папку с контролем доступа, используя SAMBA, ее NAS.

Хотя NAS — более дешевый вариант для ваших потребностей в хранении. Это действительно не подходит для высокопроизводительного приложения уровня предприятия. Никогда не думайте об использовании хранилища баз данных (которое должно быть высокопроизводительным) с NAS. Основным недостатком использования NAS является проблема с производительностью и зависимость от сети (в большинстве случаев LAN, которая используется для обычного трафика, также используется для совместного использования хранилища с NAS, что делает его более перегруженным).

Когда вы совместно экспортируете NFS по сети, это также форма NAS.

NAS — это не что иное, как устройство / equipmet / server, подключенное к сети TCP / IP, которое имеет собственное хранилище с другими. Если вы копаете немного глубже, когда запрос на чтение / запись файла отправляется на общий ресурс NAS, подключенный к серверу, запрос отправляется в виде систем CIFS (общая интернет-файловая система) или NFS (Network File System) сеть. Принимающая сторона (устройство NAS) при приеме запроса NFS, CIFS затем преобразует его в набор команд локального хранилища ввода-вывода. Именно по этой причине NAS-устройство имеет собственную вычислительную мощность.

Таким образом, NAS — это хранилище на уровне файлов (поскольку в основном это технология обмена файлами). Это связано с тем, что он скрывает фактическую файловую систему под капотом. Это дает пользователям интерфейс для доступа к его общей памяти с помощью NFS или CIFS.

Общее использование NAS, которое вы можете найти, — предоставить каждому пользователю домашний каталог. Эти домашние каталоги хранятся на устройстве NAS и монтируются на компьютер, где пользователь входит в систему. Поскольку домашний каталог доступен в сети, пользователь может входить в систему с любого компьютера в сети.

Преимущества NAS

  • NAS имеет менее сложную архитектуру по сравнению с SAN
  • Его дешевле развертывать в существующей архитектуре.
  • В вашей архитектуре не требуется никаких изменений, так как обычная сеть TCP / IP является единственным требованием

Недостатки NAS

  • NAS медленный
  • Низкая пропускная способность и высокая латентность, благодаря чему ее нельзя использовать для высокопроизводительных приложений

Возвращение в SAN

Теперь давайте вернемся к обсуждению SAN (сети хранения данных), которые мы начали ранее в начале.

Первой и самой важной задачей для понимания SAN (помимо того, что мы уже обсуждали в начале) является тот факт, что это решение для хранения на уровне блоков. И SAN оптимизирован для большого объема передачи данных уровня блока. SAN лучше всего работает при использовании со средой волоконного канала (оптические волокна и коммутатор волоконного канала).

Название «Сеть хранения данных» подразумевает, что хранилище находится в собственной выделенной сети. Хосты могут подключать устройство хранения к себе, используя либо Fibre Channel, сеть TCP / IP (SAN использует iSCSI при использовании по сети tcp / ip).

SAN можно рассматривать как технологию, которая сочетает в себе лучшие функции как DAS, так и NAS. Если вы помните, DAS появляется на компьютере как свое собственное устройство хранения данных и хорошо известно, DAS также является решением для хранения на уровне блоков (если вы помните, мы никогда не говорили о CIFS или NFS во время DAS). NAS известен своей гибкостью, основным доступом через сеть, контролем доступа и т.д. SAN сочетает в себе лучшие возможности обоих этих миров, потому что…

  • SAN-хранилище также появляется на сервере как свое собственное устройство хранения данных
  • Его решение для хранения на уровне блоков
  • Хорошая производительность / скорость
  • Сетевые функции с использованием iSCSI

SAN и NAS не являются конкурирующими технологиями, но предназначены для различных нужд и задач. Поскольку SAN представляет собой решение для хранения на уровне блоков, оно наилучшим образом подходит для хранения данных с высокой производительностью, хранения электронной почты и т. Д. Большинство современных решений SAN обеспечивают зеркалирование диска, архивирование функций резервного копирования и репликации.

SAN представляет собой выделенную сеть устройств хранения (может включать в себя накопители на магнитных лентах, массивы RAID-массивов и т. Д.), Которые работают вместе, чтобы обеспечить превосходное хранение на уровне блоков. В то время как NAS — это одно устройство / сервер / вычислительное устройство, он использует собственное хранилище по сети.

Основные отличия между SAN и NAS

SAN NAS
Доступ к данным на уровне блоков Доступ к данным уровня файла
Канал Fiber является основным носителем, используемым с SAN. Ethernet — это основной носитель, используемый с NAS
SCSI является основным протоколом ввода-вывода NFS / CIFS используется в качестве основного протокола ввода-вывода в NAS
Хранилище SAN отображается на компьютере как собственное хранилище Загрузки NAS в качестве общей папки на компьютер
Он может иметь отличную скорость и производительность при использовании со световодами Иногда это может ухудшить производительность, если сеть используется и для других вещей (что обычно имеет место)
Используется, главным образом, для хранения данных уровня более высокого уровня производительности Используется для небольших операций чтения и записи на большие расстояния

В простейшем случае SAN состоит из СХД , коммутаторов и серверов, объединённых оптическими каналами связи. Помимо непосредственно дисковых СХД в SAN можно подключить дисковые библиотеки, ленточные библиотеки (стримеры), устройства для хранения данных на оптических дисках (CD/DVD и прочие) и др.

Пример высоконадёжной инфраструктуры, в которой серверы включены одновременно в локальную сеть (слева) и в сеть хранения данных (справа). Такая схема обеспечивает доступ к данным, находящимся на СХД, при выходе из строя любого процессорного модуля, коммутатора или пути доступа.

Использование SAN позволяет обеспечить:

  • централизованное управление ресурсами серверов и систем хранения данных ;
  • подключение новых дисковых массивов и серверов без остановки работы всей системы хранения;
  • использование ранее приобретенного оборудования совместно с новыми устройствами хранения данных;
  • оперативный и надежный доступ к накопителям данных, находящимся на большом расстоянии от серверов, *без значительных потерь производительности;
  • ускорение процесса резервного копирования и восстановления данных - BURA .

История

Развитие сетевых технологий привело к появлению двух сетевых решений для СХД – сетей хранения Storage Area Network (SAN) для обмена данными на уровне блоков, поддерживаемых клиентскими файловыми системами, и серверов для хранения данных на файловом уровне Network Attached Storage (NAS). Чтобы отличать традиционные СХД от сетевых был предложен еще один ретроним – Direct Attached Storage (DAS).

Появлявшиеся на рынке последовательно DAS, SAN и NAS отражают эволюционирующие цепочки связей между приложениями, использующими данные, и байтами на носителе, содержащим эти данные. Когда-то сами программы-приложения читали и писали блоки, затем появились драйверы как часть операционной системы. В современных DAS, SAN и NAS цепочка состоит из трех звеньев: первое звено – создание RAID-массивов, второе – обработка метаданных, позволяющих интерпретировать двоичные данные в виде файлов и записей, и третье – сервисы по предоставлению данных приложению. Они различаются по тому, где и как реализованы эти звенья. В случае с DAS СХД является «голой», она только лишь предоставляет возможность хранения и доступа к данным, а все остальное делается на стороне сервера, начиная с интерфейсов и драйвера. С появлением SAN обеспечение RAID переносится на сторону СХД, все остальное остается так же, как в случае с DAS. А NAS отличается тем, что в СХД переносятся к тому же и метаданные для обеспечения файлового доступа, здесь клиенту остается только лишь поддерживать сервисы данных.

Появление SAN стало возможным после того, как в 1988 году был разработан протокол Fibre Channel (FC) и в 1994 утвержден ANSI как стандарт. Термин Storage Area Network датируется 1999 годом. Со временем FC уступил место Ethernet, и получили распространение сети IP-SAN с подключением по iSCSI.

Идея сетевого сервера хранения NAS принадлежит Брайану Рэнделлу из Университета Ньюкэстла и реализована в машинах на UNIX-сервере в 1983 году. Эта идея оказалась настолько удачной, что была подхвачена множеством компаний, в том числе Novell, IBM , и Sun, но в конечном итоге сменили лидеров NetApp и EMC.

В 1995 Гарт Гибсон развил принципы NAS и создал объектные СХД (Object Storage, OBS). Он начал с того, что разделил все дисковые операции на две группы, в одну вошли выполняемые более часто, такие как чтение и запись, в другую более редкие, такие как операции с именами. Затем он предложил в дополнение к блокам и файлам еще один контейнер, он назвал его объектом.

OBS отличается новым типом интерфейса, его называют объектным. Клиентские сервисы данных взаимодействуют с метаданными по объектному API (Object API). В OBS хранятся не только данные, но еще и поддерживается RAID, хранятся метаданные, относящиеся к объектам и поддерживается объектный интерфейс. DAS, и SAN, и NAS, и OBS сосуществуют во времени, но каждый из типов доступа в большей мере соответствует определенному типу данных и приложений.

Архитектура SAN

Топология сети

SAN является высокоскоростной сетью передачи данных, предназначенной для подключения серверов к устройствам хранения данных. Разнообразные топологии SAN (точка-точка, петля с арбитражной логикой (Arbitrated Loop) и коммутация) замещают традиционные шинные соединения «сервер - устройства хранения» и предоставляют по сравнению с ними большую гибкость, производительность и надежность. В основе концепции SAN лежит возможность соединения любого из серверов с любым устройством хранения данных, работающим по протоколу Fibre Channel . Принцип взаимодействия узлов в SAN c топологиями точка-точка или коммутацией показан на рисунках. В SAN с топологией Arbitrated Loop передача данных осуществляется последовательно от узла к узлу. Для того, чтобы начать передачу данных передающее устройство инициализирует арбитраж за право использования среды передачи данных (отсюда и название топологии – Arbitrated Loop).

Транспортную основу SAN составляет протокол Fibre Channel, использующий как медные, так и волоконно-оптические соединения устройств.

Компоненты SAN

Компоненты SAN подразделяются на следующие:

  • Ресурсы хранения данных;
  • Устройства, реализующие инфраструктуру SAN;

Host Bus Adaptors

Ресурсы хранения данных

К ресурсам хранения данных относятся дисковые массивы , ленточные накопители и библиотеки с интерфейсом Fibre Channel . Многие свои возможности ресурсы хранения реализуют только будучи включенными в SAN. Так дисковые массивы высшего класса могут осуществлять репликацию данных между масcивами по сетям Fibre Channel, а ленточные библиотеки могут реализовывать перенос данных на ленту прямо с дисковых массивов с интерфейсом Fibre Channel, минуя сеть и серверы (Serverless backup). Наибольшую популярность на рынке приобрели дисковые массивы компаний EMC , Hitachi , IBM , Compaq (семейство Storage Works , доставшееся Compaq от Digital), а из производителей ленточных библиотек следует упомянуть StorageTek , Quantum/ATL , IBM .

Устройства, реализующие инфраструктуру SAN

Устройствами, реализующими инфраструктуру SAN, являются коммутаторы Fibre Channel (Fibre Channel switches , FC switches),концентраторы (Fibre Channel Hub) и маршрутизаторы (Fibre Channel-SCSI routers).Концентраторы используются для объединения устройств, работающих в режиме Fibre Channel Arbitrated Loop (FC_AL). Применение концентраторов позволяет подключать и отключать устройства в петле без остановки системы, поскольку концентратор автоматически замыкает петлю в случае отключения устройства и автоматически размыкает петлю, если к нему было подключено новое устройство. Каждое изменение петли сопровождается сложным процессом её инициализации . Процесс инициализации многоступенчатый, и до его окончания обмен данными в петле невозможен.

Все современные SAN построены на коммутаторах, позволяющих реализовать полноценное сетевое соединение. Коммутаторы могут не только соединять устройства Fibre Channel , но и разграничивать доступ между устройствами, для чего на коммутаторах создаются так называемые зоны. Устройства, помещенные в разные зоны, не могут обмениваться информацией друг с другом. Количество портов в SAN можно увеличивать, соединяя коммутаторы друг с другом. Группа связанных коммутаторов носит название Fibre Channel Fabric или просто Fabric. Связи между коммутаторами называют Interswitch Links или сокращенно ISL.

Программное обеспечение

Программное обеспечение позволяет реализовать резервирование путей доступа серверов к дисковым массивам и динамическое распределение нагрузки между путями. Для большинства дисковых массивов существует простой способ определить, что порты, доступные через разные контроллеры , относятся к одному диску. Специализированное программное обеспечение поддерживает таблицу путей доступа к устройствам и обеспечивает отключение путей в случае аварии, динамическое подключение новых путей и распределение нагрузки между ними. Как правило, изготовители дисковых массивов предлагают специализированное программное обеспечение такого типа для своих массивов. Компания VERITAS Software производит программное обеспечение VERITAS Volume Manager , предназначенное для организации логических дисковых томов из физических дисков и обеспечивающее резервирование путей доступа к дискам, а также распределение нагрузки между ними для большинства известных дисковых массивов.

Используемые протоколы

В сетях хранения данных используются низкоуровневые протоколы:

  • Fibre Channel Protocol (FCP), транспорт SCSI через Fibre Channel. Наиболее часто используемый на данный момент протокол . Существует в вариантах 1 Gbit/s, 2 Gbit/s, 4 Gbit/s, 8 Gbit/s и 10 Gbit/s.
  • iSCSI , транспорт SCSI через TCP/IP .
  • FCoE , транспортировка FCP/SCSI поверх "чистого" Ethernet.
  • FCIP и iFCP , инкапсуляция и передача FCP/SCSI в пакетах IP.
  • HyperSCSI , транспорт SCSI через Ethernet .
  • FICON транспорт через Fibre Channel (используется только мейнфреймами).
  • ATA over Ethernet , транспорт ATA через Ethernet.
  • SCSI и/или TCP/IP транспорт через InfiniBand (IB).

Преимущества

  • Высокая надёжность доступа к данным, находящимся на внешних системах хранения. Независимость топологии SAN от используемых СХД и серверов.
  • Централизованное хранение данных (надёжность, безопасность).
  • Удобное централизованное управление коммутацией и данными.
  • Перенос интенсивного трафика ввода-вывода в отдельную сеть – разгрузка LAN.
  • Высокое быстродействие и низкая латентность.
  • Масштабируемость и гибкость логической структуры SAN
  • Географические размеры SAN, в отличие от классических DAS, практически не ограничены.
  • Возможность оперативно распределять ресурсы между серверами.
  • Возможность строить отказоустойчивые кластерные решения без дополнительных затрат на базе имеющейся SAN.
  • Простая схема резервного копирования – все данные находятся в одном месте.
  • Наличие дополнительных возможностей и сервисов (снапшоты, удаленная репликация).
  • Высокая степень безопасности SAN.

Совместное использование систем хранения как правило упрощает администрирование и добавляет изрядную гибкость, поскольку кабели и дисковые массивы не нужно физически транспортировать и перекоммутировать от одного сервера к другому.

Другим приемуществом является возможность загружать сервера прямо из сети хранения. При такой конфигурации можно быстро и легко заменить сбойный