Дабы убрать необходимость делать ссылки из одной в другую я решил создать эту тему

Есть задача по организации высокой доступности(по возожности отказоустойчивости): домена контроллера на 100 пользователей(win2008r2), терминального сервера 1с 8 на 30-50 активных пользователей(win2008r2) и пары машин поддерживающих не требовательные, но критичные сервисы типа админкита каспера и почты.
Бюджет 240тыс. р. в этом году и столько же в следующем.
В этом году необходимо приобрести оборудование и запустить на нём вышеописанные сервисы с учётом необходимости организации высокой доступности в следующем году..
Я определил требования к
ОЗУ - 16гб на каждый гипервизор
дисковой подсистеме - 1,2ТБ(4 диска по 600гб в 1+0 массиве) с 15000rpm. И ещё 2 диска sata по 2Тб в зеркале для бэкапов.
процессорам - пара xeon 5650.
Продукты типа ESXi не рассматриваются из-за того что в бюджет они не влезут точно. Все современные системы виртуализации подразумевают наличие хотя бы двух отдельных хранилищ данных и гипевизоров. Два хранилища для данного бюджета тоже накладный вариант. В поисках хранилища я набрёл на такое решение: http://www.supermicro.com/products/nfo/sbb.cfm. В описании фигурирует fault tolerance. Попытки выяснить что это такое у поддержки supermicro ни к чему не привели. Тогда я решил создать соответствующую тему на форуме по поиску RAID контроллера. Я предполагаю что существуют SAS контроллеры, которые будучи подключенными к разным серврам(или одному серверу с двумя мат. платами) и одним и тем же дискам могут заменять друг друга в случае сбоя. На данную мысль меня натолкнула упомянутая ссылка.
Помимо хранилища не ясен вопрос и с сетевыми адаптерами. Сразу ясно что для решения задачи максимум, т.е. организации полной отказоустойчивости виртуализируемых сервисов необходимо обеспечить высокую пропускную способность между гипервизорами и СХД. Т.е. гигабитные линки отпадают сразу. В поисках оборудования я набрёл на два варианта:
1)10g ethernet. http://www.supermicro.com/products/acce ... UTG-i2.cfm стоимость в районе 13т.р. в Москве за 2 порта.
2) infiniband http://www.supermicro.com/products/acce ... IBQ-M2.cfm стоимостью 23т.р. за два порта по 40Gb/s каждый!
Вроде бы и первый вариант не плох, но задел на будущее должен быть. Вобщем не могу выбрать, скорее всего остановлюсь 1ом варианте.
В результате я хочу получить решение из двух серверов каждый из которых будет выполнять функции и гипервизора и СХД.
В качестве ПО хочу использовать:
1) гипервизор на базе centos (kvm или xen, не особо важно, но 1ый предпочтительнее).
2) для синхронизации данных DRBD.
Хотелось бы услышать ваши мысли и предложения.
Модераторов прошу удалить/закрыть 2 родителькие темы на форуме, найти их можно в самом начале поста.