![]() |
MPIO в vmware vsphere 5 Приветствую. Возник у меня в голове один интересный вопрос, касающийся резервирования линков до общего хранилища. Есть у меня iscsi таргет на линуксе (scst), который подключается к хостам двумя гигабитными линками. Наличиствует MPIO (rr). В планах есть желание перейти на 4Gbit оптику, благо scst это позволяет. Теперь самое интересное. В хранилке я не смогу организовать более 2-х оптических портов, т.е. смогу воткнуть только один 2-х портовый оптический адаптер. Соответственно в случае выхода из строя адаптера в хранилке, все ляжет. Теперь вопрос. Можно ли как-то организовать нечно вроде гибридного MPIO, т.е. подключить хранилище к хосту оптикой и зарезервировать по езернету через iscsi? Как меня заверили, сам scst может отдавать диски как угодно, т.е. дело за vmware. Может кто уже извращался подобным образом? |
Тоже интересно. Если кто попробует - расскажите. Я заказал себе лабу (ближайшая свободная была только на среду), но не уверен, что там будет и FC и iscsi, но если будет (и если не забуду) - попробую. А почему только одну карточку воткнуть сможете? Можно попробовать заменит сетевки на подобные карточки: [url]http://brocade.ocs.ru/products/ustarevshie-modeli/brocade-1860[/url] И сеть и FC будут зарезервированы. |
Да в материнке всего два pci-e слота в которые встанет карта. Сейчас в одном raid контроллер, в другом 2-х портовая сетевая карта. У меня это домашний полигон и чисто по финансовым соображениям в ближайшее время я не готов менять железки. Да и если идея выгорит - не придется. Оптику можно будет взять на ибэе, там оно копейки стоит + двухпортовый qlogic 2462 уже есть. Сетевки типа brocade стоят весьма дорого, да и надежнее иметь две независимые железяки в каждой точке подключения. Если сможете протестировать данный конфиг буду очень признателен. |
Но это будет не на линуксовой хранилке. А если это домашняя хранилка - зачем тогда нужна высокая доступность?А на ебее подобные (насколько я помню, разнопортовые конфигурации появились начиная с 8 гб) сетевки дорого стоят? |
Ну вот вышеупомянутая brocade 15к. Вообще 8Gb FC карты стоят сильно дороже 4Gb. Высокая доступность нужна потому что в этой лабе крутятся несколько проектов/сервисов, которые должны быть доступны 24/7, но денег за них не платят (пока во всяком случае). |
Вышеупомянутая карточка - 16gb. Они вообще дофига стоить должны. К сожалению, проверить не получилось. В лабе по vmware небыло подходящей хранилки. А в других лабах нет vmware. Кстати, AIX умеет нечто подобное (один путь пустить через рапрямую проброшенный FC-адаптер, а другой - через VIOS) |
интересная тема....под оптикой я так понял имеется в виду FC , пока не проверишь не узнаешь ))) но там по-идее будет запасной вар если умеет Ethernet по hba-шным адаптерам пускать - просто запилить iscsi на всем с мультипасингом на оптике и фейловерным медным интерфейсом, не ? |
Надеюсь получится на этой неделе самому проверить. Достал вторую FC карту и патчкорды. По результатам отпишусь. |
По умолчанию VMware такое принимать не умеет. У vmware либо диски пришли через iscsi либо через FC. Как вариант - использовать NFS. |
похоже, что вар есть... [url]https://www.youtube.com/watch?v=U7zbyD5B3zs[/url] NFS - будет печальнее по производительности\отъеданию памяти по сравнению с остальным, да и iscsi менее предпочтительно чем FC, хотя есть и сетевки заточенные под iscsi с чипом для разгрузки проца. |
единствено по ссыле там прицепили напрямую диск к виртуалке(raw disk) , но сама оснастка по рулежке путями там такая же как к storage vmfs-ному, так что похоже прокатит )))) |
Однако работает : [img]http://savepic.su/4354185.png[/img] |
[img]http://savepic.su/4368520.png[/img] |
Даже round robin работает |
roundrobin на разных скоростях? А вообще - интересно. |
А для MPIO скорости разных направлений фиолетовы - как задашь в политиках, так и будет. И VMWare тут в качестве клиента, или Hyper-V - точно также без разницы. Голимый блочный ввод-вывод. |
15-TimkaZet > дело не в скоростях а разных пртоколах на путях.... |
ну начало топика, я например никогда не пробовал...свместить...а то что скорости то да - в принципе неожиданостей нет |
Да, для MPIO без разницы скорость. Каждый путь работает на своей скорости согласно ттх линии передачи данных. |
хотя смыл раунд робина на разных скоростях отсутствует...ну разве что внести частичку хаоса и рэндома в отклик фс ))) |
Надо где-то взять пару нормальныx pci-e 1x сетевок да перевести один из боевых хостов на такой способ резервирования. |
19 Ну да, я RR для прикола проверил) |
[quote=TimkaZet;36693340]А для MPIO скорости разных направлений фиолетовы[/quote] Для работоспособности - да, а для целесообразности... Медленный канал будет тормозить процесс. |
[quote=Добрых дел мастер;36694953]Для работоспособности - да, а для целесообразности... Медленный канал будет тормозить процесс. [/quote] Вопрос-то не в целесообразности, а в работоспособности вообще, не так ли? |
[quote=TimkaZet;36705184]Вопрос-то не в целесообразности, а в работоспособности вообще, не так ли? [/quote] Не согласен. RoundRobin используют с вполне определенной целью: равномерно распределить нагрузку (и если приложение поддерживает ввод-вывод в несколько потоков - иметь возможность полностью загрузить полосу). Здесь такого не происходит. Такое решение будет по всем параметрам хуже, чем активный канал 4 гигабита + запасной - 1 гб. |
RR всего лишь один из методов MPIO, о чем топикстартер и упоминает. |
Текущее время: 19:35. Часовой пояс GMT +3. |