0
- 28.09.2014 - 21:51
|
Приветствую. Возник у меня в голове один интересный вопрос, касающийся резервирования линков до общего хранилища. Есть у меня iscsi таргет на линуксе (scst), который подключается к хостам двумя гигабитными линками. Наличиствует MPIO (rr). В планах есть желание перейти на 4Gbit оптику, благо scst это позволяет. Теперь самое интересное. В хранилке я не смогу организовать более 2-х оптических портов, т.е. смогу воткнуть только один 2-х портовый оптический адаптер. Соответственно в случае выхода из строя адаптера в хранилке, все ляжет. Теперь вопрос. Можно ли как-то организовать нечно вроде гибридного MPIO, т.е. подключить хранилище к хосту оптикой и зарезервировать по езернету через iscsi? Как меня заверили, сам scst может отдавать диски как угодно, т.е. дело за vmware. Может кто уже извращался подобным образом?
| | |
1
- 28.09.2014 - 22:28
|
Тоже интересно. Если кто попробует - расскажите. Я заказал себе лабу (ближайшая свободная была только на среду), но не уверен, что там будет и FC и iscsi, но если будет (и если не забуду) - попробую. А почему только одну карточку воткнуть сможете? Можно попробовать заменит сетевки на подобные карточки: http://brocade.ocs.ru/products/ustar...i/brocade-1860 И сеть и FC будут зарезервированы. | | |
2
- 28.09.2014 - 23:25
|
Да в материнке всего два pci-e слота в которые встанет карта. Сейчас в одном raid контроллер, в другом 2-х портовая сетевая карта. У меня это домашний полигон и чисто по финансовым соображениям в ближайшее время я не готов менять железки. Да и если идея выгорит - не придется. Оптику можно будет взять на ибэе, там оно копейки стоит + двухпортовый qlogic 2462 уже есть. Сетевки типа brocade стоят весьма дорого, да и надежнее иметь две независимые железяки в каждой точке подключения. Если сможете протестировать данный конфиг буду очень признателен. | | |
3
- 29.09.2014 - 00:03
|
Но это будет не на линуксовой хранилке. А если это домашняя хранилка - зачем тогда нужна высокая доступность?А на ебее подобные (насколько я помню, разнопортовые конфигурации появились начиная с 8 гб) сетевки дорого стоят? | | |
4
- 29.09.2014 - 11:22
| Ну вот вышеупомянутая brocade 15к. Вообще 8Gb FC карты стоят сильно дороже 4Gb. Высокая доступность нужна потому что в этой лабе крутятся несколько проектов/сервисов, которые должны быть доступны 24/7, но денег за них не платят (пока во всяком случае). | | |
5
- 01.10.2014 - 14:46
|
Вышеупомянутая карточка - 16gb. Они вообще дофига стоить должны. К сожалению, проверить не получилось. В лабе по vmware небыло подходящей хранилки. А в других лабах нет vmware. Кстати, AIX умеет нечто подобное (один путь пустить через рапрямую проброшенный FC-адаптер, а другой - через VIOS) | | |
6
- 01.10.2014 - 17:22
| интересная тема....под оптикой я так понял имеется в виду FC , пока не проверишь не узнаешь ))) но там по-идее будет запасной вар если умеет Ethernet по hba-шным адаптерам пускать - просто запилить iscsi на всем с мультипасингом на оптике и фейловерным медным интерфейсом, не ? | | |
7
- 01.10.2014 - 19:34
| Надеюсь получится на этой неделе самому проверить. Достал вторую FC карту и патчкорды. По результатам отпишусь. | | |
8
- 02.10.2014 - 08:29
|
По умолчанию VMware такое принимать не умеет. У vmware либо диски пришли через iscsi либо через FC. Как вариант - использовать NFS. | | |
9
- 02.10.2014 - 08:56
|
похоже, что вар есть... https://www.youtube.com/watch?v=U7zbyD5B3zs NFS - будет печальнее по производительности\отъеданию памяти по сравнению с остальным, да и iscsi менее предпочтительно чем FC, хотя есть и сетевки заточенные под iscsi с чипом для разгрузки проца. | | |
10
- 02.10.2014 - 09:23
| единствено по ссыле там прицепили напрямую диск к виртуалке(raw disk) , но сама оснастка по рулежке путями там такая же как к storage vmfs-ному, так что похоже прокатит )))) | | |
11
- 02.10.2014 - 15:06
|
Однако работает : | | |
12
- 02.10.2014 - 15:10
| | ||
13
- 02.10.2014 - 15:13
| Даже round robin работает | | |
14
- 02.10.2014 - 20:20
|
roundrobin на разных скоростях? А вообще - интересно. | | |
15
- 02.10.2014 - 20:53
| А для MPIO скорости разных направлений фиолетовы - как задашь в политиках, так и будет. И VMWare тут в качестве клиента, или Hyper-V - точно также без разницы. Голимый блочный ввод-вывод. | | |
16
- 02.10.2014 - 21:36
| 15-TimkaZet > дело не в скоростях а разных пртоколах на путях.... | | |
17
- 02.10.2014 - 21:40
| ну начало топика, я например никогда не пробовал...свместить...а то что скорости то да - в принципе неожиданостей нет | | |
18
- 02.10.2014 - 21:41
| Да, для MPIO без разницы скорость. Каждый путь работает на своей скорости согласно ттх линии передачи данных. | | |
19
- 02.10.2014 - 21:42
| хотя смыл раунд робина на разных скоростях отсутствует...ну разве что внести частичку хаоса и рэндома в отклик фс ))) | | |
20
- 02.10.2014 - 21:43
| Надо где-то взять пару нормальныx pci-e 1x сетевок да перевести один из боевых хостов на такой способ резервирования. | | |
21
- 02.10.2014 - 21:43
|
19 Ну да, я RR для прикола проверил) | | |
22
- 03.10.2014 - 01:33
| Для работоспособности - да, а для целесообразности... Медленный канал будет тормозить процесс. | | |
23
- 03.10.2014 - 20:18
| Вопрос-то не в целесообразности, а в работоспособности вообще, не так ли? | | |
24
- 03.10.2014 - 23:09
| Цитата:
Такое решение будет по всем параметрам хуже, чем активный канал 4 гигабита + запасной - 1 гб. | | |
25
- 04.10.2014 - 08:00
| RR всего лишь один из методов MPIO, о чем топикстартер и упоминает. | |
| Интернет-форум Краснодарского края и Краснодара |