Pci e raid linux

RAID контроллер для PCIe M.2 някопителей?

Объявляю минуту фырчания в память о безвременно почившей тошибе, заполненной моей файлопомойкой чуть более, чем наполовину.
Катись к чёрту, тошиба.

Мя бы воткнул два SSD в софтовый, но вот печаль — на матери есть только один свободный (теперь) х4 слот, и в будущем, насколько могу судить, дефицит PCIe только обострится.

Быстрый гуглинг особых результатов не дал; в самом деле, не покупать же контроллер за $900. Может, у кого есть на примете вменяемый девайс, умеющий в RAID1 на NVMe-дисках?

Вменяемых нет. Есть либо пассивные переходники pcie x16 to 4×4 m.2, которым нужна поддержка бифуркации x16 слота на материнской плате – до $100. Либо активные pcie x16 to 4×4 m.2 бриджи – от $400. В принципе бридж будет работать в x4 open ended слоте. Если слот x4 не open ended, его можно доработать напильником.

Ну и конечно это не рейд. Это прямое подключение накопителей к шине pcie. Потому что рейд nvme никому не нужен.

iliyap ★★★★★ ( 18.11.21 20:04:54 MSK )
Последнее исправление: iliyap 18.11.21 20:07:36 MSK (всего исправлений: 1)

Не, бифуркации нет, да и нечего — все слоты забиты .

А насколько трагически такой хаб роняет скорость?

По идее ронять пропускную способность не должен. Латентность может незначительно увеличивать. Но там счёт на наносекунды.

Объявляю минуту фырчания в память о безвременно почившей тошибе, заполненной моей файлопомойкой чуть более, чем наполовину.

Диски — расходники. Дохнут все. Не резервировал и не бэкапил — ССЗБ 🙂

Да вот ещё ей катиться, пусть живёт 🙂

Потому что рейд nvme никому не нужен.

Ну, положим, мне нужен, дальше что.

Меня активно отсоветовали от железяки.

Ну idk. В случае вылета диска есть хотя бы шанс, что железяка второй не угробит, а в случае отсутствия таковой он не очень есть.

Не резервировал и не бэкапил — ССЗБ

О, да. Я сейчас тот самый Буратино, что из дерева и длинным носом. Несколько месяцев тому подготовил крутой такой бэкап, крайне важный для всего продакшна, и через короткое время он, бэкап, умер в корчах. А как раз перед тем, как помереть, мелькнула у меня мысль залить его на болванки. Мелькнула и затихла. Типа потом как-нибудь.

sparkie ★★★ ( 18.11.21 22:06:25 MSK )
Последнее исправление: sparkie 18.11.21 22:08:41 MSK (всего исправлений: 1)

Так об том и речь. 100500 народу отписалось, что нинужна, есть сотфовый.

Читайте также:  Astra linux postgresql документация

одноплатниками упарываешься хоть?

Так у меня разъёмов под второй диск нет и не предвидятся)

матплату замени, бывают с 4x nvme pci-e5/4 +куча обычных слотов

А ты делай RAID 1 из NVMe SSD и HDD, как Метапрог.

Скорость — от нагрузочных задач.

мя делал софтовый рейд0 из sdшек, работало паршиво.

А если серьёзно, то можно (или нельзя?) подключить второй SSD по SATA и с нужной периодичностью делать на него бэкапы.

Если нет доступа к б\у ентерпрайзу, то велком к китайцам. У меня пара таких (в коробе, с кулером) с 2к15 крутится на серваке — все отлично. Важный нюанс — все они разведены на х4, потому при использовании тандемов из 2-3 ССД на одной плате, скорости рухнут. И еще — естествеено, совать их можно и в х8 и х16.

Если бы не бэло бэкапов, мя бы по форумам не тупил, а сидел весь в вазелине и плакал >_>
Но потерять оперативные данные и полдня времени всё равно обидно ас фак.

А на SSD бэкапы делать печально, они всё-таки маловатого объёма и медленные при линейной записи больших штуковин. HDD не хочется из-за шума, очень уж противно они вибрируют.

Ни, эт не то, оно требует интела с 6, что ли, поколения и наличия свободного х8, а у меня ни того, ни того.

Зачем тогда зацикливаться на NVME, почему не использовать SATA? Пара свободных SATA разъемов наверное на материнке есть? Либо pcie SATA контроллер. Либо pcie SAS/SATA raid контроллер.

Высокочастотные шины это не хрен собачий, 8 слоёв в плате, в pci-e 5 разьёмы теперь поверхностно монтируются, потому что ножки искажали сигнал. И тд.

У меня переходник за 400р, брат не умер)

Переходи на hhhl диски и мамку с бОльшим кол-вом пси-е.
У меня два самса в райде работали с весны вполне годно, единственное под ол 8.3-8.4 скорость была ниже ожидаемой но у меня диски псие4 а мамка с псие3, сейчас райд развалил и попробую пересобрать под свежим ядром ибо под виндой скорость заметно выше и трабл явно не аппаратный, но и так было вполне достаточно для моих нужд

Твои 4 линии pcie 2.0 это 2 Гб/с. А два порта SATA это 1.2 Гб/с. Разница не велика.

Нет, опенбздей. Буратино != бурато

pingvinek ★ ( 19.11.21 19:07:58 MSK )
Последнее исправление: pingvinek 19.11.21 19:09:53 MSK (всего исправлений: 1)

А зачем бэкапить данные? Вернее зачем иметь данные которые жалко потерять?

Дам тебе добрый совет, файлопомойку-торенто-файлокачалку лучше делать на отдельном компьютере.

У меня просто есть видеокарта

Ну так сделай бифуркацию слота на два независимых

Да не то чтобы жалко, просто ставить и настраивать всякое. Я кроме помойки всякий жирософт там держал вроде android sdk и квартуса.

Читайте также:  Linux terminal log in

Да ну нет у меня поддержки, она до какого-то там поколения интела аппаратно конфигурировалась страпами и хардкодилась в биосе :

Пара х8 свободных вроде сейчас не проблема на обычных мамках, но при желании можно взять платформочку для гпу вычислений (те же яйки только чуток более брендовые) — там с запасом.
Нюанс — весной самые адекватные хххл были у самсунга (Интел тогда оптаны выкидывал из каталогов и они взлетели в цене а остальное какая-то игровая дичь) но они а) хотят псие4 по хорошему б) к ним нет ни софта ни прошивок (я брал только под условие что контора-продаван продемонстрирует что они могут быть загрузочными ибо комбо хххл райда на недогпу супермикровской мамке с псие3 вызывало много опасений но на удивление все заводится абсолютно прозрачно и диски видны как обычные нвме в любом режиме уефи) — по сути это пущенный на рынок оем, но зато контроллер жирный по иопсам и флеш годная за ценник вполне сравнимый с м2

А на SSD бэкапы делать печально, они всё-таки маловатого объёма

и медленные при линейной записи больших штуковин.

Для инкрементальных бэкапов сойдёт.

HDD не хочется из-за шума, очень уж противно они вибрируют.

На фоне вентиляторов не особо беспокоит. А шум системника — это святое. Мне без него одиноко и засыпать сложнее.

Источник

Thread: Installing PCI-E RAID Controller Driver

hoathy is offlineFirst Cup of Ubuntu

Installing PCI-E RAID Controller Driver

Hi all,
I am pretty new to Ubuntu in general, so don’t judge me too harshly if I am missing something obvious.

I have a custom machine running 20.04 its with a PCE-E LSI 3ware 9750 SAS hardware RAID controller and 8 2TB drives all ready to go. I know that I need the drivers to use this device, and have found this: http://manpages.ubuntu.com/manpages/. 4freebsd.html
It says that I need to place two lines in my Kernel Configuration File, which I understand should be in usr/src/linux/
The thing is I don’t have a file called that in that location. Is the location different or am I doing something else very wrong?

ActionParsnip is offlineUbuntu Member

Re: Installing PCI-E RAID Controller Driver

MAFoElffen is offlineModules & Layers

Re: Installing PCI-E RAID Controller Driver

ActionParsnip asked you to open a terminal and query the PCI bus and post the output from it. I would have asked you the same. The reason for asking that, is to see «the How» of what Linux sees and identifies the Hardware RAID Controller Card as.

I understand that you want instructions and help. as you said, step-by-step. That all depends on how ity is see by «your system,» which can vary by the BIOS and the SouthBridge, and how it ID’s what is in your PCIe Bus.

sudo lspci | grep -i 3ware sudo lshw -C storage

I can’r read minds «well». But I am using an educated guess and reading tea leaves. And am thinking that your output is going to look similar to

PCI: 13C1:1004 3ware Inc 9650SE SATA-II RAID PCIe PCI: 13C1:1005 3ware Inc 9690SA SAS/SATA-II RAID PCIe

If what you run and the output is similar to the above (except for the bus/slot numbers. Then we will go from there.

Читайте также:  Средства виртуализации astra linux

That page is dated and the links are broken, but I have updated links, based on the output you post. Yours would be under 3w-9xxx.

Источник

Thread: Boot ubuntu from PCI-E SSD with RAID

harrispartyof3 is offline5 Cups of Ubuntu

Boot ubuntu from PCI-E SSD with RAID

I have a very complex proposal for my ubuntu server setup. I’m using a motherboard with eight SATA ports, a normal PCI-E x16 slot (currently occupied by a graphics card so the rig will boot) and two PCI-E x 1 slots. The case I’m using has eight HDD mounting locations. The intention is to install all eight HDD with RAID 6 (one HDD as a hot spare). Now that’s all fine and dandy but with the os on the RAID array the HDD will never go into standby due to disk access and such for normal log operations. My thought was to put the os on two separate drives with RAID 1 (it would be silly to have the media safely RAIDed and the os vulnerable) but with all eight HDD slots populated there wont be any more SATA ports for the two OS drives. So my solution was to use two PCI-E to mSATA adapter and have the two PCI-E x 1 slots populated with these in RAID 1 to hold the os. I’m not concerned with any possible performance boost from using PCI-E for storage, simply the intention of keeping the HDD’s in standby until media needs to be accessed since seven HDD’s all furiously reading data uses a decent amount of energy.

So now for the tricky bit: how likely is it that I will be able to boot from PCI-E cards? And if that is even possible will I be able to have two separate cards in RAID 1?

I poked around and couldn’t find any insight on the PCI boot much less PCI RAID. Thanks in advance for any help.

Источник

Оцените статью
Adblock
detector