nicka_startcev: а на русском тут чо есть, а? (Default)
[personal profile] nicka_startcev
Кривой вопрос.

почем примерно выйдет, где-какое железо брать? лучше новое, без высохших конденсаторов.

хочу типа-сервер домой, чтоб объединить подглюкивающие имеющиеся два.

нужно примерно 4-8-16гб рам, 100мбит сеть, этак 2-4ггц проц, "линух-совместимое".
(штуки четыре усб - но это почти везде). корпус есть, итого, нужно винт+б/п+мать+проц+кулер+память. винт этак на терабайт, можно небыстрый но и без зеленых приколов с стоп-стартом на каждый чих.

сервер - банальная файлопомойка плюс по мелочам (например, редкий, но жручий до памяти рендер в опенскаде). нагрузка небольшая, но оно не должно виснуть нах этак раз в пару месяцев на ровном месте.



upd: в жж какие-то проблемы, я НЕ могу туда камментить руками. попробую поправить сам пост.

рам и проц - понятно что типовых 2 ядер хватит.
про рэйд - хочу подробностей. сейчас стоит 3гб винт, примерно хватает, но и 6 гб будет неплохо. какие винты стОит брать если нагрузка мизерная (пару раз в день слить этак гиговый фильм), какой рэйд выбирать, как и какими средствами линуха это стоит делать?

Date: 2018-03-09 04:46 pm (UTC)
From: [personal profile] ex0_planet
Ну раз жж у тебя глючит...

У меня достаточно долго работают WD green, хотя народ их в целом ругает. У них также есть специальные серии "для рейда" (red и purple) отличающиеся поддержкой tler и еще чем-то, но заметно дороже.

По уровням рейда вся справка есть в википедии, не хочу повторяться. На практике имеет смысл рассматривать 5, 6 и 0+1. В линухе средство в общем-то одно — md raid, достоинства и недостатки тоже очевидны.

Я лично живу на ZFS (zraid1, аналог raid5). Соответственно, это ограничивает выбор ОС до freebsd и solaris. Если не нужна 100% линуксосовместимость то с этим можно жить тащемта.

Date: 2018-03-09 06:10 pm (UTC)
avnik: (Default)
From: [personal profile] avnik
https://nixos.wiki/wiki/NixOS_on_ZFS
https://www.howtoforge.com/tutorial/how-to-install-and-configure-zfs-on-debian-8-jessie/ (как на доебане рут на zfs делать правда не знаю, не делал).

Date: 2018-03-10 12:35 am (UTC)
avnik: (Default)
From: [personal profile] avnik
Меня достало с одной сторны -- что оно любит разламываться при апгрейде (что нибудь из pre/post скриптов упало, и apt не в состоянии это разгрести)¸ закладываться можно только на более-менее ровный апгрейд системы если ты апгрейдишься с стейбла на стейбл, и уже обкатал примерную конфигурацию на виртуалке.

А с другой стороны -- достали пуризм, и забюрократизированость. И черезжопность поддерживать фиксы чего либо, пока их не замержат.

Притом что с nixos у меня берут патчи в виде PR на гитхабе, и я без проблем поддерживаю во первых WIP бранч от мастера, который у меня отличается на 5-20 коммитов, и из которого я выгребаю фиксы/новодел на пуллреквестов, +всякую клиентоспецифичность -- возможно просто тихо переписывать ряд пакетов тем что у меня не возьмут, в том числе "а давайте ка соберем coolsoft, с патчеными под нащи задачи libfoo и libbar, при этом штатный софт использует исходные libfoo/libbar останется жить с дистрибутивным".

Не скажу, что оно совсем без минусов, но жить как-то проще. (там местами очень think differently)

Date: 2018-03-13 12:23 am (UTC)
avnik: (Default)
From: [personal profile] avnik
> а вот странный вопрос. зачем держать "дома" или "на работе" что-то кроме стэйбла, если ты не веб-админ?

ну такое ощущение, что все кроме веба работают на софте минимум 10 летней давности, с компиляторами/либами давности 15летней.

В принципе -- рядовой пользователь может (и должен) сидеть на стейбле. В никсосе -- учитывая возможность ставить из анстейбла/мастера/прошлогодней версиии/произвольного снапшота (с минимально разумными ограничениями), а так же полугодовой релиз-цикл (сильно протухнуть просто не успеваем) -- на стейбле сидеть и должен. Я сижу на мастере в основном потому. что мне интересно и я его (мастер) активно девелоплю.

> чтоб держать в чируте нужную супермодную дрянь
и
> и админить как-то вменяемо, через пакеты а не "скачай голову с гита")

взаимоисключающие параграфы.

Тут тебе либо докер, либо таки чруты, либо systemd-nspawn какой (но тут опять же -- у докера свои ограничения, а все остальное будет mutable ад, с обновлениями и конфигурациями).

Вообще прямых противопоказаний к запуску два -- совместимость libc/ядра (никсос 18.03 ты в чрут на rhel 6.2 уже не поставишь, libc хочет более нового ядра).
С opengl все еще сложнее -- у тебя 10% драйвера сидит в ядре, а остальное в юзерспейсе (libGL.so/libdrm.so прочий компот) -- вот надо, чтобы юзерспейсное попадало в ядерное.

Date: 2018-03-09 06:42 pm (UTC)
From: [personal profile] ex0_planet
1. man mdadm, man zfs. В сети тащемта хаутушек полно, чтобы ключи команд не выискивать.

2. Защиту от вылета одного обеспечивает любой рейд, кроме страйпа. Гораздо интереснее что случается потом :-) Тащемта все зависит от того, сколько ты готов вложить в обеспечение надежности.

Для RAID5/ZRAID1 вылет диска означает что у тебя есть N часов на замену, любой сбой с момента вылета и до окончания resync/resilver убивает массив. Если диски одинаковые (или даже одного производителя), то вероятность вылета второго диска в ближайшее время заметно ненулевая, т.к. наработка у всех примерно похожая. Поэтому лучше сразу держать один диск в холодном резерве.

Для RAID6/ZRAID2 все в общем-то тоже самое, но четностей две, поэтому массив выдерживает вылет двух дисков, а вылет одного означает что у тебя есть время на поиск замены. С эксплуатационной точки зрения в домашних условиях это тащемта почти тоже самое что и один диск в холодном резерве. Реальные его преимущества начинают быть видны если дисков больше 4.

Если суммировать — RAID10 это "дорого и быстро", RAID5 хороший компромисс по всем параметрам, RAID6 для больших массивов. ZFS'ные массивы имеют то преимущество, что у них быстрее рекавери, и сбои питания они выдерживают без проблем. Для себя я остановился на ZRAID1.

3. В случае "нативного" для системы рейда (mdraid для линух, zfs для bsd) можно прямо на рейд. Grub умеет грузиться прямо с мдрейда, и даже с lvm поверх него тоже. BSD'шный загрузчик понимает zfs. В случае извратов типа ZFS on linux — не знаю. Вроде работы ведутся но я давно не смотрел.

4. smartmontools, mdadm в кроне, ну и так мониторингов до жопы.

5. В общем да, с тем исключением что можно потом сделать reshape и у тебя будет 4 диска в raid5 (но не в zfs, она так пока не умеет). Raid5 на трех дисках можно организовать если все данные будут наливаться потом, а так ты по-любому попал на три дополнительных трехтерабайтника :)

Несмотря на п.3 систему я бы все же ставил отдельно, проще будет в случае апгрейдов, переездов, итп. Всё-в-одном хорошо если у тебя серверная ферма, и вот ты сервак целиком ввел в эксплуатацию, а через N лет вывел, опять же целиком.

Date: 2018-03-09 08:56 pm (UTC)
From: [personal profile] ex0_planet
2.1 Смотря насколько для тебя важны затраты на начальном этапе. Абсолютный минимум по затратам — это тупо зеркало (RAID1), всего два диска, нужно будет докупить один к уже имеющемуся. Но утилизация пространства 50%. Но для перелива данных нужен будет еще один временный диск. Там вроде бы есть позволяющий это обойти трюк с созданием degraded зеркала, но я сам не пробовал (можно в виртуалке потренироваться перед тем как).

2.2 Нюанс в том, что производителей дисков всего три осталось :) Seagate, WD/HGST и Toshiba, причем тошиба по-моему окучивает в основном дорогой корпоративный сегмент. Итого для массива с четностью можно докупить дисков так, чтобы было каждой твари по паре, причем кого именно класть на полку не имеет значения — если диск в массиве вылетает, то диск из резерва весьма вероятно проработает столько же. Случай когда диск определенной модели вылетает через неделю после начала работы мы считаем клиническим и не рассматриваем.

6. ССД по-моему стоит смотреть только на intel и samsung; беда в том, что дешевые диски малого объема отходят к говнопроизводителям (потому что дешевые), а хороший ssd будет объемный и дорогой. Еще пару лет назад можно было найти относительно приличные m2/msata диски, щас чота все исчезло уже. Даже и не знаю что сказать.

Вероятно и дешевый диск будет работать в read only, однако он может умереть чисто из за электронных проблем, а не из за выработки ресурса. Лично у меня вообще nanobsd на usb-флешке, пока вроде все живо.

7. Не помню, упоминал или нет, но классические raid'ы достаточно сильно не любят обрывов питания. Вплоть до потери данных большими кусками не любят. ZFS подвержена этому гораздо меньше, так что если не хочешь ставить упс, то это еще один аргумент в пользу её. Ну или можно на надежность вообще забить.

Date: 2018-03-10 12:24 am (UTC)
avnik: (Default)
From: [personal profile] avnik
1 я пробовал, я так из под zfs выдергивал lvm+mdraid, дегрейд md, делаем zfs mirror, ресилвер, загрузчик, сносим lvm/md окончательно, второй ресилвер.

Date: 2018-03-10 12:26 am (UTC)
avnik: (Default)
From: [personal profile] avnik
если брать ssd только под кеш/zil/swap то какие 64/128mb стоит примерно 20-30 евров, и можно купить про запас.

Date: 2018-03-10 12:22 am (UTC)
avnik: (Default)
From: [personal profile] avnik
grub умеет грузиться с zfs, если там не овердохуя хардлинков (в случае с nixos + hardlinking store -- обязательно включать boot.copyKernels -- я в это вляпался один раз)

Опять же в случае с nixos -- тут смотреть на скорость "поднятия после отказа" -- если мы можем позволить себе забить на сутки, завтра купить новый системный диск и/или ссд, и перевылиться с конфига на рейде/на гитхабе == лучше отдельный, если при вылиете диска хочется иметь живую систему прям-сразу на период поиска замены сфейлившего элемента массива == лучше делать рут на рейде. (но это мы про nixos, который за N времени строит 100% идентичную машину -- N время выкачивания софтов+время сборки того, что нестандартно/нет в кеше)

У меня рут на zfs, кеш/своп на ssd

Date: 2018-03-09 05:47 pm (UTC)
avnik: (Default)
From: [personal profile] avnik
+1 за ZFS -- mirror или raid1z на три устройства.
ZFSonLinux вполне живой кстати (0.7.6 полет нормальный, mirror)

Date: 2018-03-09 05:22 pm (UTC)
From: [personal profile] ex0_planet
По WD'шным винтам вот такая примерно раскладка
https://www.pugetsystems.com/labs/articles/Understanding-the-WD-Rainbow-674/

Date: 2018-03-09 05:51 pm (UTC)
avnik: (Default)
From: [personal profile] avnik
Я бы посмотрел на какой нибудь barebone типа zotac'ов (которые умеют быть акцесспоинтом, и имеют посадочные места на два диска notebook-size или ssd). Формфактор говнороутера -- но там вполне себе полноценная машинка внутри.

Ну и про ZFS тебе уже сказали, могу еще добавить что в 2018м меньше 16гиг ставить смешно (ну если это не совсем роутер), если там еще что-то делать планируется -- я бы ставил 32+ (ну и ZFS память любит, ARC меньше 4х гиг -- это плакать и кушать кактус)

Date: 2018-03-10 12:15 am (UTC)
avnik: (Default)
From: [personal profile] avnik
В случае с zfs я бы смотрел скорее ssd под l2arc кеш (и своп если без него никак совсем). Я в 16 упираюсь головой уже с год, просто менять у меня больше 16 в материнку с ecc не лезеь, а без ecc я не согласен. А менять весь ящик финансы не позволяют

Profile

nicka_startcev: а на русском тут чо есть, а? (Default)
nickita a startcev

June 2018

S M T W T F S
     12
345 67 89
10 11 121314 1516
17181920212223
24252627282930

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 19th, 2025 09:47 pm
Powered by Dreamwidth Studios