Это копия, сохраненная 2 марта 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
> 2
поясните по хардкору, зачем ограничивать скорость интерфейса 3 гигабитами? для древнющих материнок, не умеющих в 6 гбит и даже не умеющих договариваться с хардом о работе на 3?
Вполне возможно, что так, а может быть, что во времена появления сата 2 джампер предназначался для перехода из режима 1,5 гбит на 3, ны не же джампер вполне возможно существует для совместимости.
Ну или еще вариант: если у тебя есть сата 2 и сата 3, то, вполне возможно, если портов сата 3 мало, а тебе нужен массив, то для однородности работы дисков в нем.
Не, есть для винды всякие utilities. Например Raid Web Console.
>>756374
>Просто адрес сервака
А если там порт кастомный? А если там файрвол в прошивку встроен, который только с самого сервера пускает? А может консоль рейда на другом айпишнике висит (сетевуха сервера может выступать виртуальным коммутатором, и ресурсы управления серваком на одном интерфейсе, а операционка на другом), тут разное надо пробовать. Или сходить на сайт производителя и внимательно почитать на английском в разделе наподобие "Support -> Drivers&Utilities".
Нужно раз и навсегда расставить все точки над i по поводу жестких дисков.
Допустим, у меня на сервере с гипервизором N Терабайт быстрых nvme дисков и 4N Терабайта медленных HDD.
Как распределять диски при создании виртуалок?
1. В какие разделы можно подключать медленные жесткие диски? В какие категорически нельзя?
2. По шкале от 0 до 10 что из этого требовательно к скорости дисков:
- Статика на nginx
- Динамика на php
- Бэкенд на Tomcat
- База данных
- Дженкинс
- Гитлаб
- Сервер мониторинга
Инбефо: бэкапы. Я их уже настроил.
Мда. По ходу одна обезьяна сделала кривой софт, остальные обезьяны начали это говно себе копировать, меняя шильдики.
Вылитое LSI MegaRAID Storage Management.
мимо
Ну допустим, что не влезает. Рассматриваем общий случай, а не решение конкретной проблемы.
Так по сути железо там реально брендированный интелом мегарейд. Но вообще мне эта штука нравится.
>Но вообще мне эта штука нравится.
Мне тоже когда-то понравилась. А потом понадобилось завести волшебный софт на работу с контроллером, воткнутым в хост esxi (изъебал всю голову, нихуя не заработало, у кучи людей в интернетах в том числе).
>В какие разделы
Ты про файловые системы?
>По шкале от 0 до 10
Мое важнецкое мнение:
>- Статика на nginx
3-4. Зависит от частоты обращения
>- Динамика на php
5-6. Опять же, зависит от нагрузки.
>- Бэкенд на Tomcat
Хз что это)) Так что не ебу.
>- База данных
9-10. Базы данных очень чувствительны к скорости диска.
>- Дженкинс
3-4, это же просто демон, который в ОЗУ грузится, главное, где размещен код.
>- Гитлаб
Туда чаще будут писать, чем считывать, поэтому 2-3, не особо важно.
>- Сервер мониторинга
1-2.Тут вообще до пизды, хоть на IDE винт ставь, он с диска ничего не читает почти, только грузиться долго будет, но не так и часто он перезагружается.
Удивительно, ведь в том интеловом контроллере стоит LSI SAS2108.
>>758679
Общий случай - купить больше ssd, потому что поебень выше в без трёх недель 2022 году должна на него помещаться.
На винтах что можно хранить-то нынче? Видео да бэкапы, ну может файлопомойки, хотя там уже возможны варианты.
Для смешанного говна - кэш на ssd, вариантов это сделать - вагон и маленькая тележка.
>точки монтирования
>сервер с гипервизором
Нахуя? Сэкономить 2-3 гигабайта места на ссд с виртуалки?
двачую этого.
подними всю свою хуйню на HDD и посмотри на практике, где что тормозит. что сильно тормозит - разнеси по SSD.
может, там в базе идёт одна запись и три чтения в минуту, тогда её на HDD можно и оставить.
с пхп то же - если там пять скриптов, то они компилироваться дольше будут, чем читаться с HDD. а если нахуеверчена тысяча подгружаемых библиотек - тогда лучше SSD.
и в целом SSD лучше в тех случаях, когда ахулиард мелких файлов.
>>758723
> root, tmp, var, data
наркоман? ёбом токнуть?
ну ладно, отвечу.
/boot пихай на HDD,
/tmp и swap на SSD,
/var - зависит от дистрибутива (во всяких фрибздях и ебанутых дистрибутивах линукса там системные файлы лежат),
/ - наверное всё-таки HDD.
Кто-нибудь встречал его разводку?
кто-нибудь пробовал вместо нахуй ненужного сидирома вставлять дополнительный диск через переходник типа такого:
https://gsmservice.od.ua/shop/perehodnik-dlja-ustanovki-hdd-vmesto-cd-rom-9-mm-slim.html
https://gsmservice.od.ua/shop/perehodnik-dlja-ustanovki-hdd-vmesto-cd-rom-127-mm.html
?
у меня так в сервере для бекапов - 1U, 4 х 3.5" и для диска под ОС не было места. Поставил переходник, брат жив.
я как раз так же собираюсь сделать - ось на ссд в слоте для сидирома, и файлопомойка на хотсвоп хардах.
какой именно переходник купил, и какая модель сервера?
они универсальные, или надо искать подходящий по габаритам? что у них бывает разная высота, я уже понял.
не парься, универсальные. Ну только что высотой могут отличаться - 12мм HDD скорее всего не войдёт (у меня так было). Хз какая модель переходника у меня - когда то покупал на Алиэкспрессе.
SSD как правило 9мм
>модель сервера?
Fujitsu RX1330
С дхцп и прочим проблем нет. Поставил ось через chain --autofree https://boot.netboot.xyz так что проблема не в сети.
Через тфтп клиент с соседнего пк efi бут образ скачался.
Truenas scale + netbootxyz на том же хосте в докере
Я смогу, например, хостить сайты? Как правильно организовать роутинг, чтобы какиры не взломали мой ПК? Что нужно учесть при настройке роутера, при настройке файрволлов?
>Я смогу, например, хостить сайты?
да
надеюсь ты понимаешь что остальные вопросы не соотвествуют теме треда и тут вероятно не найдётся подходящих спецов
>Как правильно организовать роутинг, чтобы какиры не взломали мой ПК? Что нужно учесть при настройке роутера, при настройке файрволлов?
Роутинг ни при чём. Прокидываешь в настройках роутера 80/443-й порт на свою виртуал_очку и всё. Дальше уже всё в её руках.
Не, ну можно, наверное, изъебнуться и запретить виртуал_очке весь локальный траффик, но это какая-то хуйня.
> Не, ну можно, наверное, изъебнуться и запретить виртуал_очке весь локальный траффик, но это какая-то хуйня.
Не можно, а нужно. Почему хуйня-то? Прям правило на роутере надо создать или vlan, чтоб с виртуалки доступа к локальной сети не было.
Пруфы в начале видео:
https://youtu.be/DuAHpkek_RM
> бесплатный мастер-класс
> как создать свой дата-центр уровня enterprise
там не хватает строки "на б/у зионах и материнках HUANANZHI с памятью KLLISRE"
>организовать роутинг
Не особо и нужно. Роутеры нынче мощные. Прошей на OpenWrt, и установи nginx. Открой 80-й порт. Вот тебе и сайт со статическими страничками, который видно в интернете. Если у роутера силёнок хватит это всё тянуть, то и php можешь установить, будет немного повеселее.
И что в этом плохого? Кого ебет, что ты там дома соберешь и на чем учиться будешь? Хоть на атлонах с авито. Лишь бы было желание что-то новое узнавать.
Чувак на мастер-классе все по делу говорит и объясняет, как сеть правильно настраивается. Понятно, что целевую аудиторию таких лекций (в т.ч. меня, не буду выебываться) не пустят сеть дата-центра настраивать. Но общие представления об архитектуре и "как надо, как не надо" эта лекция дает.
Само собой. Только под мой роутер нет OpenWrt или любой другой альтернативной прошивки. Впрочем ладно, у меня для этого есть целый NAS c 16 гигами оперативки и покалеченным дебианом, лично мне извращения ни к чему.
Советую сразу всё пихать в докер и не ставить на хост ничего кроме оного и композа
Ненавижу докеры и вообще современные луковичные слои абстракций. Впрочем, сраное IT катится в сраное говно, так что возможно, скоро без этого говна работать уже ничего не будет. Но пока я держусь.
да прост кекаю со слова "enterprise" рядом с "бесплатный мастер-класс".
пикрил наверно тот чувак проектировал.
Ну если ты любитель засирать систему и тащить туда все зависимости с потенциальными проблемами деплоя и переезда то дело твоё. Каждый дрочит как хочет лишь бы не на работе
> Ну если ты любитель засирать систему и тащить туда все зависимости
так это же про докер.
мимо-любитель-разносить-все-сервисы-по-"хардварным"-виртуалкам-KVM
Вот есть бекплейн с тремя разъёмами SAS и очевидно экспандером. Так получилось, что было подключено два кабеля от одного контроллера и один от другого - диски в ОС появились в двойном количестве (что логично). В корзине 12 дисков и 12 линий SAS.
Далее предположим что умер основной контроллер и диски продолжают работать через второй.
Правильно ли я понимаю, что теперь пропускная способность будет ограничена только 4-мя линями SAS, но ситуация вполне штатная?
да это называется мультипас серверная шинда дорлжна уметь с ним работать
коенчно же у меня линэкс, а то как то обидно вышло
>Роутеры могут прокидывать порты только для определенного хоста? Охуеть, не знал.
А как ты себе это представлял? Ну допустим, ты откроешь на файрволле роутера порт 1000, что дальше-то будет? Никакого сервиса на этом порту роутер не держит, соответственно, коннектиться тоже некуда.
Зато сервис есть на каком-то хосте внутри твоей сети, поэтому ты и указываешь роутеру перенаправлять траффик своего 1000-го порта на 80-й порт некоего хоста внутренней сети.
нет, не планировалось изначально. Потому и спрашиваю.
Т.е. если настроить мультипас то при смерти первого контроллера корзина будет работать через второй, но уменьшится пропускная способность.
Верно?
Есть ещё какие-то особенности?
Я когда в роутеры лазил - там было предложение открыть порты. И на компе тоже можно было. И оно так работало. А роутинга я на роутерах (лол) не видел, хотя логично. Может, просто не там смотрел.
Ну так у тебя должна быть некая программа, которая будет по конкретному порту принимать подключения.
Без софта, который ждёт подключения по этому порту, хоть заоткрывайся, операционке приходит SYN-пакет на установку соединения на порт 1000, она смотрит, а этот порт никакая приложуха не слушает, после чего пакет благополучно дропается.
Может, конечно, можно как-то через файрволл роутера напердолить перенаправление пакетов, идущих на конкретный порт, но это явно не уровень дефолтной веб-морды домашнего роутера. Тут я не в теме.
>Может, конечно, можно как-то через файрволл роутера напердолить перенаправление пакетов, идущих на конкретный порт, но это явно не уровень дефолтной веб-морды домашнего роутера.
Хм, а у меня вот так, роутер самый что ни на есть домашний. Правда это страница NAT.
Ты ебанутый, да? От перемены языка значение не меняется, а русский ты похоже знаешь. Перевод тут не так плох, чтобы безоговорочно требовать инглиша. Но на, мне не жалко.
>русский ты похоже знаешь
Я -- знаю. Большинство "переводчиков" -- нет. Обрати внимание на то, как второй пункт называется в оригинале и как его "перевели" (который "интерфейс").
В остальном смысл действительно не особо поменялся. Так-то вроде похоже по настройкам на проброс портов, у тебя веб-сервер поднят уже? Включи правило да проверь, попадешь ли на него по внешнему IP.
слишком много внимания и времени уделяешь мелочам. Ты либо перфекционист, либо тебе надо подтянуть базовое понимание сетей. Ну ты понел...
>Ты либо перфекционист, либо тебе надо подтянуть базовое понимание сетей.
И то, и то. Но я уже 5 лет как не занимаюсь администрированием, так что дальше буду забывать всё больше и больше.
>Обрати внимание на то, как второй пункт называется в оригинале и как его "перевели" (который "интерфейс").
Нормальный перевод, что не так то.
>Включи правило да проверь, попадешь ли на него по внешнему IP.
Я если что другой анон, у меня это прекрасно работает.
аллах послал сервер с пикрилом, вопрос на миллион: как это было сделано?
- было выключено самим Интелом в процессоре?
- вендором сервера (Supermicro) при сборке системы?
- или каким-то раком смог пользователь?
на результат работы me_cleaner это не похоже, склоняюсь к первому или второму варианту.
сам проц и с ME и с AMT.
https://www.baikalelectronics.ru/products/4395/
Что думаете по этому поводу? Дали пососать или жидко обосрались?
мамкины хакеры мыслят крайностями, поэтому можешь их не слушать. Проц работает, для определённых задач годится, для дома и игр нет. Давай более конкретные вопросы
когда (если) появится в свободной продаже в рознице и на мировом рынке, то всё станет ясно: будут брать (без откатов для гос. контор) - дали пососать, не будут - обосрались. Учитывая исторические традиции этой сраны и тенденции последних десятилетий, мне и без этого всё ясно)
Мне, как обывателю, похуй, ибо нету нихуя для меня. Вроде там эльбрусы уже подтянули до приличного кол-ва ядер.
Купил бы под пингвина какую-нибудь двухпроцессорную конфигурацию, если бы она разумно стоила, чисто код писать и конпелять. Но чё-т сильно сомневаюсь, что эта хуйня до потребительского рынка когда-либо разовьётся.
А, я их путаю. Сорта говна. Давно надо на RISC-V запиливать, а они всё насилуют проприетарное говно одно вонючее другого.
> Сорта говна.
ну да. но всё же разные: buy кал - это просто обычный плотненький катях, а эльбрус - жидкая вонючая дрисня.
>>775874
в buy кал эсс. эльбрус для пекарни вообще рассматривать бессмысленно, это чисто распил ахулиардов долларов, а вот buy кал эсс я куплю на поиграцца , только если он будет стоить адекватные деньги, а не как армовские сервера от Gigabyte https://store.avantek.co.uk/ampere-altra-1u-server-r152-p30.html
Проще на алишке купить, тысяч 8 и пара сетевух c SPF+ и оптикой у тебя на руках.
мне влом самому красноглазить, и лишние сетевухи не нужны - встроенных гигабитов хватает.
сам предлагай.
нужно сконпелировать 7 версий haproxy: 1.3, 1.4, 1.5, 1.6, 1.7, 1.8, 2.0
и протестировать, сколько "голого" трафика (просто рандомный говняк, например с помощью iperf) осиливает проксировать каждая из версий.
провести три теста: 1) прогнать трафик напрямую между двумя серверами; 2) прогнать через haproxy - проксировать один TCP порт; 3) прогнать через haproxy: проксировать два TCP порта.
во время всех тестов замерять нагрузку на CPU процессом haproxy и потребление RAM - общее "used" из free -m и отдельно потребление процесса haproxy из top
мне нужны две таблицы вида:
"проксирование 1 порта"
версия haproxy | трафик | нагрузка на CPU | RAM "used" из free -m | RAM процесса haproxy
1.3 | n Gb/s | 90% | 500 | 50
1.4 | m Gb/s | 91% | 600 | 60
1.5 | k Gb/s | 92% | 700 | 70
...
"проксирование 2 портов"
версия haproxy | трафик | нагрузка на CPU | RAM "used" из free -m | RAM процесса haproxy
1.3 | n Gb/s | 90% | 500 | 50
1.4 | m Gb/s | 91% | 600 | 60
1.5 | k Gb/s | 92% | 700 | 70
...
ну и результат первого теста - скорость трафика между серверами напрямую, без haproxy - чтобы была видна разница.
использовать ос Centos 7 Minimal или Debian 10 Minimal (для исключения оверхеда от гуя и другого софта)
пример конфига haproxy:
global
daemon
nbproc 1
pidfile /tmp/haproxy.pid
defaults
mode tcp
option dontlognull
option dontlog-normal
listen port 1234
bind 127.0.0.1:1234
balance roundrobin
server server2-1 192.168.10.20:1234
listen port 1235
bind 127.0.0.1:1235
balance roundrobin
server server2-2 192.168.10.20:1235
сам предлагай.
нужно сконпелировать 7 версий haproxy: 1.3, 1.4, 1.5, 1.6, 1.7, 1.8, 2.0
и протестировать, сколько "голого" трафика (просто рандомный говняк, например с помощью iperf) осиливает проксировать каждая из версий.
провести три теста: 1) прогнать трафик напрямую между двумя серверами; 2) прогнать через haproxy - проксировать один TCP порт; 3) прогнать через haproxy: проксировать два TCP порта.
во время всех тестов замерять нагрузку на CPU процессом haproxy и потребление RAM - общее "used" из free -m и отдельно потребление процесса haproxy из top
мне нужны две таблицы вида:
"проксирование 1 порта"
версия haproxy | трафик | нагрузка на CPU | RAM "used" из free -m | RAM процесса haproxy
1.3 | n Gb/s | 90% | 500 | 50
1.4 | m Gb/s | 91% | 600 | 60
1.5 | k Gb/s | 92% | 700 | 70
...
"проксирование 2 портов"
версия haproxy | трафик | нагрузка на CPU | RAM "used" из free -m | RAM процесса haproxy
1.3 | n Gb/s | 90% | 500 | 50
1.4 | m Gb/s | 91% | 600 | 60
1.5 | k Gb/s | 92% | 700 | 70
...
ну и результат первого теста - скорость трафика между серверами напрямую, без haproxy - чтобы была видна разница.
использовать ос Centos 7 Minimal или Debian 10 Minimal (для исключения оверхеда от гуя и другого софта)
пример конфига haproxy:
global
daemon
nbproc 1
pidfile /tmp/haproxy.pid
defaults
mode tcp
option dontlognull
option dontlog-normal
listen port 1234
bind 127.0.0.1:1234
balance roundrobin
server server2-1 192.168.10.20:1234
listen port 1235
bind 127.0.0.1:1235
balance roundrobin
server server2-2 192.168.10.20:1235
Анон, есть старый хьюлетовый блейд на 604 сокете на два проца, так вот, хотел было его из блейда пересадить в более-менее нормальный корпус чтобы присрать тихий охлад, но тут возникла трабла - в этой суке со временем что-то нагревается и он вырубается. Точно не питальник, точно не чипсет, точно не контроллеры. Самое жопное, что даже понять нельзя что именно греется, просто потому что тот же HWMonitor не видит никаких датчиков кроме температуры хардов и видеокарты.
Что, блин, делать, куда смотреть вообще?
чот вспомнил памятку для сисадмина "если в сервере что-то сгорело от перегрева - то это рейд контроллер))))"
там точно PCI контроллера нет?
если у тебя есть физический доступ, что мешает потрогать пальцом в перчатке каждый чип?
>что мешает потрогать пальцом в перчатке каждый чип?
Да вроде бы всё уже протрогал, в том-то и печаль.
Причем собранное в блейде оно нормально работает, не выключается, только воет как грёбаный боинг.
Я уже думал может оно на обороты вентилей реагирует, но нет, с открытой крышкой и подрубленными вентиляторами оно точно так же в каком-то месте греется и вырубается нахрен.
Берем блейд - в закрытом состоянии работает как должен.
Вытаскиваем наружу, присираем другой охлад - вырубается.
Мне кажется выводы достаточно очевидны.
что за "другой охлад"? может, там заДРМили вентилятор, и если система детектит не родной вентиль, то насильно вырубается.
такая хуйня есть в супермикровских блоках питания, например.
>что за "другой охлад"?
Цельномедные радиаторы под двухъюнитовую версию.
Если оставляем родной охлад, но с открытой крышкой - тоже вырубается, так что распознавание вентилей тоже отпадает.
>openmediavault 6
Эм, он разве ещё не в разработке? Качай пятёрку и не выёбывайся.
Кстати, они там BTRFS впилили наконец?
траил трунас скейл? У меня с ним никаких проблем не было кроме докера а точнее что исправить что бы можно было без чартов юзать. Ребутаю только для апдейтов
>Ребутаю только для апдейтов
Везёт же людям электричеством. Меня вот принудительно ребутают, года аптайма мне не видать.
Да и так всё равно вряд ли дотянуть аптайм до года т.к. то какие то перестановки, то апдейты
Много глюков странных, каждое изменение перезагружает интерфейс и подобное. Какой-то пердолинг для установки портейнера.
>>777454
Там тоже самое.
> Кстати, они там BTRFS впилили наконец?
Вроде было, но я уже удалил виртуалку.
>>777470
Неплохая система, но минус в том что только ZFS, я хочу не только ZFS иметь.
Why not FreeNAS? То же самое вроде, только еще и не пробное.
и добавь оверхед от виртуализации, чтобы результаты были уровня гадания на кофейной гуще.
вангую, что никто не захочет красноглазить для тебя. Очевидные причины:
- цена тебя не устроит
- плата не покроет затраченного времени
- тебя не устраивает виртуализация, а к реальному железу давать доступ плохая примета
>FreeNAS
Сдох же уже. Развивается теперь как трунас.
Трунас скейл это на лини.
>То же самое вроде, только еще и не пробное.
можно мне докер и дрова на кривалтеки?
Блин, чел, хотел выкатить тебе гневный пост, но только что обновился и увидел пикрил, пластмассовый мир победил.
Докер есть, а вот сисколов из линукс аби для запуска собранных образов может не хватить.
Докеропидоры заебали. Со всех щелей этот самосбор лезет. Нужно люки плотнее задраивать.
Не понял что ты этим хочешь сказать. Что докера нет?
Уже задраено, из куба докер энжин вырезан.
Оно сейчас будет покрывать захваченную долю рынка без дальнейшего распространения, с небольшим ежегодным процентом потери покрытия.
Окей, да нет вот этой одной очень специфической линукс технологии для девопсов в поридж энтерпрайзе которую уже стали закапывать ибо устарело и надоело.
Как то на "только файлопомойка" не тянет.
>>778111
Когда пошутил сам над собой.
>>778134
>и многих линуксовых прог.
МНОГИЕ прогри как раз на фре есть. Тысячи их буквально.
>И опять же только ZFS.
Не понял, на фре есть и другие фс, а zfs стала уже недостатком?
Ты просто о фре судишь из слухов и домыслов.
> Окей, да нет вот этой одной очень специфической линукс технологии для девопсов в поридж энтерпрайзе
Нихуя ты от реальности оторван. Поридж энтерпрайз был натурально 10 лет назад. Кубер сейчас в каждой конторе, в крупной конторе OpenShift. Без их знания тебе только в админы сельского туалета дорога. Просто, чтоб ты понимал - копротивляться докеру в наше время это все равно, что копротивляться ssd-дискам, когда они уже повсюду.
> которую уже стали закапывать
Потому что кубер умеет работать напрямую с containerd, а redhat двигает свой аналог докера podman.
Твоя фряха все равно в пролете.
Нет, ZFS не минус, я хочу помимо ЗФС обычный lvm+ext4/xfs
> МНОГИЕ прогри как раз на фре есть. Тысячи их буквально.
Jellyfin, Qbittorrent, Zabbix Server, mqtt, motioneye, adguard home
1, 3, 5 точно нет. 6 и 4 какие-то костыли нужны.
Зачем мне это? С Убунтой и прочими деб системами я знаком. В крайнем случае в гугле и на ютьюбе есть инфа как это настроить.
Да и без докера я могу обойтись и воспользоваться любимым lxc. Это даже удобнее чем докер
> поясните ньюфагу кем и как докер закапывается, что идёт на замену? чем кубер отличается?
Никем он не закапывается, это литературное преувеличение. RedHat предлагает его аналог (даже команды можно писать через docker) под названием podman.
Кубер это инструмент для управления большим числом контейнеров.
Музей ограбил?
Сделай ему обдув по принципу родной корзины.
Ещё вариант - 2 вентилятора сверху по центру и пусть выдувают в разные стороны.
В любом случае, это будет какой-то хитровыебанный или самодельный корпус. Попытки поставить блейдовую мать в обычный ATX обречены на провал.
>докер закапывается
грубо говоря в начале был один докер, потом его распилили на containerd(среда выполнения) и docker(интерфейс взаимодействия).
Кубер поддерживает кучу всяких сред выполнения среди них containerd И docker. Они просто решили дропунть докер и оставить его среду что бы снять с сбея лишний слой поддержки. Образы всё так же билдить через докер
https://kubernetes.io/blog/2020/12/02/dont-panic-kubernetes-and-docker/
> очень специфической
По сути дефолтной для бизнеса уже лет пять точно.
> Как то на "только файлопомойка" не тянет.
Ну нескучным хуй86-роутером может ещё дома быть.
Видно же, что ты не из отрасли. Зачем хуйню в треде разводишь?
> Видно же, что ты не из отрасли
Ну почему, возможно, он просто виндоадмин, а фряха у него как хобби из юности осталась
>и мне стыдно изучать и употреблять новые модные слова и мемы
Так почему делаешь то же самое в отношении технологий? Небось еще и wireguard используешь?
Зумер
>>778486
1. Привязан к одному набору криптографии.
2. До конца не оттестирован
3. Новых фич нет в сравнении с остальными решениями к моменту выхода
4. Вследствие 2 и 3 пунктов производители оборудования посчитали его пердольным и непрофитным, поэтому в маршрутизаторах его нет.
Исходя из вышеизложенного - такая же игрушка для детей, как и докер.
> Так почему делаешь то же самое в отношении технологий?
Мне за это платят и это очень широко используется.
> Небось еще и wireguard используешь?
Да, мне Enterprise-фишки OpenVPN для доступа к домашней локалке в поездках не нужны.
>>778517
> такая же игрушка для детей, как и докер
Угадал я с картинкой, да? >>778105
> 4. Вследствие 2 и 3 пунктов производители оборудования посчитали его пердольным и непрофитным, поэтому в маршрутизаторах его нет.
То-то же в КинетикОС его добавили, в РоутерОС его тоже добавили, опенврт тоже он есть, в OPNSense/Pfsense добавили, и даже в мейнлайн ядра линукс добавили.
> 3. Новых фич нет в сравнении с остальными решениями к моменту выхода
За то умеет в высокую скорость которую ни ipsec ни openvpn не даёт.
>>778249
>обычный lvm+ext4/xfs
Нефига себе обычный. Это же линукс шиза.
>я хочу
Ну это понятно.
У тебя линукс головного мозга и тебе хочется линукс. Это не значит что во фре "нет файловых систем".
>>778240
>Поридж энтерпрайз был натурально 10 лет назад.
Каким он был таким он нет, стал хуже, буквально всё валится от дуновения ветерка.
> Без их знания тебе только в админы сельского туалета дорога.
Докер это антипатерн и антизнание.
> Просто, чтоб ты понимал - копротивляться докеру в наше время это все равно, что копротивляться ssd-дискам, когда они уже повсюду.
Ещё по всюду виндовс андроид блм и Путин. Нужно принять и полюбить.
> Просто, чтоб ты понимал
Чел, я то это говно вижу каждый день, как и девляпсов которые с ним не могут совладать.
>>778249
>Jellyfin, Qbittorrent, Zabbix Server, mqtt, motioneye, adguard home
Обоже что это за наху такой?
>Qbittorrent
Точно есть. Только пиздец странно его на сервере запускать.
>mqtt
О чём ты конкретно?
>Jellyfin
Работает.
>Zabbix Server
Аллё. Оно в пакетах pkg install zabbix54-server
>motioneye
https://motion-project.github.io/
Motion есть, эта писька какой-то питон фронтенд? Может его можно просто через pip install поставить?
Алсо на фре есть вроде север для камер наблюдения нормальный...
>adguard home
pkg install adguardhome
>>778249
>обычный lvm+ext4/xfs
Нефига себе обычный. Это же линукс шиза.
>я хочу
Ну это понятно.
У тебя линукс головного мозга и тебе хочется линукс. Это не значит что во фре "нет файловых систем".
>>778240
>Поридж энтерпрайз был натурально 10 лет назад.
Каким он был таким он нет, стал хуже, буквально всё валится от дуновения ветерка.
> Без их знания тебе только в админы сельского туалета дорога.
Докер это антипатерн и антизнание.
> Просто, чтоб ты понимал - копротивляться докеру в наше время это все равно, что копротивляться ssd-дискам, когда они уже повсюду.
Ещё по всюду виндовс андроид блм и Путин. Нужно принять и полюбить.
> Просто, чтоб ты понимал
Чел, я то это говно вижу каждый день, как и девляпсов которые с ним не могут совладать.
>>778249
>Jellyfin, Qbittorrent, Zabbix Server, mqtt, motioneye, adguard home
Обоже что это за наху такой?
>Qbittorrent
Точно есть. Только пиздец странно его на сервере запускать.
>mqtt
О чём ты конкретно?
>Jellyfin
Работает.
>Zabbix Server
Аллё. Оно в пакетах pkg install zabbix54-server
>motioneye
https://motion-project.github.io/
Motion есть, эта писька какой-то питон фронтенд? Может его можно просто через pip install поставить?
Алсо на фре есть вроде север для камер наблюдения нормальный...
>adguard home
pkg install adguardhome
> Чел, я то это говно вижу каждый день
Каждый день ты свою пиздобольскую рожу видишь в зеркале, разве что.
Начал с "очень специфической фигни", теперь оказывается, она и у тебя на работе есть.
Один кричит что есть нахуй никому не упавшие джейлы даже без централизованного хранилища. Другой толкает мануалы по установке из менеджера пакетов.
Третий говорит да вот жеж докер, на данный момент хуёво работающий и в будущем тоже, но есть же!
А теперь вопрос нахуй мне нужен этот гемор если я могу за 5 минут поднять систему почти любой сложности введя docker-compose up -d ???
Я думал в комьюнити лини одни ебланы но вот снизу из бсд чана постучали
я не против докера, но ты пишешь
> поднять систему почти любой сложности введя docker-compose up -d
а это попахивает подходом пориджа, ибо такие кроме docker-compose не видят инфраструктуры. Докер нужно обслуживать - настройка сети под задачи, настройка хранилищ под задачи, резервное копирование, резервирование.
Вообще пост про jail очевидно был вбросом
>все равно, что копротивляться ssd-дискам
SSD помимо недостатков имеет и весомые достоинства, так что мимо.
>>778798
>Обоже что это за наху такой?
Qbittorrent это единственно адекватный торрент с уебинтерфейсом, не срущий ошмётками отключенных файлов под себя.
>Только пиздец странно его на сервере запускать.
А где ещё? Было бы странно раздавать со своей пуки, которая врубается на 4 часа в день, имеет доступ к файлам по сети и занята игорями, вместо раздачи с NAS, который раздаёт и качает круглые сутки, не тратя ресурсов основной системы.
>Я просто хуею с этих копротивлений докеру.
Потому что не нужное усложнение, особенно для домашнего устройства, где не требуется одновременно работающие разные версии софта. Странно что находятся его апологеты.
Лол, так это все и прописывается в докер-компоуз файле.
Бекапы вообще элементарны становятся, тк все, что тебе нужно это репозиторий образов и гит.
Ты же в глаза нихуя не видел, зачем кукарекаешь попусту?
>>778892
А вот и авторитетное НИНУЖНО от второго клоуна подъехало.
Нинужно для дома или впринципе, давай, определяйся уже.
Про разные версии приложений твой умишко куцый додумался, теперь давай двигай в сторону простоты развертывания и безопасности. Глядишь, и для дома задачи сам найдешь без подсказок.
Была изначально речь про то, FreeBSD разве что для файлопомойки сойдет, раз докера нет. В ответ начались манёвры про джейлы. Считаю очевидным, что если докер не нужен, то джейлы тоже не нужны. В таком случае выбор между линуксом и фрёй в том, что более почитаемо в твоей религии. Никто тут вообще ничего против бсд не имеет, но примечательно, что бсдсектант засирает тред.
Докер дома нужен для удобной организации сервисов и для того, чтобы самому в свободное время поиграться с кубером, поднять свой CI/CD и поизучать что-то, за что платят хорошие деньги в куче компаний. Очевидно, на линуксовом серваке дома гораздо проще экспериментировать, потому что есть куча инфы и Dockerhub, да и просто потому что в этом мире это уже дефолт.
Если не нравится докер и не хочется с ним иногда поиграться, то как бы и на хуй его, конечно. Только мы все это знаем и так и никого не заставляем. Сказать-то что хотел?
>Нинужно для дома или впринципе, давай, определяйся уже.
Не нужно в принципе, и особенно для дома.
>Про разные версии приложений твой умишко куцый додумался
Это по определению ёбанные костыли, и по хорошему надобности в разных версиях ПО быть не должно.
>теперь давай двигай в сторону простоты развертывания
apt-get install %хуйня_нейм%
Что может быть проще? Все инструменты в ОС давно есть.
>и безопасности
AppArmor/SeLinux/прочая хуета. Да даже стандартное разграничение прав доступа даёт достаточный уровень безопасности, если вручную не компелять и запускать вирусы из под рута.
>>778910
>Была изначально речь про то, FreeBSD разве что для файлопомойки сойдет, раз докера нет.
Очевидно не правда. Хотя я и не вижу смысла в менее распространённой ОС в данном контексте. Впрочем если кому удобнее с ним ебаться, то в добрый путь как говорится.
>Сказать-то что хотел?
Я потому топлю против докера, чтобы он не стал ещё одной стандартной прослойкой. И так уже снап говно пролезло в десктопные люнукса, в убунте вон пяток программ им испорчены прямо из коробки. Это пиздец, ребята. А пиздецу я пассивно сопротивляюсь, надеясь, что мой скромный вклад принесёт хоть немного пользы да, у меня шиза.
ну-ка поясни как максимально быстро восстановить контейнер при условиях:
- он отработал год и накопил данных на 100Гб
- образ максимально доступный типа mysql
если речь про мускул то просто кладёшь бэкап sql в папку которая мапится в контейнер на /docker-entrypoint-initdb.d
запускаешь самым обычным d-c up -d
ждёшь
профит
> Очевидно не правда.
> Хотя я и не вижу смысла в менее распространённой ОС в данном контексте.
Писал это не я и, повторюсь, против фри ничего не имею, но для дома, на мой взгляд, тоже нужно что-то распространенное, но если нравится FreeBSD, то пусть будет FreeBSD. В роли файлопомойки уж точно линуксам не уступит, а администрировать это будет чуть приятнее.
> по хорошему надобности в разных версиях ПО быть не должно
Но она всегда есть, если ты разрабатываешь что-то большое много лет. Этим реальность от маняфантазий и отличается, и Докер в том числе помогает как-то в этой реальности жить и не охуевать.
> Я потому топлю против докера, чтобы он не стал ещё одной стандартной прослойкой.
Он стал в корпоративном сегменте. Как ты предлагаешь сервисы изолировать и скейлить? Знаешь, как ПО продают вообще? Знаешь, что почти во всех случаях, когда покупают программные комплексы, требуют, чтобы оно умело разворачиваться на инфаструктуре заказчика в кубере/опеншифте?
Понятно, что тред про домашние сервера, но именно они часто используются в качестве тестовых машин для саморазвития и всего такого.
>>778936
> он отработал год и накопил данных на 100Гб
Очень палишься тем, что не видел реально контейнеров и не совсем правильно понимаешь из-за этого, для чего они нужны. Эти самые 100 ГБ будут храниться вне контейнера и просто подключаться к нему в виде внешних, э-э, volumes, в общем. Данные в контейнере -- смертный грех, БД в контейнере -- сама смерть, если речь не про тестовую БД какую-нибудь.
> Эти самые 100 ГБ будут храниться вне контейнера и просто подключаться к нему в виде внешних, э-э, volumes
я тут >>778961 предполагал что наш условный ovh сгорел вместе с серваками и у нас остались только экспорты sql
В любом случае это проще чем восстанавливать полноценный физический сервер с бд
>Начал с "очень специфической фигни", теперь оказывается, она и у тебя на работе есть.
Линукс технология для девяпсов в ойти энтерпрайзе.
Таки да, очень спецефичная.
У меня есть на работе, а у людей в кровавом ентерпрайзе не замешанных - нет.
На этом говне, для носителей продукта кашеподобного идентичного натуральному в голове, мир клином не сошелся.
стоит двести дорраров
>>778974-кун
Их цели не очень понятны. Это для тех бомжецодов которые чисто на кукурузенах собирают?
Кьюбит всё ещё имеет много проблем. Не ловит пиров и прочую странную дичь.
Для торрентбокса лучше трансмиссии ничего не придумали.
Сам управляю трансмиссией через гуишку, это позволяет скачиваемые браузером торрент файлы сразу открывать в торрент клиенте.
С веб мордой так нельзя.
Кастомная морда для кубита как минимум в хроме умеет прописываться обработчиком магнетов
>. Странно что находятся его апологеты.
Пориджей в универе научили. На ютубе показали. У них вау эффект.
>Но она всегда есть, если ты разрабатываешь что-то большое много лет.
Много это сколько? Проекту на моей работе лет 6 уже, никакой ебли с версиями софта там нет. Сказал перейти на PHP8, взяли и перешли.
>Он стал в корпоративном сегменте.
И это хуёво.
>>779010
>Кьюбит всё ещё имеет много проблем. Не ловит пиров и прочую странную дичь.
УМВР, пиров для скачки на 200+ мегабитах хватает, если раздача популярнее чем нихуя. Другой дичи тоже не встречал.
>Для торрентбокса лучше трансмиссии ничего не придумали.
Трансмиссия срёт под себя невыбранными файлами, так что мимо.
>>779011
А нужны обработчики для файлов .torrent. Впрочем я уже привык при сохранении файла на рамдиск ббраузером нажимать CTRL+C и тут же в соседнее окно CTRL+V при указании имени файла, накладка минимальная. Видел отдельные псевдодесктопные клиенты, но не помню почему не стал их использовать, была там какая-то уёбищность.
Не знал. Спасибо.
Но для меня всеравно много ограничений.
Мне морда кубита гуишная нравилась.
А с веб какие-то проблемы вечно. Проще уже реально просто торрент файлы скидывать в папку чтобы сервер автоматом качал.
У меня так раньше rtorrent работал. Норм чаще.
>Пориджей в универе научили.
Ебать этому в универах уже учат? Я думал там дольше турбопаскаля не ушли.
Ценник пиздец конечно, в половину моей сборки (без дисков само собой). Стоила бы 5к рублей, купил бы не задумываясь вместо видеокарты за 3к.
>>779042
>Проще уже реально просто торрент файлы скидывать в папку чтобы сервер автоматом качал.
Вот это кстати самый удобный вариант даже с десктопными клиентами.
>Кьюбит всё ещё имеет много проблем. Не ловит пиров и прочую странную дичь.
Пока особых проблем не было да и веб-морда приятная.
> Кьюбит всё ещё имеет много проблем. Не ловит пиров и прочую странную дичь.
Ну хуй знает. Это всего три месяца аптайма, кстати, до этого несколько лет на десктопе тоже проблем особо не было.
>Ценник пиздец конечно, в половину моей сборки (без дисков само собой). Стоила бы 5к рублей, купил бы не задумываясь вместо видеокарты за 3к.
>>778974
За эти деньги доплатив сотню баксов можно уже серверную мамку взять с тем-же апиимаем.
Так что это оче узкое решение для тех кому это действительно нужно.
>>778977
>Их цели не очень понятны. Это для тех бомжецодов которые чисто на кукурузенах собирают?
На AM4 есть серверный мамки с ipmi
>>778966
> Как ты предлагаешь сервисы изолировать и скейлить? Знаешь, как ПО продают вообще? Знаешь, что почти во всех случаях, когда покупают программные комплексы, требуют, чтобы оно умело разворачиваться на инфаструктуре заказчика в кубере/опеншифте?
Сколько много буззвордов.
А на деле это говно МЕШАЕТ скелингу, и валится при первом чихе всё, намертво. На недавно с амазоном было и до этого с д океаном.
>>779041
>Трансмиссия срёт под себя невыбранными файлами, так что мимо.
Ну это если неибаться какой окрщик или ну очень много частичных торрентов качаешь.
Я одно время из принципа русскую озвучку к аниму не выкачивал, а потом понял что места она один хуй почти не занимает, и стал всё хуячить целиком.
Исключения у меня только очень большие торренты по типу "все редакции виндовс" или "антология чужой блюрей ашди тру".
>срёт под себя
Вроде в отдельную папочку аккуратно какает.
Если не держать у себя эти части, то например ты не сможешь проверить частичный торрент на целостность не выкачав недостающие куски.
> За эти деньги доплатив сотню баксов можно уже серверную мамку взять с тем-же апиимаем.
там австралийские доррары, $170 где-то. двести - с учётом доставки.
> Так что это оче узкое решение для тех кому это действительно нужно.
да, имхо под гей мерзкие сервера будут расхватывать, как горячие пирожки. если продавать услугу IP-KVM по 20 баксов, то окупаемость карты - год
> Проекту на моей работе лет 6 уже, никакой ебли с версиями софта там нет. Сказал перейти на PHP8, взяли и перешли.
Лет десять, но первые два года тоже на PHP было. Чёт в районе 100 микросервисов. Начали миграцию с .Net Core 2.1 на .Net Core 3.0, в итоге всё растянулось и последние пятнадцать сервисов сразу на .Net 5.0 уже переводили.
> И это хуёво.
Ну это твоё мнение, больше мне сказать нечего.
>>779070
> А на деле это говно МЕШАЕТ скелингу
Какая-то хуйня, я тебя не понимаю. У кого-то что-то сломалось -- это Докер плохой, вот без Докера было бы ок. Я помню деплой по SSH, балансировку ручным пердолингом nginx. В те времена вернуться не хочется, а уберальтернатив ты конечно же мне не предложишь.
>или ну очень много частичных торрентов качаешь.
This.
>а потом понял что места она один хуй почти не занимает
33 метра на серию, итого на полный сезон (или 2 полусезона, или 4 четвертинки 13 серийных) больше 1,5 гигов. Множим на 2, ибо сейчас каждая собака, купившая себе телефон с гарнитурой, называет себя студией (видел раздачу с 13 рудаб-дорогами, но это уже клиника), и на пару сотен полноценных сезонов, и получаем больше 0,5ТБ отборнейшего говна на диске. Не то чтобы меня напрягало, но 1/30 часть хранилища под говно как-то многовато.
>Вроде в отдельную папочку аккуратно какает.
О, прогресс. Осталось понять, куда её определить, ибо лично у меня отдельные массивы под аниме, фильмы и прочие файлы, а системный диск на NAS вообще на 120 гиг SSD старше некоторых анонов здесь.
>>779102
О кстати, оказывается я с текущего NAS раздал уже больше половины всего розданного на срутрекере, притом что на нём я уже десятилетие, а NAS стоит чуть больше полугода. Вот что значит 24/7/360.
Ноунейм отстаёт на 2 порядка, лол.
>Чёт в районе 100 микросервисов.
Ебать вы там наговнокодили. В баиду работаешь что ли?
> Я помню деплой по SSH, балансировку ручным пердолингом nginx.
Даже пороха не нюхал, молокосос. Я ебашил файлы прямо на проде по FTP битрикс, тебе отдельный пламенный привет прямо в сраку, вот это хардкор.
Я не стал вспоминать совсем ранние годы с shared хостингами jino.ru и деплоем через FTP/панель управления хостера. Ты эти воспоминания разблокировал.
>>779136
Это крохи. В планах штук двадцать отстрелить, потому что частично схлопнется что-то, а частично замещается новыми сервисами, но на самом деле могут дохуя ещё протянуть.
25 петабайт? Моё увожение.
>>779167
>совсем ранние годы с shared хостингами
Для кого ранние, а у кого коллеги до сих пор так работают на jino.ru клиент тоже был, но в основном рег.сру. Слава б-гам программирования, что я сразу обозначил ту контору для себя чисто для вкатывания и строчки в резюме, и съёбся оттуда через год.
Не, на порядок меньше. В сумме по всем хостам и по всем клиентам, думаю, 5 наберётся, не больше.
>Какая-то хуйня, я тебя не понимаю. У кого-то что-то сломалось -- это Докер плохой, вот без Докера было бы ок. Я помню деплой по SSH, балансировку ручным пердолингом nginx. В те времена вернуться не хочется, а уберальтернатив ты конечно же мне не предложишь
Если деалть микросеррвиси неграмотно(грамотно делают ооочень редко) то издержки перевешивают профиты.
Примерно то-же самое с докерами, однако, в случае с этими всеми докерами кубернетосами и облаками грамотно седлать попросту невозможно.
Вместо 1 админа 2 помощника админа и 1-2х безопасников у вас теперь штат из 10 - 20 девяпсов и никакой надёжности и никакой безопасности и никакой отказоустойчивости.
Зато хуяк хуяк и продакшон не снимая памперса НО.
И без докера можно было раньше абсолютно так-же хуяк хуяк и в продакшен.
То есть вместо упрощения инфраструктуру её в одном месте упростили, а в другом сильно усложнили ПОВЫСИВ расходы на её обслуживание.
Это обычная ситуация когда пытаешься что-то упростить а на выходе получается переусложнённое овно. Тогда ты решаешь что идея не удалась и закапываеь это говно.
НО БОЛЬШИМ КОРПОРАЦИЯМ НУЖНО ПИЛИТЬ БАБКИ УЖЕ СЕЙЧАС ОБЛАКА РАСПРЕДЕЛЁННАЯ МИКРОСЕРВИСНАЯ АВТОСИСТЕМА БУБЕРНЕТУСА1111111
И теперь то что раньше решалось 2мя PHP скриптами и MySQL базой требует 100 МИКРОСЕРВИСОВ.
Причем мы будем не просто ПостгиСКУЛ юзать му будем для каждой таблицы делать датабейс микросвервис и пару трансактионал датабейс микросервисов потому что одна база данных это слишком просто блядь!
Всё я насрал зовите санитаров.
всё так, но восторженные хипстеры этого не понимают (а может прекрасно понимают, но делают вид, что не понимают)
прикол в том, что суть всего айти - в усложнении.
если ты сделаешь что-то, с чем справится одна макака, то на работу возьмут макаку за более низкий прайс, а ты пойдёшь на мороз))))
поэтому программисты максимально усложняют код, а администраторы максимально усложняют инфраструктуру, чтобы
а) их не выгнали на мороз
б) на поддержку всего этого говна ещё можно было подтянуть брата-свата-племянника
> у вас теперь штат из 10 - 20 девяпсов и никакой надёжности и никакой безопасности и никакой отказоустойчивости
У нас полтора девопса, беспруфную хуйню про надёжность, безопасность и отказоустойчивость не буду комментировать.
> а в другом сильно усложнили ПОВЫСИВ расходы на её обслуживание
Во-первых, я дал тебе понять, что реальный мир с реальными заказчиками прямо требует, чтобы продукт можно было развернуть в кубере. Сколько бы ни стоил девопс, платит заказчик и всё с лихвой окупается.
Во-вторых, в качестве альтернативы ты предлагаешь скрипты на PHP, лол, и ручное ковыряние палкой по SSH. Охуенно не переусложнили, охуенно безопасно, охуенно отказоустойчиво. Весь мир из долбоебов состоит, видимо, а ты тут один в треде всё понимаешь правильно.
> Тогда ты решаешь что идея не удалась и закапываеь это говно
Прямо берут и закапывают все. Ой, или нет, оно излишне популярно и тебя это бесит. Или всё же закапывают? Или популярно? Стул выбери для начала.
> Причем мы будем не просто ПостгиСКУЛ юзать му будем для каждой таблицы делать датабейс микросвервис и пару трансактионал датабейс микросервисов потому что одна база данных это слишком просто блядь!
Ну это правда помощь специалистов уже нужна, попроси маму вызвать тебе белую газельку.
>>779555
> суть всего айти - в усложнении
Суть всего в айти -- управление сложностью проектов в условиях меняющихся требований.
> а администраторы максимально усложняют инфраструктуру, чтобы
> а) их не выгнали на мороз
> б) на поддержку всего этого говна ещё можно было подтянуть брата-свата-племянника
Типичный девопс заменяется без особой боли, а сценарий с самописными скриптами и ручным управлением сервисами как раз приводит к тому, что у тебя появляется неувольняемый самодур, после которого ни один психически здоровый человек не сможет нормально поддерживать проект. Ох уж это искусство перевернуть все с ног на голову, не разбираясь в вопросе.
В общем, заканчиваю с вами сообщениями перекидываться, потому что адекватного диалога точно не будет.
> у вас теперь штат из 10 - 20 девяпсов и никакой надёжности и никакой безопасности и никакой отказоустойчивости
У нас полтора девопса, беспруфную хуйню про надёжность, безопасность и отказоустойчивость не буду комментировать.
> а в другом сильно усложнили ПОВЫСИВ расходы на её обслуживание
Во-первых, я дал тебе понять, что реальный мир с реальными заказчиками прямо требует, чтобы продукт можно было развернуть в кубере. Сколько бы ни стоил девопс, платит заказчик и всё с лихвой окупается.
Во-вторых, в качестве альтернативы ты предлагаешь скрипты на PHP, лол, и ручное ковыряние палкой по SSH. Охуенно не переусложнили, охуенно безопасно, охуенно отказоустойчиво. Весь мир из долбоебов состоит, видимо, а ты тут один в треде всё понимаешь правильно.
> Тогда ты решаешь что идея не удалась и закапываеь это говно
Прямо берут и закапывают все. Ой, или нет, оно излишне популярно и тебя это бесит. Или всё же закапывают? Или популярно? Стул выбери для начала.
> Причем мы будем не просто ПостгиСКУЛ юзать му будем для каждой таблицы делать датабейс микросвервис и пару трансактионал датабейс микросервисов потому что одна база данных это слишком просто блядь!
Ну это правда помощь специалистов уже нужна, попроси маму вызвать тебе белую газельку.
>>779555
> суть всего айти - в усложнении
Суть всего в айти -- управление сложностью проектов в условиях меняющихся требований.
> а администраторы максимально усложняют инфраструктуру, чтобы
> а) их не выгнали на мороз
> б) на поддержку всего этого говна ещё можно было подтянуть брата-свата-племянника
Типичный девопс заменяется без особой боли, а сценарий с самописными скриптами и ручным управлением сервисами как раз приводит к тому, что у тебя появляется неувольняемый самодур, после которого ни один психически здоровый человек не сможет нормально поддерживать проект. Ох уж это искусство перевернуть все с ног на голову, не разбираясь в вопросе.
В общем, заканчиваю с вами сообщениями перекидываться, потому что адекватного диалога точно не будет.
>Во-первых, я дал тебе понять
Чел, у тебя завышено чсв.
>что реальный мир с реальными заказчиками прямо требует, чтобы продукт можно было развернуть в кубере. Сколько бы ни стоил девопс, платит заказчик и всё с лихвой окупается.
Речь шла о цене немного более сложной чем доход отдельной говноайти конторы. Ну например о цене для заказчика. Ещё интереснее цена для клиента у которого это всё глючит тормозит и отваливается, ещё интереснее цена для инфраструктуры когда отключаются кофемашины потому что неубиваемое распределённое супер пупер докер контейнер авс кубернетус облако упало нахуй. Ещё интереснее цена ресурсов которые тратит общество на поддержание этого говна в рабочем состоянии.
Например ваш девопс мог бы улицы мести, теперь улица грязная, или его пришлось заменить Ашотом, Ашот тебя в подворотне трахнул, и метёт плохо.
>Во-вторых, в качестве альтернативы ты предлагаешь скрипты на PHP, лол
В качестве альтернативы 100 скриптам я предлагаю 2.
>и ручное ковыряние палкой по SSH
Так делать не стоит. А то будет вот так https://www.opennet.ru/opennews/art.shtml?num=56210
> Охуенно не переусложнили, охуенно безопасно, охуенно отказоустойчиво.
Хорошо же.
> Весь мир из долбоебов состоит
Тоже мне новость. Из долбоёбов фирменных которые себе собирают микросервисы в докеры прямо из NPM и прочего гита не выпуская из рук смузи а потом ОЙ.
>видимо, а ты тут один в треде всё понимаешь правильно.
Лолнет. Откуда столько соли?
>Типичный девопс заменяется без особой боли, а сценарий с самописными скриптами и ручным управлением сервисами как раз приводит к тому, что у тебя появляется неувольняемый самодур,
Ну да. С докорем у тебя теперь самописные скрипты внутри докера, теперь то проблема ручного управления решена.
Осталочюсь только развернуть вот эту очень сложную систему для управления контейнерами которую тоже нужно поддерживать.
И тогда точно. Ой, нет, подожди, нужен же админ который через кокпит будет вручную этим управлять.
Ну всё. Проблема ручного управления решена.
поддерживаю
> С докорем у тебя теперь самописные скрипты внутри докера
Какие еще самописные скрипты в докере?
имеется ввиду, что без докера ты разработчик на РНР8 уровня ГУГЛ, а с докером самописные скрипты на РНР4
>РНР8 уровня ГУГЛ
Гугл использует PHP разве что на странице, где они пиццу заказывают в ближайшей пиццерии.
Какой-то ноунейм псевдосерверный под 4U, ExeGate 4U650-010/4U4139L, если ничего не путаю.
> возможность
есть скорее всего есть, я ещё не встречал серверов, на которых они не откручиваются хотя не так уж много и встречал. по крайней мере на gen8 точно снимаются.
> смысл
нет
Там же хорошая паста по идеи, хоть и засохшая, но должна работать.
Под кулерами процессоров в любом случае буду менять.
в серваки обычно хорошую пасту мажут, на 7+ лет.
если перегревается - поменяй, если не перегревается - не меняй.
если уже решил менять на процессорах - тогда везде поменяй (заодно узнаешь её состояние).
алсо учти, что на радиаторах на мамке иногда вместо пасты термоскотч юзают.
Нашёл где собирается конфиг для демона и накатал postinit скрипт для его патча.
В начале пробовал сам daemon.json патчить но он генерился уже после postinit и вариантом было его уже после полного старта менять + ребутать докер что вообще не круто.
У трунаса появился магазин контейнеров, докер/докер компоуз теперь может и не нужен?
https://www.servernews.ru/1056766
он всегда был вот только клал я болт на кубы поверх которых ещё и чарты накручены.
Абсолютно неудобно. К примеру как тот же сервер майна настраивать я не представляю. Ещё я точно могу сказать что не могу отказаться от nginx-proxy контейнера
+ думаю с ноута сюда перенести рабочее окружение по типу рабита, эластика и т.д.
У таких ёб жёсткое ограничение 6Гбит\с поэтому твой SSD будет тормозить адски. Так что ставь и страдай.
> 6
это будет восхитительно, если там на самом деле SATA3 6 гбит.
я вообще думаю, что у сидиромных портов максимум SATA2 - 3 Гбит, плюс ещё какое-нибудь хардварное ограничение уровня "640 килобайт/с хватит всем сидиромам"
и буду весьма доволен, если будет 3 гбита БЕЗ дополнительных ограничений.
нубля, там же никакого контроллера нет, даже на входе SATA порт стандартный (SFF-8784). Только разъём питания чуть короче. Соотвественно плата просто переходник между двумя разъёмами. К какому порту подключишь, такая скорость и будет.
Есть ли смысл вообще им пользоваться если постоянно имеется физический доступ к сервакам?
Хочу понять нужно ли мне это, с одной стороны паранойю по поводу того, что может какая-то уязвимость торчать из ило и лень разбираться, а с другой стороны может быть полезно.
Кстати порт с ило, он как обычный эзернет порт работает?
> Скажите iLo можно же выключить в биосе?
выключить нельзя, можно настроить IP типа 127.0.0.1
> Есть ли смысл вообще им пользоваться если постоянно имеется физический доступ к сервакам?
есть - ковырять дедик лёжа на диване, а не стоя перед шкафом.
> с одной стороны паранойю по поводу того, что может какая-то уязвимость торчать из ило
это так. IPMI торчащий голой жопой в интернет == гроб гроб и далее по списку. не высовывай IPMI в интернет, используй локальные адреса.
> Кстати порт с ило, он как обычный эзернет порт работает?
если это именно выделенный под менеджмент, с надписью "iLO" - не работает.
если это обычный сетевой порт (он же "Shared") - работает, но только если iLO/IPMI не настроен - одновременно и IPMI и ось один сетевой порт юзать не могут (по крайней мере в HP)
> выключить нельзя, можно настроить IP типа 127.0.0.1
хотя нет, вроде можно вообще сеть выключить.
посмотри в настройках самого iLO (обычно F8 при загрузке), а не в биосе.
я имел в виду сата порт на материнке, предназначенный для сдрома - там не бывает ограничений?
скорее всего для экономии там сата2, и надеюсь, что других ограничений нет.
У меня в серве леново при выборе варианта загрузки хард назывался все равно cd-rom, до конца не тестил, увидел эту парашу и сразу передумал.
> леново
так это в принципе сраное говно из жопы вместо сервера.
протестирую в нормальных серверах и отпишу.
Есть пара 1тб и три 600гб. Хотелось бы сделать RAID5
если что, на них пока данные. Если можно буду искать куда скинуть
Может, конечно. Он умеет и с разделами работать, как раз твой случай. Создаешь на всех дисках раздел условно 590 гб и собираешь из разделов массив.
По фактам.
Если что году в 2011 IBM подразделение было выкуплено леновой, с того и началось.
AHCI?
Есть че лучше китайских плат на J4105?
Надо хотяб 4 потока и минимум 8, а лучше 16Гб памяти на каждую ноду.
Сразбери мало памяти и синглкоре и нужно х86, кетайские зевоны слишком оверкилл и много жрут/греются/шумят, просто большие.
Ам4 точно дороже и амудоговно нинужно.
1151 надо посмотреть, но скорее всего тоже дороже будет.
Так тебе надо дешевое или чтоб работало?
>кетайские зевоны слишком оверкилл и много жрут/греются/шумят
Так ты бери лоу версии. У меня в NAS например 2630L по цене пересылки, по паспорту 55 ватт, а если зарезать, то ещё меньше, да и то под нагрузкой. Хотя синглкор там унылый, но думаю получше всяких дешёвых ARM и тухлых старых атомов.
>>793716
>Ам4 точно дороже
А ведь когда-то я взял сраный рузен 1200 за сраные 3000 рублей, новый. Топ кража, с учётом того, что продал я его за 4к, лол.
> вместо покупки сервера собирается поднимать кластер кубера на минипк
Пикрелейтед это твое ебало, 100%.
Единственный плюс этой затеи - можно сделать потом красивую фотографию и показывать другим технокуколдам.
Только не забудь рот открыть пошире на фоне своего k8s bare metal cluster
Больше ни одного плюса по сравнению с нормальным сервером с гипервизором я не вижу.
Еще и дороже выйдет.
Забыл, что тут, сойбои только блоки питания обсуждают.
На Тао мамки с j1900 пачками продаются по 1.5к + оператива, с БП что нибудь нужно будет пошаманить
Хотя ладно. 1900 уже протух, но цена всё же решает если нужно штук 8
> Единственный плюс этой затеи - можно сделать потом красивую фотографию и показывать другим технокуколдам.
> Только не забудь рот открыть пошире на фоне своего k8s bare metal cluster
серверчую.
алсо серверчую L зионы >>793900
у меня есть E3-1240L v3 - довольно мощный, при этом жрёт ненамного больше J4105
зион в брендовом сервере и зион из-под китайца - две большие разницы.
> У вас хотя бы 25% этой мощности задействуется?
и 10% не задействуется, но и жрут они не на всю катушку, благо существуют всевозможные powersave и cpufreq.
> Если да, то что хостите?
цопэ
Нормальный серверный цп отличается от десктопного обрезка не только количеством ядер/потоков, но и поддержкой регистровой памяти с большим количеством каналов и большим количеством линий pcie.
>У вас хотя бы 25% этой мощности задействуется?
Во времена DDR3 у десктопных платформ всё было особенно хуёво. 4/8, 32 гига, 16 pcie. Этого даже году в 2015 было ебать как мало, и я на собственном опыте в этом убедился.
На постоянку нет, но я хочу что бы пайплайны в гитлабе не висели, контейнеры работали стабильно, виртуалки всегда были отзывчивы, а зфс имела хотя бы 15-20гб кэша
> зион в брендовом сервере и зион из-под китайца - две большие разницы.
Ты сейчас про степень разъебанности, про модель материнки или про модель процессора? Поясни за разницу, в общем.
>>794511
В чем разница заключается, я и так знаю. Я спрашиваю про целесообразность покупки серверного процессора для домашнего использования.
>>794904
Что ты там хостишь такое, что тебе CI/CD нужен?
Я не осуждаю ни в коем случае. Мне просто рили интересно, что нужно сделать, чтобы дома потребовался полноценный (хоть и старый) сервер. Я-то некродесктоп использую, и мне его как-то даже слишком много получается.
>Поясните за Зионы.
Взял из-за большого количества линий PCI-E, можно впилить хоть пару 10GBe контроллеров, дисковый контроллер и линий ещё на NVME останется. Хотя сейчас занят только затычкой для видео, лол. Дисковый контроллер купил про запас (а хули не взять за 2к на 8 дисков то серверный надёжный), пока хватает чипсетных (10 линий, это не десктопные обрезки на 6 штук).
>>794345
>зион в брендовом сервере и зион из-под китайца - две большие разницы.
И в чём разница? Хотя у меня китайкий проц и брендовая мать, +30% к напруге на проц так сказать, лол.
>>794912
>что нужно сделать, чтобы дома потребовался полноценный (хоть и старый) сервер
Ну вот у меня NAS на 15 расчётных дисков (сейчас стоит 6). Материнка по сути так вообще десктопная, ASUS X99-E, самый бомж вариант от бренда на 2011-3, но даже он нафарширован будь здоров, а стоил мне на 2к больше реболла от хуянанзи.
>Что ты там хостишь такое, что тебе CI/CD нужен?
На деле мне вполне хватает gitea для жизни, но ci я дрочу просто ради саморазвития т.к. если ты сидишь на месте то потом нахуй никому не нужен будешь и пойдёшь грести древнее легаси (знаю одного такого, грустное зрелище).
А так сам прикинь:
- нас
- торрентокачалка
- вм под торы/freenet/i2p/...
- вм под всякие извращения с осью и софтом
- длна
- всякие игровые серваки что бы позадротить с друзьями (на деле с одним)
- всякий самописный софт
- гит
- умный дом (в планах, шекели есть, времени нет)
про модель материнки. в брендовых серверах обычно используют качественные комплектующие, в китайских обычно используют говно из жопы, со всеми из жопы же и вытекающими.
>>790331
проверил ёбу в двух серверах - Dell R220, Fujitsu RX1330m2.
в целом вердикт: оно работает, но, как я и боялся, у разных производителей могут быть свои приколы.
BIOS:
в обоих серверах определяется именно как Hard Disk, а не CD-ROM;
на мамке Dell у порта, выделенного для сидюка, указано "ODD/SATA", у всех остальных просто "SATA";
на мамке Fujitsu у всех портов написано просто "SATA", ну и номер.
SATA:
в Dell при подключении к порту "ODD/SATA" S.M.A.R.T. сообщает, что диск подключен по SATA2 "SATA Version is: SATA 3.1 6.0 Gb/s (current: 3.0 Gb/s)"; а если подключить к любому другому порту - то будет SATA3 "current 6.0 Gb/s").
в Fujitsu у всех портов SATA3 и смарт сообщает "current: 6.0 Gb/s"
СКОРОСТЬ:
в Fujitsu скорость записи файлов равных размеру сектора (512 байт) выше 8 мегабайт в секунду не поднимается, держится в районе 6 MB/s, пиздец.
при записи не настолько мелких данных (dd bs=4k) скорость поднимается до ~40 MB/s. подозреваю, что SATA контроллер Fujitsu не вытягивает запись совсем мелких файлов.
в Dell запись bs=512 держится в районе 60 MB/s (480 Mb/s), и чем больше ставишь bs - тем ещё выше становится скорость.
при записи совсем больших файлов (bs=4M) у обоих серверов скорость записи в районе 300 MB/s (~2000 Mb/s).
скорость чтения (hdparm -t) в обоих серверах также в районе 300 MB/s.
о така хуйня, малята - неочевидные ограничения скорости действительно могут быть. покупайте сервера Dell
проблемы с периферией скорее всего исключены - я пробовал два разных SSD, два разных сата кабеля разных брендов, втыкал в разные разъёмы сата на материнках, и даже два разных CD-переходника (заказал модели толщиной 9.0 мм и 9.5 мм).
>>790331
проверил ёбу в двух серверах - Dell R220, Fujitsu RX1330m2.
в целом вердикт: оно работает, но, как я и боялся, у разных производителей могут быть свои приколы.
BIOS:
в обоих серверах определяется именно как Hard Disk, а не CD-ROM;
на мамке Dell у порта, выделенного для сидюка, указано "ODD/SATA", у всех остальных просто "SATA";
на мамке Fujitsu у всех портов написано просто "SATA", ну и номер.
SATA:
в Dell при подключении к порту "ODD/SATA" S.M.A.R.T. сообщает, что диск подключен по SATA2 "SATA Version is: SATA 3.1 6.0 Gb/s (current: 3.0 Gb/s)"; а если подключить к любому другому порту - то будет SATA3 "current 6.0 Gb/s").
в Fujitsu у всех портов SATA3 и смарт сообщает "current: 6.0 Gb/s"
СКОРОСТЬ:
в Fujitsu скорость записи файлов равных размеру сектора (512 байт) выше 8 мегабайт в секунду не поднимается, держится в районе 6 MB/s, пиздец.
при записи не настолько мелких данных (dd bs=4k) скорость поднимается до ~40 MB/s. подозреваю, что SATA контроллер Fujitsu не вытягивает запись совсем мелких файлов.
в Dell запись bs=512 держится в районе 60 MB/s (480 Mb/s), и чем больше ставишь bs - тем ещё выше становится скорость.
при записи совсем больших файлов (bs=4M) у обоих серверов скорость записи в районе 300 MB/s (~2000 Mb/s).
скорость чтения (hdparm -t) в обоих серверах также в районе 300 MB/s.
о така хуйня, малята - неочевидные ограничения скорости действительно могут быть. покупайте сервера Dell
проблемы с периферией скорее всего исключены - я пробовал два разных SSD, два разных сата кабеля разных брендов, втыкал в разные разъёмы сата на материнках, и даже два разных CD-переходника (заказал модели толщиной 9.0 мм и 9.5 мм).
Ты скорее всего сравниваешь не качество производителей, а обычный набортный ich и рейд контроллер с оперативкой не менее 512м.
на обоих серверах сравниваю именно "набортный" SATA в режиме AHCI, и втыкаю кабель в порты на самой мамке, а не на RAID контроллерах (тем более на контроллерах порты SAS)
у меня эта ёба работает с Fujitsu RX1330 m1 вместе с SSD какой то самсунг. Скорость записи точно по заявленным 200мб\с, чтения 500мб\с. Подключено первым попавшимся кабелем в порт для CDROM.
попробуй
cd /путь/где/примонтирован/этот/ссд/
dd status=progress bs=512 if=/dev/zero of=test.txt count=1M
dd status=progress bs=4k if=/dev/zero of=test2.txt count=100k
> мб
в приличном обществе принято буквой "б" обозначать биты, а байты - буквой "Б".
как и "м", кстати - ты написал "миллибит в секунду")))
что не так?
Нахуя эта пластмассовая рамка и нахуя она мне всралась? Сокеты одинаковые, процы одинаковые, кулеры одинаковые.
Может они спизжена, но нахуя, почему только одна, почему на двух разных серваках? Сдается мне вендор (хп) подложил залупку, только зачем?
А еще на цпу0 на самом проце голубая рамка, приклеена. Я на другом серваке сначала убрал черную рамку, потом переставил проц, охуел от того, что сокет до конца не закрылся и кулер нихуя не контачит, в итоге этот другой сервак работает без обоих пластмассок, вроде все норм.
Короче объясните нюфане, пожалуйста.
точно не знаю, тыкаю пальцем в небо
> Нахуя эта пластмассовая рамка и нахуя она мне всралась?
- имхо для защиты от пыли.
> почему только одна, почему на двух разных серваках?
- имхо по умолчанию сервер шёл с одним процессором, и вендор положил к цпу0 рамку, а потом сервер апгрейднули вторым процессором, и к нему уже рамка в комплекте с радиатором не шла.
> Сдается мне вендор (хп) подложил залупку, только зачем?
ну тут уже не пальцем в небо, а гарантированно: для экономии.
Какие советы будут?
Шумоизолированная стойка стоит дороже чем твой сервер, лучше сколхозь самостоятельно. Фанера с поролоном в помощь.
Скорость вентиляторов у делла можно регулировать через ipmitool, у synology - хуй знает.
двачую этого >>796078
главное - не обновляй идрак! с какой-то версии запретили управлять вентиляторами.
вот тут читай https://www.spxlabs.com/blog/2019/3/16/silence-your-dell-poweredge-server
попробуй в идраке
Hardware - Fans - Setup
выставить
Profile = Minimum Power
и
Minimum Fan Speed = 10%
Если тебе нравится, то почему бы и нет.
нефиг было 1U домой покупать под НАГРУЗКИ))))
для этого 3-4U существуют с кулерами большого диаметра, да даже 2U относительно тихие.
>нефиг было 1U домой покупать под НАГРУЗКИ))))
Ну что было. Честно говоря, он пока даже не загружен, я вообще не умею пользоваться люнипсами, лол. Но вот без опыта извращаться с нагрузками и температурами как раз не хочу
>Ну а че, мне его под нагрузкой в печку превращать что ли?
>>796298
удваиваю этого
А вообще, колхоз с поролоном – такая же печка, пространство-то все равно замкнутое. Совсем дешёвого решения не выйдет.
Я на авитах можно выискал вот такую няшу https://www.supermicro.com/en/products/chassis/4U/743/SC743TQ-865B-SQ, заменил все вентили. 4 x Arctic F8 PWM + 1 x Arctic F9 PWM в корпус и 2 x Arctic F8 PWM в БП. В БП оба вентиля на 4pin цепляются, оче удобно. Брат жив, зависимость есть, даже ночью при закрытых окнах с метра слышно чуть меньше чем нихуя.
Вышло ~12к. Как бонус – можно поставить тихий кулер, но низковаттные процы даже пассивно охлаждаются.
Алсо, можешь накупить в свой одноюнит 40мм нохчей, и поменять все вентиляторы, включая БПшные, но это будет гораздо дороже, геморнее и хз вообще, дадут ли они нужный поток.
Блядь, ну может тогда шкаф с гидроизоляцией и на балкон? Или как там от конденсата защищаться?
кароч блокируешь частоту проца на 800 мгц и частоту кулеров на 10% (хз сработает ли 5% из примера по ссылке выше, у меня в одном делле только десятками процентов удавалось выставлять скорость) и не ебёшь мозг ни себе, ни людям.
когда проц наконец перестанет вытягивать твои НАГРУЗКИ)))) на 800 мгц - пробуешь выставить 1600 мгц. если охлаждение не справляется (температура проца превышает 70°) - продаёшь этот сервер и покупаешь 2-3 U
Дайте совет.
Есть диск на 6 Тб. Занят на 1.5 Тб и в процессе чтения ZFS показала ошибки чтения. В консоли соответственно сообщения о bad sector. Весь объём данных прочитался корректно, повреждений нет. Я запустил badblocks, но за несколько часов просканировано только 0.53%, сбойных пока не найдено - таким темпом диск будет полностью проверен через пару недель.
1. ZFS как то для себя отмечает плохие сектора?
2. Без переноса данных можно пометить сектора badblocks+fsck ?
3. Ещё варианты?
>>796823
если балкон застеклён - тогда ставь туда. Если сильно морозно - сделай шкаф из картона - сервер будет сам себя греть.
Ошибки могут появиться и из-за деградации оперативной памяти, проверь мемчек.
Что ха хуйню ты несешь? Какой в жтпу бедблокс что за назуй 1го числа?
Где смарт диска блядь?
Полный солфтест уже сделал?
>мне его под нагрузкой в печку превращать что ли?
Тебе не похуй как он греться будет? Не троттлит - и ладно.
>шкаф с гидроизоляцией и на балкон
Зимой холодно, летом жарко, температурные качели каждый день. Винты от такого с лёгкостью пойдут по пизде.
>>796774
>А вообще, колхоз с поролоном – такая же печка, пространство-то все равно замкнутое. Совсем дешёвого решения не выйдет.
Колхоз с поролоном делают промышленно и от шума это в целом спасает.
предположим, что у меня в сервере создан железный рейд, и внезапно сдох контроллер/мамка/небо/аллах. я смогу переставить харды в другой сервер другого бренда с другой моделью контроллера и без проблем инициализировать массив и продолжить работу, или придётся покупать новый точно такой же контроллер взамен сдохшего, т.к. ни одна другая модель не сможет прочитать данные?
в софтовом рейде типа mdadm вообще на пахуе вытаскивай-переставляй, всё автоматом детектится и работает.
> создан железный рейд
*с панели управления "железного" RAID контроллера создан "виртуальный" диск (например, RAID1), из двух физических дисков
>предположим, что у меня в сервере создан железный рейд, и внезапно сдох контроллер/мамка/небо/аллах. я смогу переставить харды в другой сервер другого бренда с другой моделью контроллера и без проблем инициализировать массив и продолжить работу,
Нет.
>, или придётся покупать новый точно такой же контроллер взамен сдохшего, т.к. ни одна другая модель не сможет прочитать данные?
Контроллеры одной линейки одного производителя часто могут друг друга прочитать, если они не сильно заумные.
Встроенный рейд на мамке обычно очень простой.
Так же этих разный рейд контроллеров, особенно встроенных очень немного популярных.
Прочитать данные иногда можно спец софтом.
Но я бы не стал натягивать сову на глобус, и восстановился из бекапа если абсолютно важно поставить совершенно много другое железо.
>в софтовом рейде типа mdadm вообще на пахуе вытаскивай-переставляй, всё автоматом детектится и работает
>всё автоматом детектится и работает
Нет.
поясни
Думаю, зависит от конкретных обстоятельств.
Я сделал рейд1 на LSI 9261-8i, ради эксперимента переткнул эти диски в комп с пингвином и пингвин спокойно задетектил рейд.
Все перечисленное у меня живёт на старом 7700к5.0Ghz с 32Гб памяти, жалко не ецц.
Кстати не смотря на разгон, в простое когда запущены только фоновые сервисы потребляет не больше 30Вт вместе с рейдом на 30Тб.
мимо
Че нет? Все так и работает как в гринтексте.
старейшины завет
это точно железный рейд был? то есть виртуальный диск был создан в панели управления контроллером, которая показывается сразу после включения компьютера, после загрузки биоса?
если контроллер был в JBOD/IT режиме, и по факту это был софтовый рейд, созданный при установке оси, то ничего удивительного.
а если нет - то это значит, что как минимум один контроллер создаёт какой-то "стандартизированный" формат данных, который распознаётся линуксом. и это именно то, что мне нужно.
я эту тему специально не изучал, но не так давно подключил один диск и RAID1 (контроллер LSI 9260) и успешно с него загрузился. Думаю с другим типом RAID такое невозможно.
> Да.
вот пидары
> Ага. Нулями инициализруй и работай.
я имел в виду "идентифицировать"
> Зачем? Зачем тебе именно железный рейд?
прост)
>прост)
В мире есть развлечения поинтереснее, чем проёб данных на железном рейде. Настрой например NAS на чистом Linux безо всяких там оболочек, на баш скриптах. И то полезнее будет.
>В мире есть развлечения поинтереснее, чем проёб данных на железном рейде.
Например проёб данных на софтварном рейде.
>проёб данных на софтварном рейде
это хотя бы предсказуемо, полно инфы как чинить или восстановить данные. А на хардварном: сдох контроллер - раскошелься на новый такой же, не собрался массив - плати "специалисту" сотни нефти за восстановление данных.
Есть же зфс/бтрфс
К nvme хардварных контроллеров вообще нету и не будет.
как к ZFS присобачить NVME, чтобы он кешировал запись (не только синхронную), м?
Синхронную запись в зфс никакие ССД не кешируют.
А кешировпние записи происходит в ОЗУ.
Можешь покопаться в настройках и выставить кеш по больше. Но обычно это не очень нужно.
ССД кеша записи в зфс нет. Но есть allocation classes - гугли.
>>799278
20 раз уже обсосали. Хватит одной и той же тупостью троллить.
>бтрфс
Тупая шутка.
>>799128
>полно инфы как чинить или восстановить данные
>>799100
>развлечения по интереснее.
Ну да.
>>799128
>сдох контроллер - раскошелься на новый такой же,
Ты в живую хоть раз сдохший рейд контроллер видел?
Не пори суши.
Да, "раскошелиться" лол, трагедия всей жизни.
Такой же не нужен. С бекапа востанавливаешь на любом раз ты бомж такой.
>не собрался массив - плати "специалисту" сотни нефти за восстановление данных.
Необучаемые.
Сейчас вот представил. Супер ценная информация, нагруженная бд обслуживает тысячи запросов в секунду и тут опа рассыпался рейд и всё упало нахуй ой что делать ну ничего пусть полежит недельку пока мы специалиста вызываем для восстановления данных.
Мамкины фантазёры блядь.
Синхронную запись в зфс никакие ССД не кешируют.
А кешировпние записи происходит в ОЗУ.
Можешь покопаться в настройках и выставить кеш по больше. Но обычно это не очень нужно.
ССД кеша записи в зфс нет. Но есть allocation classes - гугли.
>>799278
20 раз уже обсосали. Хватит одной и той же тупостью троллить.
>бтрфс
Тупая шутка.
>>799128
>полно инфы как чинить или восстановить данные
>>799100
>развлечения по интереснее.
Ну да.
>>799128
>сдох контроллер - раскошелься на новый такой же,
Ты в живую хоть раз сдохший рейд контроллер видел?
Не пори суши.
Да, "раскошелиться" лол, трагедия всей жизни.
Такой же не нужен. С бекапа востанавливаешь на любом раз ты бомж такой.
>не собрался массив - плати "специалисту" сотни нефти за восстановление данных.
Необучаемые.
Сейчас вот представил. Супер ценная информация, нагруженная бд обслуживает тысячи запросов в секунду и тут опа рассыпался рейд и всё упало нахуй ой что делать ну ничего пусть полежит недельку пока мы специалиста вызываем для восстановления данных.
Мамкины фантазёры блядь.
Уже настроил lvm-cache для lvm thin pool по совету из девопс-треда.
У меня теперь быстрый nvme выступает кэшем для медленных жестких дисков.
Результатом очень доволен:
1. Все создаваемые вм идут сразу с кешируемыми жесткими дисками, отдельно для каждой вм ничего по дискам настраивать не надо
2. Скорость как у SSD SATA III, падает до HDD-шной только при копировании больших файлов.
Минусы:
1. Весь объем nvme ушел на кэш
2. При создании машины из шаблона происходит копирование образа жесткого диска, это 25-30 гигов. Одна тачка создается где-то за 3 минуты. Не хорошо, но и не ужасно, у Амазона, конечно за 20 секунд создается. Придется потерпеть.
Если часто новые виртуалки создаёшь, то в принципе можно раз в минут 10 образ перечитывать, чтобы из кэша не уходил.
>К nvme хардварных контроллеров вообще нету и не будет.
>
Уже есть
https://www.broadcom.com/products/storage/host-bus-adapters/tab-12gb3
>Единственная нормальная ФС без родовых травм.
Просто с врождённой имбецилией.
>>799278
>К nvme хардварных контроллеров вообще нету и не будет.
Что за хуйню я читаю. Они почти сразу появились с nvme.
Более того там электрическая совместимость с SAS и один контроллер для всего используется сразу.
У меня он на сраном OMW стоит. Правда в обход панели, но не похуй ли?
>>799638
>Просто с врождённой имбецилией.
Ну, лучше пока ничего не реализовали. План идеальной ФС валяется у меня в голове, но я слишком туп, чтобы его реализовать. Кстати, ZFS с BTRFS достаточно близки к ним. Разве что нигде нету режима типа MergeFS для JBOD конфигураций, чтобы отдельные диски были максимально независимыми, да парочки прикольных фишек. Впрочем похуй, всё это мечты. А пока что есть ZFS с SUN в виде бухающего отца, да BTRFS без встроенного шифрования.
Железо: HPE Microserver Gen 7, 8+4 Гб озу Patriot (домашняя не ECC). Ничего интенсивного не гоняю на дисках. Все нормально или диски/озу/сервак подыхает?
>при каждой автоматической проверке вылезает большое количество mismatch'ей
Может изменяемая скорость вращения даёт такие спецэффекты?
Кстати, разве в реалокейтед не должны быть нули? У тебя там 0х0033.
Что это за кал хуйни из жопы?
>x8 pci-e
Он что блять на два диска?
>>799638
>Что за хуйню я читаю.
Больше интересно что за хуйню ты пишешь, долбаеб.
>Более того там электрическая совместимость с SAS и один контроллер для всего используется сразу.
Электрическая совместимость чего? Её нету. У супермикры корзины несовместимы, для nvme специальные другого цвета.
Весь u.2 вставляется напрямую в pcie через рейзеры количество дисков ограничено количеством линий в процессоре.
Nvme задумывался для уменьшения задержек ввода/вывода любая хуйня межу диском и процессором = мгновенное уходшение производительности.
Максимум, что существует это pci-e свичи и они уменьшают производительность.
НИКАКИХ РЕЙД КОНТРОЛЛЕРОВ ПОД NVME НЕТ И НЕ БУДЕТ
Вот можно глянуть как собирают топовые серверы на nvme под самый лютый ынтырпрайз обслуживающий половину всего интернета https://letsencrypt.org/2021/01/21/next-gen-database-servers.html
Где же там рейд контроллер? Ой, его нету! Наверное не знают просто, что они сразу появились))) Шизиков из хв забыли спросить.
>pci-e свичи и они уменьшают производительность
Эм, это точно? Это же тупо переключатель линии, от него требуется разве что низкое сопротивление.
Или ты про активные размножители линий?
> А на хардварном: сдох контроллер - раскошелься на новый такой же, не собрался массив - плати "специалисту" сотни нефти за восстановление данных.
"специалист" - Pajeet Kumar Singh из славного города Бангалор, одним пальцем набирающий команды "hpacucli . . ." с бумажки.
если какая-то из команд выдала результат отличный от ожидаемого, то тикет откладывается на несколько часов, пока Level 2 Support Specialist из того же города не снизойдёт до твоей проблемы.
сама бумажка скрыта за семью печатями и десятью NDA, её ни в коем случае нельзя показывать кастомеру, т.к. сисадмины кастомера, обычно имеющие ICQ чуть выше хлебушка, смогут ределать всё по-человечески, и кастомер ВНЕЗАПНО сможет сделать продукт лучше, чем у вендора, став прямым конкурентом.
А "спецалисту техподдержки" спокойно можно показывать все эти незадокументированные (то есть задокументированные, но под NDA) возможности, т.к. он всю жизнь будет одним пальцем набирать команды, а другим печатать ответ в тикет шаблонные "I can understand your situation .... I am happy to assist you ... I would be more than happy to serve you better".
извините, накипело
об этом и говорю. Работал в конторе, где под 1С был куплен сервер IBM у российского "сертифицированного" барыги. И когда пара дисков в RAID-массиве "засветились", конечно же были заменены из запасных. А вот пополнить запас оказалось той ещё проблемой - конкретно таких дисков не оказалось, но
>можно заказать за 1500$ за штуку за 300 Гб диск
а ещё
>у вас может выйти из строя контроллер, мы благосклонно продадим вам запасной за 3099$
Контора поднадзорная и нельзя просто так купить замену на авито.
>Вот можно глянуть как собирают топовые серверы на nvme под самый лютый ынтырпрайз обслуживающий половину всего интернета https://letsencrypt.org/2021/01/21/next-gen-database-servers.html
>Где же там рейд контроллер? Ой, его нету! Наверное не знают просто, что они сразу появились))) Шизиков из хв забыли спросить.
Целых два. Ну и сервера не топовые, кстати. Так, середнячок.
хм.. спасибо, но ожидал увидеть там чуть больше инфы.
Тогда может дай команды, которыми настраивал.
Я делал так, но результат плачевный. По-какой то причине тома, созданные на тонком пуле кешировались крайне криво и прирост IOPS был мизерный.
>два диска в RAID1
pvcreate /dev/md1
vgcreate md1_vg /dev/md1
lvcreate -l 100%FREE --thinpool tpool_md1 md1_vg --verbose
>SSD 200Gb
pvcreate /dev/sdl
vgextend md1_vg /dev/sdl
lvcreate --type cache --cachemode writeback -L 185G -n cachepool_md1 md1_vg/tpool_md1 /dev/sdl
по-моему это просто разъёмы. Посмотри возле оперативной памяти ещё есть несколько
Хорошо, был не прав, это разъемы. Контроллер просто в мамку встроен.
https://www.dell.com/en-us/work/shop/cty/pdp/spd/poweredge-r7525#techspecs_section
Я про свичи активные, они немного увеличивают летанси и делят пропускную способность. Раньше их часто ставили в мамки и есть тесты не тесты с видиокартами.
Я хз где ты это отрыл, но скорее всего это контроллер для загрузочных дисков.
Тому что вот пдфка и в ней точно, написно что диски подключаются напрямую в процессор при помощи 96 линий pci-e.
https://downloads.dell.com/manuals/common/dell-emc-poweredge-r7525-24nvme-storageband.pdf
>Я хз где ты это отрыл, но скорее всего это контроллер для загрузочных дисков.
Или контроллер для конфигурации с sas, а не nvme.
Пикрил контроллер для nvme, на нем даже активных элементов нету, все сразу в pci-e.
это не контроллер, просто переходник. К корзине подключается стандартным кабелем SAS.
Это не контроллер тому что контроллер nvme это центральный процессор.
Кстати, а ето точно, что SAS кабелем? Чему у супермикры никак нельзя поставить nvme в существующую шаську, только покупайновую.
Эта хуйня скорее для легаси сделана, в контроллер подключается nvme, а на выходе все маскируется под SAS. Это проебывает практически все преимущества nvme и оставляет только скорость линейную (и то не факт).
1. Не вижу создания раздела для cache meta
2. Не вижу команд lvconvert
Я пользовался вот этой инструкцией:
https://forum.proxmox.com/threads/can-we-use-lvm-cache-in-proxmox-4-x.25636/#post-134061
Только в конце вместо lvm присоединял кеш к lvm thin pool
Позже свои команды напишу, сейчас не возле компьютера.
точно. Например тут поищи SFF-8643
https://ru.wikipedia.org/wiki/Serial_Attached_SCSI
кабель по характеристикам позволяет - так почему бы и нет, не стали изобретать велосипед
Нвме по другому не работает. Поверх городят mdadm или zfs.
Это будущее, хардварное говно фсё.
>это точно железный рейд был? то есть виртуальный диск был создан в панели управления контроллером, которая показывается сразу после включения компьютера, после загрузки биоса?
Да. Drive Group RAID1 из твух терабайтников, на этой drive group виртуальный диск объёмом 1 Тб.
Видится, соответственно на ESXi как один диск объёмом 1 Тб.
> Ты вроде защищаешь ZFS, и контроллеры одновременно.
Мысль дурака дискретна
https://lleo.me/dnevnik/2008/12/26
Дурак мыслит спинным мозгом, самыми простыми категориями: добро/зло, хуево/пиздато, полезно/вредно, рай/ад, положительная энергия/отрицательная энергия, враги/друзья, ересь/святость и так далее. Мысль дурака остановилась в развитии на уровне младенца, который вызубрил, что бяка — это плохо, а нака — хорошо; на уровне папуаса, для которого весь мир с его проявлениями — результат работы злых духов леса и добрых духов леса.
Любое знание у дурака — всегда полярная точка зрения. На красной табуретке сидеть вредно для жопы, на синей — полезно. Таблетки — химия, травки — природа. Монитор излучает вредную энергию, кактус у монитора — полезную.
Информацию дурак воспринимает лишь ту, которая дарит ему простые и понятные объяснения. Научных объяснений дурак не воспринимает. Для него чудовищна мысль о том, что явление может обладать не одним свойством, а несколькими, что в разной ситуации эти свойства могут оказаться полезными или вредными, и это все относительно и познается лишь в сравнении. Дурак никогда не согласится изучать сложные взаимосвязи, чтобы понять принцип. Для него приятнее найти одну взаимосвязь — услышать простой и понятный ответ, и кто предложит ответ проще и понятнее, тот и будет прав в глазах дурака
>>800590
Алсо добавлю, что после более, чем полугода пользования, не вижу особого смысла в хардварном рейде. По большому счёту, это была моя блажь и любопытство.
Достаточно было бы просто hba-карточки с аналогичной парой SFF-8087 коннекторов, чтобы диски подключать было проще хвостами по 4 SATA.
А рейд можно было бы уже силами виртуалки-файлопомойки организовать.
Это не учитывая того, что сам рейд-контроллер греется как сука, на него спецом отдельная вертушка дует.
>Эта хуйня скорее для легаси сделана, в контроллер подключается nvme, а на выходе все маскируется под SAS. Это проебывает практически все преимущества nvme и оставляет только скорость линейную (и то не факт).
Ненормальный, что ты несёшь вообще.
>>800456
>Кстати, а ето точно, что SAS кабелем?
Да, более того у систем на эпиках эти разберем можно конфигурировать между nvme и SAS режимом.
Потому что SAS и PCI-E очень близкая хуйня по своей природе.
Так же продают converged рейд контроллеры для тех-же целей.
Ну там то понятно, если посадить на 1 линию псины 10 требовательных устройств, то ничего хорошего с этого не выйдет.
Сейчас в мамках только пассивные свитчи для ВК ставят, 16/8+8. Хотя я про десктопные. Что там на серверах творят, мне не ведомо. Но на серверных CPU и псин побольше будет, от 40 в старых зивонах, до убейте меня пожалуйста 128 в эпиках.
>>800625
>Это не учитывая того, что сам рейд-контроллер греется как сука
А если его перевести в HBA, то греться он перестанет?
>>800979
Сорта говна. Тебе Господь дал консоль SSH, то ты всё равно хочешь отведать говна.
Из них первая это твёрдое, окаменелое говно, второе свежее, молодёжное.
> Сорта говна. Тебе Господь дал консоль SSH, то ты всё равно хочешь отведать говна.
Часть вещей хотел через вебконсоль смотреть, все настройки планирую только через ssh делать.
> Из них первая это твёрдое, окаменелое говно, второе свежее, молодёжное.
Ладно, пока смотрю на кокпит, всё что нужно она показывает.
>А если его перевести в HBA, то греться он перестанет?
Сомневаюсь. Да и "перевод", если я правильно помню, осуществляется перепрошивкой.
>Часть вещей хотел через вебконсоль смотреть, все настройки планирую только через ssh делать.
А, ну ок.
>>801048
>Сомневаюсь.
Я вот тоже, но склоняюсь к уменьшению потребления и нагрева. У самого какой-то там делл, перешитый с завода алишки добрым китайцем в HBA, вроде на тесте не грелся. Хотя сейчас я вообще обхожусь чипсетными, лол, контроллер про запас лежит, пока дешёво продавался.
> А если его перевести в HBA, то греться он перестанет?
нет.
я не знаю, что под крышечкой "процессора" у контроллеров, но мне кажется, что там не именно процессор, а FPGA, поэтому они так дико греются. 90 градусов без нагрузки, когда у проца и мамки температура 35 градусов, это охуеть просто.
З.З.Ы это LSI SAS3108 в режиме HBA, кстати.
3008 в режиме рейда так же дико греются, равно как и 2008.
>я не знаю, что под крышечкой "процессора" у контроллеров
>ядро PowerPC 440 с частотой 533 МГц
>>801426
>сделан из пиздатой меди
Ага, серебристой такой.
>>801427
>3008 в режиме рейда так же дико греются, равно как и 2008.
Лол. Ну, у меня аналог LSI SAS 9211-i8 в HBA. Впрочем пофиг. Оно десятилетиями в таком режиме.
>ядро PowerPC 440 с частотой 533 МГц
ты хотел сказать "PowerPC implementation in FPGA"? хуле ему 110 градусов норм, когда нормальные процы при 80 плавятся?
> Ага, серебристой такой.
ну описáлся, чего придираешься))))
> Лол. Ну, у меня аналог LSI SAS 9211-i8 в HBA. Впрочем пофиг. Оно десятилетиями в таком режиме.
9211-i8 == SAS2008 == печка (хотя они все == печки)
Это не олдовые, это тыкатели мышкой в интерфейс гипервизора. Олды к экономии ресурсов относились с почтением, гоняя тысячи сервисов в джейлах под фрибсд, и профиты контейнеризации по сравнению с полновесными vm понимают отлично.
Этих дебилов на пушечный выстрел никто к промышленному гипервизору не подпустит.
Особенно того кончелыгу выше, который про Proxmox пернул и умудрился противопоставить контейнеры виртуалкам.
Я аж проиграл с такого кретина, представив, как он после прогона тестов весь стенд грохает, а потом заново поднимает.
Тупо ноль понимания IT-архитектуры, виндузятники-эникеи, как они есть.
>>803594
>>803642
девочки, не ссорьтесь.
есть разные задачи и разные инструменты для них.
где-то нужен stateless микросервис, который запустился, пять минут поработал, пукнул три строки в графану и закрылся; создаём новый инстанс в амазоне; профит.
а где-то нужен годовой аптайм, вот туда старые пердуны тащат свои bare metal и проксмоксы.
ничто не мешает не перезагружать докер годами. Так что столетний аптайм возможен и в докер-конйтейнере
> ничто не мешает не перезагружать докер годами
кроме утечек памяти.
у кореша, любителя докеров, nginx течёт как сучка (подозреваем на баг в аллокаторе musl) и убивается OOM-киллером, поэтому кореш перезапускает контейнер по крону))))
>кроме утечек памяти
Во-первых проблемы криво настроенного софта - не проблемы докера, во-вторых никто не мешает задать лимит по памяти для контейнера, чтоб не положить хостовую систему. Ну и да, многолетний аптайм для сервисов, выставленных жопой в интернет - не то, чем стоит гордиться, хотя бы из соображений безопасности.
во-первых, nginx собранный с glibc и запущенный с тем же самым конфигом - не течёт.
во-вторых, "задать лимит по памяти для контейнера" - классический смузи-докер-пердолинг ради пердолинга.
в-третьих, у nginx за десять лет был наверное только один RCE, и тот осуществимый только в лабораторных условиях, так что пашол нахуй.
Ага, вот только что-то редко кто использует nginx as-is.
Понатыкают vts/tnt, которые никто на уязвимости не проверяет.
Так а докер тут каким боком? Запущенный непосредственно на хосте протекающий нжинкс ему точно так же пришлось бы пристреливать по крону.
>смузи-докер-пердолинг
Чувствуется некая иррациональная ненависть к современным (на самом деле нет) технологиям, но не вполне понятны причины.
скорее рациональная ненависть к продвигателям модных технологий только потому, что они модные, а не потому, что они лучше (быстрее, производительнее, удобнее, надёжнее) старых технологий.
в результате задачи, которые диды решали на одном инстансе XEN с 128 мб оперативы, сейчас требуют целого кластера виртуалок на амазоне.
С этим не спорю, использование любого инструмента должно быть осмысленным. Прост, ну, предубеждение против какой-то технологии только потому что она стала массовой и пихается долбоебами куда не попадя – известная ошибка, которой стоит избегать.
Если прям вообще ничего нет, то накатываешь по новой систему и подкидываешь туда все харды. В пуллах импортишь свои старые. Всё
Хочу собрать комп в серверном корпусе и запихнуть его в домашнюю серверную. У меня там все равно модем, свич и файлопомойка в серверной стойке. От такого компа хочу развести переферию по разным комнатам. И вот тут все стопорится. Я хуй знает как это организовать. Если управление несколькими компами делается через КВМ переключатель то как управлять одним компом из разных мест? Как развести дисплей порт и HDMI по разным источникам? Можно наверное воткнуть кабели напрямую в видеокарту. У меня все равно будет не больше 4 точек так что портов должно хватить. Но вот что делать с клавомышью/джойстиком я без понятия.
> Но вот что делать с клавомышью/джойстиком я без понятия.
воткнуть несколько клав и мышек в разные USB порты, они все будут работать одновременно.
>От такого компа хочу развести переферию по разным комнатам.
Нахуя? Ты хочешь поставить в каждую комнату манятор, который был бы туда воткнут?
Шиза какая-то. Если хочется иметь доступ к тачке из любого места, берёшь ноутпук с вафлей и цепляешься с него по ssh/rdp.
Очевидный школьник фантазер лет четырнадцати.
Часть игор мне удобнее играть сидя за компом в кабинете, часть с джойстиком перед большим экраном телевизора. Во что то я хочу поиграть валяясь в постели. Мне в каждую точку по компу ставить или тягать системник по всему дому? На мой взгляд проще поставить одну машину и прокинуть провода до нужных мест.
Где я не прав?
Но у меня нормальное железо а не ноутбучные тротлящие огрызки. Я всего лишь хочу организовать все так что бы было максимально удобно. Просто заметил что последнее время провожу больше времени перед телевизором с контроллером больше времени чем за компом. Но все эти ваши консоли так себе экспиеренс. Хочу играть в нормальные игры на нормальном железе. Отсюда и возникла идея подключить комп к нескольким местам в доме.
Спасибо.
>Где я не прав?
Длина кабелей USB ограничена по стандарту. То ли 5, то ли 10 метров, лень чекать.
То же самое, скорее всего и по HDMI/DP кабелям.
Судя по всему, деньги для тебя не проблема, так что почему бы и не въебать несколько пекарен. Даже диски можно не ставить, сделать загрузку одного и того же образа по сетке и будет у тебя считай одна ОС с одним и тем же набором софта на них всех.
> загрузку одного и того же образа по сетке и будет у тебя считай одна ОС с одним и тем же набором софта на них всех.
это только в прыщах возможно, а винда охуеет от того, что у неё каждые три часа меняется мамка+проц+PCI+другая периферия и потребует купить новую лицензию.
а потом ещё одну, на новый набор мамка+проц+периферия
Ну, технически есть оптический тандырболт, который хоть на 100 метров можно тянуть, но на много точек это всё равно хуй знает как делать, да и стоит это всё мой почтение.
>что у неё каждые три часа меняется мамка+проц+PCI+другая периферия и потребует купить новую лицензию.
Железо можно взять одинаковое, а на слетевшую активацию вендопоноса похуй, пусть плашка висит.
>>806604
Да пока ихровой нутпук выглядит лучшим решением, тупо таскаешь его по хате, подрубая к нему на месте нужные инпут девайсы и маняторы.
>Часть игор мне удобнее играть сидя за компом в кабинете, часть с джойстиком перед большим экраном телевизора.
Просто унифицируй место в кабинете. Повесь тот же ТВ сбоку там или над основным моником и перди в игрушки в одном месте.
Есть какой то сакральный смысл в таком пердолинге? Проще же взять стандартное железо atx/eatx
Нахуя мне дома второй гроб? Эта хуйня на полке в коридоре стоит рядом с роутером и есть не просит.
А нахуя его расширять? Туда можно хоть E-2388 вокнуть при желании. Но и текущего атома хватает за глаза.
Дело же не в проце. Оператива, харды, всякие карточки расширения
>Ценник, конечно, конский за него
Вот это и отбило у меня желание брать корпус с хотплагом. Ибо корпус на 10 быстро сменяемых дисков стоят как вся моя текущая сборка NAS вместе с дисками, лол.
11к корпус с питальником, 8к мать с памятью и процом. Диски у меня были.
>>812526
Ну есть вариант еще поискать б/у рэк 1/2 юнита на авите, можно даже на атоме найти этом если повезет. Там за все про все встанет те же 10-15к. Но это рэк, который куда-то пихать надо и шум.
>>812536
Припаян. Я в общем про платформу в данном корпусе. Супермикра mitx с ipmi 1151 ~20к примерно. В будущем на авите можно будет найти наверняка с процом тысяч за 15-20.
Есть еще мать от жидоасуса пикрелейтед за 16к, но там жидоусас сделал ipmi внешним модулем(еще 2к) и только 2 сата, остальное минисас шнурком(которого в комплекте естественно нет), так что те же 20к в итоге как и супермикра. У меня есть пару асусов серверных, там удобный ipmi, но когда я решил его обновить, то он отвалился нахуй и я пол ночи потратил на его восстановление. Так что при прочих равных лучше супермикру.
> Но это рэк, который куда-то пихать надо и шум.
У меня недорек на 4U, на 15 дисков после колхозинга. Но без горячей замены.
возьмём сервер: HP DL20 gen9
встроенный "рейд контроллер" на мамке "HPE Smart Array B140i" - это ни что иное, как FPGA - Lattice LCMX02-4000HC-4BG332C
и вот жопой чую, что чипы LSI на PCI платах - тоже FPGA.
В подавляющем большинстве серверов невозможна. Обычно можно и по внешнему виду определить, но ващет у сервера должно быть руководство и там написано, как чего менять.
имхо в серверах архитектуры x86 нельзя, оно детектит устройства и раздаёт диапазоны памяти при включении компа, и дальше их не меняет. но могу ошибаться.
это в древнющих оракловских серверах с процами собственной архитектуры можно было всё нагорячую менять, включая сам процессор лол (может и в современных тоже, я хз. сейчас оракл тоже на х86 перешёл)
NVMe == PCI
PCI = детект и раздача IRQ/DMA/всейхуйни при включении компа.
теоретически может сработать, если воткнуть обратно на 100% идентичный модуль.
если воткнуть другой - скорее всего не сработает.
но точно не знаю. проверь на практике и отпиши))))
>>828260
а это кстати хороший вопрос.
как заменяется сдохший NVMe диск в сервере, который изначально не поддерживал NVMe хотсвоп? неужели нужно ребутить сервер?
я ещё не работал с совсем новыми серверами, где поддерживается хот своп NVMe. подозреваю, что там коннект не по PCI идёт, а по какой-то другой хуйне, и подключается оно не напрямую к процу, а к storage контроллеру.
но что делать с относительно старыми серверами, где NVMe вставляется в мамку/HBA?
>коннект не по PCI идёт, а по какой-то другой хуйне
нет же. NVME - это всегда PCIe
>>828255
>>828260
читанул немного. Похоже поддержка горячей замены - это особенность реализации самого накопителя. Ну и вероятно с возросшей популярностью NVME в серверах стали делать линии PCIe с дополнительной защитой от статики. Например тут обсуждали что NVME подключается простыми переходниками >>800046
Уверен что детект и раздача IRQ\DMA\всейхуйни при включении - это в прошлом. В старину биос должен был опросить шину PCI на предмет подключённых устройств. А PCIe - это последовательная шина с большим набором команд, где каждое устройство может сообщить "я подключился", а биос инициализировать.
>ССД кеша записи в зфс нет. Но есть allocation classes - гугли.
погуглил, кажется то, что нужно. Но вопрос - таблицы InnoDB обычно хранятся одним файлом, не будет ли ZFS выносить его на HDD?
> > коннект не по PCI идёт, а по какой-то другой хуйне
> нет же. NVME - это всегда PCIe
я имею в виду, что от корзины с NVME диском к мамке/контроллеру идёт другое соединение, SAS какой-нибудь, благо скорости кабеля позволяют.
> Например тут обсуждали что NVME подключается простыми переходниками >>800046
имхо там не "простой" переходник, а именно контроллер, обрабатывающий процесс горячей замены.
> Уверен что детект и раздача IRQ\DMA\всейхуйни при включении - это в прошлом.
что-то мне подсказывает, что и в нынешнем.
бамп вопросу
>не write through кеш
это я уже понял. Special vdev хранит маленькие блоки (по-дефолту меньше 32к). Ну и вопрос о том, что большой файл с таблицами Mysql скорее всего будет записываться большими блоками и соотвественно не будет ускорен :(
Никогда в жизни не имел дел с Raid контроллерами. Почему у меня система не видит диск? В самом контроллере его видно, что сделать чтобы и система увидела?
если в рейд контроллере стоит только один диск (да и зачастую с несколькими дисками тоже актуально) - найди в настройках режим проброса диска, называется или "IT mode", или "JBOD mode", или "HBA mode", или passthrough, или хз как ещё.
черезжопный вариант - создать виртуальный диск, тип RAID0.
но тогда ты не сможешь отключить этот хард от контроллера и напрямую воткнуть в мамку, т.к. в первых секторах диска вместо нормального виндопонятного заголовка будет прописано проприетарное зашифрованное месиво от контроллера.
Да, я уже догадался. Я думал что диски если рейд не создавать видны должны быть по одному.
P.S. в некоторых контроллерах в принципе нет режима проброса диска напрямую системе - в этом случае придётся или делать черезжопный вариант, или перепрошивать контроллер.
второй вариант предпочтительнее, но подходит только если ты умеешь в пердолинг, если не умеешь - лучше не лезть.
бля, а вот так лучше будет щас попробую.
какая модель контроллера?
посмотри тут, есть ли он в списке и поддерживает ли твой контроллер режимы JBOD или IT
Если поддерживает JBOD, тогда сможешь через в консоли megacli включить JBOD для конкретного диска
тогда сорян, я с такими не работал.
Статус JBOD должен ставиться на диск, тогда больше ничего с ним не надо делать - он должен быть виден в ОС.
не надо создавать никакой массив.
в списке виртуальных дисков удаляешь созданный рейд,
в списке физических дисков заходишь в настройки конкретного физического диска и включаешь ему режим JBOD,
нихуя не создаёшь никаких рейд массивов,
ребутишься, прёшься.
если JBOD ставится глобально, а не на отдельные диски, тогда всё равно удаляешь созданный виртуальный диск и не создаёшь новых.
но мб в этом вашем адаптеке надо создать этот ваш "VOLUME", хз. попробуй сначала ничего не создавать, как это делается во всех нормальных контроллерах
Сделал через ЖБОД, выставляется он у меня как я понял глобально. Щас диск в системе отображается по своей модели, всё норм думаю.
Есть у кого опыт общения с ростелекомом по поводу PTR записи?
За городом другой, более мелкий провайдер. Нашел abuse email у домена в который резолвился айпишник и написал туда - запись добавили на следующий день.
С ростелекомом сложнее, вместо abuse email у них https://www.nic.ru/whois
В поддержке, конечно, про DNS ничего не знают.
В рунете говорят что физикам не делают, но попробовать таки хотелось бы.
Хощу свой отказоустойчивый мейл сервер на более-менее современом софте (wildduck+haraka+zone-mta на распределенной по двум DC монге и постгре). Задавайте вопросы, если интересно.
Заставить провайдера прописать PTR - меньшая из проблем. Весь крупняк будет посылать нахуй письма от почтовика из домашнего диапазона, а написать письмо какому-нибудь гуглу ты не сможешь. Точнее, сможешь, но робот отправит его прямо в /dev/null.
Я уже проверял, не все так плохо.
Только outlook отправляет в спам, остальные нормально доходят. Гугл особенно лоялен к домашним почтовым серверам.
Главное настроить все: spf, dkim, dmarc и тп. Ну и спам не слать, естественно.
Я пробовал на десктопной материнке с процессорами IvyBridge - не получилось. Интересует, получится ли с тем же поколением, но на серверном железе.
Насколько я знаю процессоры все поддерживают проброс. Основная проблема в материнке.
В интернете в разных местах есть списки десктопных материнских плат проверенных и протестированных - рекомендую оттуда выбрать и заказать. С серверными вряд ли кто-то заморачивался с проверками.
>Задавайте вопросы, если интересно.
Нахуя? А главное зачем. Кроме разве что поиграться других применений я не вижу.
На счёт вопроса же, у дом сру на статике прописывается прямо в личном кабинете, статика стоит 20 рублей, тарифы тоже норм. Там же есть IPв6, дают диапазоны /64 + /48, хватит навсегда.
>Нахуя? А главное зачем.
Я ожидал вопросов о сетапе, ну да ладно.
Все стандартно. Я девопс, работаю с кодом и облачками, где абстракция на абстракции и абстракцией погоняет. Сервачек в моем случае уже 8 сервачков в разных локациях позволяет потрогать сетку, сторадж, поковырять архаичные технологии и тп. Проф развитие, расширение кругозора и повышение эрудиции.
А вообще это такое же хобби, как и любое другое. Есть же люди, которые сутками в гараже машины перебирают? Нафига, чего они, в сервис чтоли не могут сходить? Кто-то одежду себе сам шьет или готовит себе сам. Лично я от пердолинга получаю кайф.
>На счёт вопроса же, у дом сру на статике прописывается прямо в личном кабинете, статика стоит 20 рублей, тарифы тоже норм. Там же есть IPв6, дают диапазоны /64 + /48, хватит навсегда.
А про статику - это ты про немного другое. Мне не статичный IP нужен, а PTR record https://www.cloudflare.com/learning/dns/dns-records/dns-ptr-record/
Кратко - когда IP резолвится в имя.
Сори, не правильно тебя понял.
PTR в домру можно прямо в личном кабинете настроить значит? Очень хорошо, попробую домру. И ipv6 не помешает, конечно.
Фото давай, контент пили.
Год у скайнета хостился, всё ок было. Всем похуй при наличи птр, дким/дмарк/сфп. И при отсутствии адреса в спамбазах.
> И при отсутствии адреса в спамбазах
МГТС плевать на спамеров
@
Spamhaus банит целую /10-подсеть
@
Общение с обоими приводит к too many redirects
больное + мимо
да ему хуй чё объяснишь, "поиграться с почтой на домашнем провайдере" ахахах
я удивлён, что провайдер в принципе не блокирует исходящие коннекты по 25 порту.
>Spamhaus банит целую /10-подсеть
Больная контора, которая с хостеров и провайдеров цыганит деньги за вайтлистинг.
Раньше занимались этим более откровенно, сейчас пытаются выглядеть прилично.
Но один хрен, их просто нужно выкорчёвывать где встречаешь. И объяснять что это не люди, это червепидоры, гоните их отовсюду, надсмехайтесь над ними.
Не выёбывайся и роути всё через впску внутрь своего впна
хуя у спамера припекло))))
у спамхауса ващет три категории листинга, и если ты попал в самую червепидорскую ROKSO, то земля стекловатой, а из простого листинга выбраться легко, если действительно выгнал спамеров и вычистил малварь из своей подсети.
точнее, не ROKSO, а DROP
¯\_(ツ)_/¯
>хуя у спамера припекло))))
мимо
>вычистил малварь из своей подсети
Нет, не легко. У хостеров спамеры берут вдсы, срут насколько могут, и забивают. В итоге у хостеров доходит до того, что для новых виртуалок закрывают доступ на 25 порт, и занимаются прочей ересью.
У спамхауза видите ли позиция что раз у тебя такое периодически всплывает - значит ты этим занимаешься на потоке. Обработка их репортов может вообще не иметь значения, но если оплатить денежку за членство в клубе - твои префиксы перестанут попадать в листы целиком.
>из своей подсети
У нас тут конечно же у каждого по подсети ipv6 разве что, да и то не у всех.
>>833300
Поддвачну. С одной стороны, я разок обелял айпи, правда в другой базе, достаточно было мыло написать, что я тут впс взял и спамить не буду.
С другой да, они все пидорасы, стригущие деньги за хуй пойми чего.
Ну, удачи. Прод я бы пробросил с впски на локалхост, так заметно меньше вероятность внезапно остаться без почты.
>wildduck+haraka+zone-mta
Докатились, на жс уже почтовые сервера пишут.
> В итоге у хостеров доходит до того, что для новых виртуалок закрывают доступ на 25 порт, и занимаются прочей ересью.
и правильно делают, я заебался чистить спам, хуям, дудос, хуёс, с подсетей Linode, Digitalocean, OVH, Hetzner, etc.
хочешь открытый 25 порт - будь добр оплатить вдс на год вперёд, или хотя бы написать тикет в саппорт, с указанием своего домена и PTR = твой домен или субдомен.
> У спамхауза видите ли позиция что раз у тебя такое периодически всплывает - значит ты этим занимаешься на потоке.
ибо надо реагировать на абузы, а не как вышеуказанные популярные хостинги. самые "белые" провайдеры - это тупо самые "буллетпруф" провайдеры, ибо им похуй на абузы о сканах-хуянах хаках-хуяках из их подсетей.
>ибо надо реагировать на абузы
Блин, чем читаешь. У хостеров специально выделенный человек сидит, проверяет-реагирует. И это не помогает в плане надежд занесут или нет твой префикс в блэклисты, помогает лишь занесённый кэш.
Плюс сама по себе контора крайне мутная, какие-то сплошные перепрятушки с оффшорами:
https://habr.com/ru/post/496486/
> У хостеров специально выделенный человек сидит, проверяет-реагирует.
кому ты рассказываешь))))
статью не открывал, подозреваю, что там давнишний срач с клаудфлейром. пахую ваще, обе конторы дырявые.
>статью не открывал, подозреваю, что там давнишний срач с клаудфлейром
Классический продукт религиозной цивилизации, верун в светлую непогрешимую сторону. "Священники не могут трахать детей, спамхауз и моя картина мира идеальны".
классический теоретик с недостатком опыта, слепо верящий статьям с быдлохабра))))
Вроде видел обзор. Прироста нет просто условный тройник для нвме
Что может означать мигание красного индикатора корзины с диском? Контроллер пишет что рейд цел, всё работает, но корзина мигает красным. Зелёный просто горит, а красный мигает. Сервер supermicro. В мануалах нихуя найти не получается.
> хабровчанин что-то рассказывает про спамхаус человеку, который с 2010 работает в сфере вебхостинга))))
> В мануалах нихуя найти не получается.
не пизди, это обычно в самом начале мануала написано, где все индикаторы указаны.
посмотри, что в SMART - возможно, контроллер думает, что хард скоро сдохнет.
Перегрев/нет контакта с чем-то.
Посмотрел. Была ошибка, потом я поменял диски с ошибкой местами с другими дисками и ошибка ушла. хз
посмотри, на плате есть контроллер - он сам общается с SSD, т.е. эти 4 не доступны в системе как отдельные устройства
ебанулся? рейд всегда медленнее чем сумма скоростей всех блочных устройств.
Если не дошло, поясни, рейд 10 быстрее единичного диска в 2, 4 или 10 раз?
Задумываюсь о покупке NASа. И пришла мне в голову дурацкая идея взять БУ сервак с 8-12 корзинами, накатить на него фринас и использовать в таком виде. Вроде как даже у старого серверного железа спеки будут получше чем у условного QNAP или синолоджи. А денег это будет стоить копейки. Плюсом будет возможность чуть погрузится в серверные технологии. Но в насах и серверах я понимаю ровным счетом нихуя так что поясните где я обосрался?
Пока что мне видится покупка
Dell PowerEdge R720
2 x Intel XEON Quad Core E5-2609 V2 2.50 GHz (SR1AX) 80 W
48GB DDR3 ECC Registered
RAID-Контроллер PERC H310
DELL 2 x 10G SFP+ & 2x 1G RJ45 BROADCOM (MT09V)
на 12 3.5 дисков хорошей покупкой. При условии что стоит все это добро около 300 баксов.
Железо можно переконфигурировать но я хуй знает что мне нужно так что для примера скинул базовый спек в которм предлагает мой вендор.
Хочу иметь файлопомойку. Достаточно производительную. В идеале скинуть туда часть стим библиотеки и грузить всякое напрямую с НАСа. PLEX сервер и Home Assistant что бы крутился на этом же сервере. Плюс возможно виртуалка для всяких экспериментов. Обоссыте что ли. Или дайте советов мудрых.
я считаю, что ты выбрал правильный путь. Учти, что сервер будет шуметь, и если у тебя в квартире\доме есть место, где он не будет мешать - тогда вариант идеальный.
Цена великовата - такой (или подобный) конфиг на Лохито можно найти дешевле. Советую капитально изучить предложения и, вероятно найдёшь с процессором мощнее (я бы взял v2 IvyBridge) и больше памяти. Остальное не столь важно - сеть и контроллер с запасом.
Дальше в процессе эксплуатации поймёшь чего хочется добавить. Обычно это SSD\NVME, сетевухи для проброса в виртуалки, память.
> И пришла мне в голову дурацкая идея взять БУ сервак с 8-12 корзинами, накатить на него фринас и использовать в таком виде.
хорошая идея, но есть нюансы...
> Вроде как даже у старого серверного железа спеки будут получше чем у условного QNAP или синолоджи.
это да, гарантированно
> Dell PowerEdge R720
12 gen - староваты, рекомендую искать Rx30
> RAID-Контроллер PERC H310
хуита.
> При условии что стоит все это добро около 300 баксов.
это на ебее, без доставки? с учётом доставки дешевле будет на лохито купить.
>>837853
> Учти, что сервер будет шуметь
да, 1U орут просто как бляди (вентиляторы работают на частотах до 20к оборотов в секунду), у 2U вентиляторы чуть побольше диаметром и поэтому работают на меньшей частоте, но всё равно громкие.
домой лучше брать 2U сервер (а то и 3U)
> вероятно найдёшь с процессором мощнее (я бы взял v2 IvyBridge)
вот тут хз, на самом деле. имхо домой есть смысл брать процессор с маркой "L" ("Lоховские"), ибо несмотря на то, что у них пониженная частота - её всё равно более чем достаточно для домашних нужд типа файлопомойки и пары виртуалок. плюс электричества жрать будут в три раза меньше "полноценных".
хотя, если ты ещё планируешь сервер майнкрафта поднимать, то там да, нужны большие частоты.
>>837904
и этого тоже немножко поддвачну. разоришься на счетах за электричество, плюс взбесишься и взвоешь от шума вентиляторов.
> И пришла мне в голову дурацкая идея взять БУ сервак с 8-12 корзинами, накатить на него фринас и использовать в таком виде.
хорошая идея, но есть нюансы...
> Вроде как даже у старого серверного железа спеки будут получше чем у условного QNAP или синолоджи.
это да, гарантированно
> Dell PowerEdge R720
12 gen - староваты, рекомендую искать Rx30
> RAID-Контроллер PERC H310
хуита.
> При условии что стоит все это добро около 300 баксов.
это на ебее, без доставки? с учётом доставки дешевле будет на лохито купить.
>>837853
> Учти, что сервер будет шуметь
да, 1U орут просто как бляди (вентиляторы работают на частотах до 20к оборотов в секунду), у 2U вентиляторы чуть побольше диаметром и поэтому работают на меньшей частоте, но всё равно громкие.
домой лучше брать 2U сервер (а то и 3U)
> вероятно найдёшь с процессором мощнее (я бы взял v2 IvyBridge)
вот тут хз, на самом деле. имхо домой есть смысл брать процессор с маркой "L" ("Lоховские"), ибо несмотря на то, что у них пониженная частота - её всё равно более чем достаточно для домашних нужд типа файлопомойки и пары виртуалок. плюс электричества жрать будут в три раза меньше "полноценных".
хотя, если ты ещё планируешь сервер майнкрафта поднимать, то там да, нужны большие частоты.
>>837904
и этого тоже немножко поддвачну. разоришься на счетах за электричество, плюс взбесишься и взвоешь от шума вентиляторов.
забыл ещё написать. NAS-ы обычно неразборчивы к тому, что в них пихаешь, а вот "ынтырпрайзное" железо может тупо не "видеть" жёсткий диск, если он "не сертифицирован" для работы в данном конкретном сервере.
так что перед покупкой хардов обязательно узнай, работают ли они в твоём сервере.
>домой лучше брать 2U сервер (а то и 3U)
5u, в них обычно стандартные 120 стоят и проблем от замены ебанутых дельт 5А на обычные арктики нет
>разоришься на счетах за электричество, плюс взбесишься и взвоешь от шума вентиляторов
Не, я про то что система сама по себе привередлива. Если не нужно 16 слотов оперы то нахуй надо этот гемор себе на жопу
>имхо домой есть смысл брать процессор с маркой "L" ("Lоховские")
У меня сейчас соло 2680в2. с норм башней (повторюсь у меня 5юнитов башенный) пофигу, стабильно 30-35
>>837931
Спасибо ананасы.
Шум меня не смущает. Я оборудую себе сорт оф серверную в подвале. Частный дом если что. У меня там уже висят в стойке свич с контроллером видеонаблюдения. Запихну туда еще и сервер.
Я не из России так что лохито не мой вариант. Возможно я бы смог подобрать что то из запчастей и это было бы дешевле, но так как не шарю приходится довольствоваться готовыми решениями.
По сути я выбрал чуть ли не самое дешевое из доступного мне. В целом могу поднятся до 700 баксов, но не уверен что оно того стоит.
В большинстве своем у нас предлагают Dell и HP. G8 примерно в той же ценовой категории что и тот DELL что я привел как пример. G9 уже раза в 3 дороже.
> RAID-Контроллер PERC H310
>хуита.
PERC H710 + Cache 512 MB + Battery можно поменять на такой. Но опять же я хуй знает какой мне нужно.
Опять же оперативы можно накинуть сколько угодно вплоть до 700 с чем то гигабайт.
300 баксов это полная цена. Прихожу и забираю.
Буду благодарен если подскажете в какую сторону гуглить и какие спеки мне примерно нужны. Сходу разобраться в новом для меня железе пока не получается. Но и тратить тонны денег на железо которое я не буду использовать и на половину тоже как то не охота.
За рэйд контроллер не скажу, а вот проц/оператива можно забить и брать что хотел. Они сейчас копейки стоят, если не влезешь в ттх просто заменишь.
не пугай его так сильно. Я за с таким сталкивался только на сервере Oracle - где каждая деталь лютый ВЕНДОР-ЛОК. Ну и диски из датацентров, но в 99% их достаточно отформатировать в 512 байт.
> HP
своеобразные сервера, мягко скажем
> G8
говно из жопы
> G9
уже можно рассматривать
лучше делл gen 13 бери, базарю ещё захочеш
для начала такого контроллера вполне достаточно, как по скорости, так и по надёжности. Выживать максимум IOPS - явно не твой вариант. Для надёжного хранения сможешь сделать RAID2\RAID5 или RAIDZ, для быстроты - SSD.
Памяти сотни гигабайт не надо, считай под свои задачи.
Проц вполне норм для начала и его достаточно легко купить и заменить (смотри Алиэкспресс).
Всё остальное
>железо которое я не буду использовать и на половину
> В большинстве своем у нас предлагают Dell и HP.
а Supermicro предлагают? это наиболее "приземлённые" сервера, лучше всего подходят для домашних условий, ибо поддерживают любые PCI платы и оперативу с хардами, тогда как "ынтырпрайзные" Деллы с ХП могут выёбываться и не грузиться с "не одобренной партией" PCI платой или оперативой. или если ты хард не понравившийся воткнёшь.
и IPMI у них искаропки с гуём идёт, бесплатно, тогда как для Деллов/ХП гуй стоит ~300 баксов или 30 если покупать у китайцев, отреверсивших прошивку и написавших для неё кейген
Supermicro есть. Вот такой например. 1U Supermicro 6018U (4x3.5") Xeon E5-2620 V3 (6x3.2 GHz), no RAM, no HDD, 750W. 250 баксов.
Но довольно редкие. Больше чем на 4 порта я не видел.
зачастую это тупо корпус, в лучшем случае с мамкой, если сильно повезёт - с вентилями.
без каких-либо контроллеров
> Новое около 1-1.5к зеленых.
> под файлопомойку
300к-наносек обезумел, сумеешь ли ты совладать с ним?
можно охуенный мощный б/у сервер за 500 баксов купить, и просто хороший за 300
Вот и я так думаю. Нафиг мне новый. Или даже БУ за 1к. Хотелось бы уложится в 500. Видел видосы на ютубе от американских блогеров. У них там что то на 12 дисков продавали чуть больше чем за 100 баксов. Вроде ченбро называлось но могу ошибаться. Вообще существует что то подобное в природе? Его можно купить?
>или 30 если покупать у китайцев, отреверсивших прошивку и написавших для неё кейген
подскажи где такое искать
очевидный ебей "dell idrac license" "hp ilo license"
>5u, в них обычно стандартные 120 стоят
А что не 10 то?
У меня 4U, и там стоят 120-ки на входе. В середине были 80-ки 4 штуки, удалил нафиг, пока без них вообще. В принципе, туда даже 3х140 можно воткнуть, правда для проводов на харды места почти не остаётся.
>>837931
>> RAID-Контроллер PERC H310
>хуита.
А ему зачем что-то более производительное? Для хардов под софтрейд пойдёт.
>>838009
>Но опять же я хуй знает какой мне нужно.
ИМХО любой, что можно перевести в HBA и накрутить поверх него что-нибудь на ZFS. Хардварный рейд тебе не нужен, соответственно никаких кешей с батарейками.
> ищи супермикру с ипми.
кстати тут тоже есть нюансы - нужно обязательно смотреть характеристики мамки на сайте супермикро, т.к. некоторых серверов ипми - это именно "IPMI 2.0" в его классическом понимании, то есть - чтение показаний датчиков и удалённый ребут.
а если нужен именно гуй, то нужно проверять, чтобы в характеристиках мамки было сказано что-то типа "IPMI: KVM with Virtual Media"
и в некоторых серверах IPMI вообще нет. если ушлый продаван не указывает модель мамки, то можно посмотреть на фотках - есть ли "стоящий отдельно" сетевой порт (обычно порт IPMI находится в районе юсб портов, и он там один, тогда как обычные сетевые порты по 2/4 штуки и в другом конце платы)
таки пара моментов:
- у меня ипми на общем сетевом порту
- есть вебморда но нет квм
мимо intel s2600cp
Хахаль твоей мамки-шлюхи.
Для особенных еще раз:
>речь про супермикру
Что на твоем интеле, всем похуй. Супермикра дедикейтед лан делает в дополнение к опциональному шареду.
А, я не так понял. Вообще, обрезеов я не видел у них. Либо нулевые платы, либо полноценный ипми.
температуры низкие вот и не набалтывает. Стоят 4 арктика п12. На фоне хардов вообще не слышно.
Греется больше всего сеть
нет таких мануалов, сраные вендоры прячут списки совместимого железа глубоко под NDA, так что если хочешь купить какую-то не "брендовую" железку - то надо или гуглить "модель_сервера" "модель_железки", или спрашивать на двачах - мб кто-то сталкивался, или покупать и проверять на собственном опыте.
единственное, что вендоры публикуют - это список совместимых процессоров, и то косвенно - в виде списка модификаций конкретного сервера с разными процессорами.
чтобы всё гарантированно заработало - тогда надо брать всё "вендорское" - к условному серверу HP брать контроллер бренда HP, оперативу бренда HP, и харды бренда HP.
или покупать супермикру, они обычно менее разборчивы в комплектующих.
С супермикрами и тянками у меня уже был опыт, исключительно положительный. Больше всего меня интересуют форм-факторы стоечных корпусов, блоков питания, совместимость со шкафами и с комплектующими ATX.
а какая может быть несовместимость PCIe карты с сервером, где есть соответствующие слоты?
К примеру, это Intel x540 или ConnectX-3.
> форм-факторы стоечных корпусов
их всего два - 19 дюймов и 21 дюйм. первые используются в 99% серверов, вторые в продаже ты вряд ли найдёшь, а если и найдёшь - то за ахулиарды долларов.
(есть ещё третий форм-фактор - 24 дюйма, но их ты найдёшь разве что на свалке)
> блоков питания
тут всё очень сложно.
почти у всех серверов проприетарные коннекторы и платы, поэтому подойдёт только тот блок питания, который изначально шёл с данной конкретной моделью сервера.
в лучшем случае - может подойти блок от той же модели сервера, но чуть более свежего или чуть более старого поколения. и то не факт.
> совместимость со шкафами
см. выше про 19 и 21 дюйм. у тебя будет сервер форм-фактора 19" если ты не шизик-миллионер, повёрнутый на безопасности, или если ты не работаешь в гугле или фсбуке
> комплектующими ATX
см. выше про блоки питания. у большинства серверов даже "стандартных" для десктопа пинов power off / reset нету, какая тут нафиг совместимость.
>>844584
если прошивка сервера не знает о такой плате, то с большой вероятностью она врубит фен, дующий на плату, на 100% - "на всякий случай".
не очень комфортно для домашнего использования.
> блоков питания
кстати, тут опять же выгодно выделяется супермикра - у них зачастую коннекторы "стандартные" для декстопа - 20/24 пинов плюс 4/6 пинов
а хотя нихуя. я только что вспомнил, что хотя коннектор у них и "стандартный", но распиновка проприетарная, и её надо смотреть в документации по конкретному блоку питания.
а конкретно - вспомнил, что в некоторых моделях бп супермикро можно закоротить два пина, чтобы снизить обороты кулера. стча найду
вот: https://forums.servethehome.com/index.php?threads/supermicro-pws-721p-r1-psu-fan-speed-control.14749/
и вот: https://www.reddit.com/r/homelab/comments/oogapa/confirming_supermicro_psu_fan_speed_control_hack/
однако, в некоторых бп супермикро белого кабеля посередине конектора нет.
а в некоторых вообще все кабели чёрные.
>их всего два
По глубине разве не различаются?
>почти у всех серверов проприетарные коннекторы и платы, поэтому подойдёт только тот блок питания, который изначально шёл с данной конкретной моделью сервера.
Даже у супермикр?
Разве нельзя закупить железо и собрать сервер из комплектующих под свои требования, как десктоп?
> По глубине разве не различаются?
ну по глубине-то, естественно, различаются.
в этом плане не рекомендую Fujitsu - у них рельсы метр в длину, а если добавить cable management hand, то все полтора.
то есть они подходят только для крупных открытых стоек в датацентрах, в закрытый шкаф не влезут.
у супермикро и HP есть короткие модели рельсов, для шкафов глубиной 70+ см, а шкафы глубиной <60см вообще брать не рекомендую.
> Даже у супермикр?
да
> Разве нельзя закупить железо и собрать сервер из комплектующих под свои требования, как десктоп?
можно - берёшь пустой корпус высотой 4U или 5U и пихаешь в него любое десктопное железо, какое захочешь.
а чисто серверное железо - это проприетарщина, вендорлоки, гроб, гроб, кладбище, и далее по списку.
> в этом плане не рекомендую Fujitsu - у них рельсы метр в длину, а если добавить cable management hand, то все полтора.
пикрил сравни размер сервера и рельсов к нему.
вот только сам металлический корпус рельсов не регулируется.
то есть, воткнуть-то их в шкаф я смогу, но дверь уже не закроется.
похоже у тебя рельсы для RX300. Потому что родные для RX100 рельсы короче.
У меня RX300 (длиной ~72см) входил в шкаф 80см. Да, выходил за стойки, и дверь закрывалась впритык (благо была перфорированная) и, конечно, лучше его ставить в шкаф 100см.
А вот RX100 хорошо вмещается в шкаф 60см
это RX1330 с родными рельсами S26361-F2735-E400
>можно - берёшь пустой корпус высотой 4U или 5U и пихаешь в него любое десктопное железо, какое захочешь.
Поддвачну. Сижу на 2011-3 и горя не наю, никаких списков совместимости, и БП стандартный ATX.
Это копия, сохраненная 2 марта 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.