Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Лови знакомую рыбу, открывай новые места и стань мастером рыбалки в сердце России!

Рыбалка по-русски

Казуальные, Симуляторы, На ловкость

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
Tsaplin.RuVDS
Tsaplin.RuVDS

Зачем сейчас VDS-хостинг (ну, кроме трёх весёлых букв)⁠⁠

11 дней назад

Сейчас мы среднего размера VDS-хостинг. Когда мы только начинали, клиент был нам абсолютно понятен — это были мы сами из прошлого: трейдеры, брокеры, алготорговцы и прочие люди, которые хотят заработать на микроколебаниях курсов.

Но не обрыганы, не подумайте.

У нас были связи во всей этой тусовке, поэтому первыми нашими клиентами стали все крупные игроки: БКС, «Финам», «Атон», «ЦЕРИХ», который потом стал Freedom Finance. Мы даже делали для них инструкции, например, как поставить их торговый терминал «Альфа-Директ» на нашу виртуалку.

Но на этом долго проехать не удалось: со временем эта индустрия сдулась. Сначала упала популярность трейдинга, а потом Центробанк обязал брокеров иметь собственную инфраструктуру. Падение было колоссальным: сегодня тот же «Финам» платит нам, наверное, раз в 20 меньше, чем на пике. Правда, остался один специфический сценарий: некоторые клиенты арендуют у нас серверы с большими дисками, чтобы хранить «тиковые данные» — это гигантские объёмы информации о каждом изменении цены на бирже для обучения роботов.

К счастью, у нас не было просадки. Мы использовали трейдеров как трамплин, а потом начал приходить другой клиент. Сначала это были разработчики, которые нуждались в бэкенде для приложений, месте для Docker-контейнеров или систем мониторинга вроде Zabbix.

Потом подтянулся бизнес. Оказалось, что бухгалтерия в облаке — это очень удобно, и у нас стали массово разворачивать 1С на удалённых рабочих столах (VDI).

Потом пришла волна трёх весёлых букв: спасибо другим трём весёлым буквам. Раньше мы такой фигнёй не занимались, как вдруг это стало массовой потребностью.

Причём появился новый, неожиданный тренд, который мы называем «тоннели в Россию». Люди, оказавшиеся за границей, покупают у нас серверы с российскими IP, чтобы заходить на Госуслуги, в банковские приложения и на другие отечественные сервисы.

Параллельно было много дам с курсов, которые брали сервер, чтобы развернуть бота, который их любит и лайкает.

Сейчас профиль клиента максимально разнообразный: это и ребята, которые пишут telegram-ботов, и те, кто обучает нейросети, скармливая им для анализа тонны данных, например, парся видео с YouTube. После блокировок Slack и ограничений в других мессенджерах пошёл спрос на корпоративную безопасность. Мы сами следуем философии «сделай для себя, а потом предложи другим». Например, мы развернули у себя open-source-мессенджер Element, а потом добавили его в наш маркетплейс, чтобы компании могли за копейки поднять собственный аналог Slack и полностью контролировать коммуникации.

Примерно вот так сейчас используется VDS.

А вот <a href="https://ruvds.com/ru-rub" target="_blank" rel="nofollow noopener">ссылка</a> на сайт.

А вот ссылка на сайт.

Реклама Реклама ООО «МТ ФИНАНС» ИНН 7706424050

Показать полностью 1
Хостинг Бизнес IT Цод Блоги компаний
5
17
mknews
mknews

Шум вашего интернета | Как работает дата-центр?⁠⁠

1 месяц назад

Мы побывали в одном из самых продвинутых московских ЦОД и пообщались с его инженерами. Рассказываем, как работает большой дата-центр, по каким принципам устроено охлаждение и сколько энергии он потребляет. Посмотрим что внутри серверной стойки, что такое роторные ИБП, чиллеры и фрикулинг.

Версия во вконтакте и на рутуб.

[моё] Компьютер Компьютерное железо Сервер Дата-центр Цод Сети Сисадмин Серверная Видео YouTube
3
18
DmitriitheFals
Лига Сисадминов
Серия Кудахтеры

Российские ЦОД - отставание на поколение. Часть 2⁠⁠

1 месяц назад

Вдогон к статье с новостями из РФ (Российские ЦОД - отставание на поколение или куда ставить NVIDIA Grace Blackwell NVLink72), прислали статью с новостями из США.

Новости РФ:

РБК, за пейволлом: iKS-Consulting: в первом полугодии строительство дата-центров в России упало в три раза
Infox: Причины падения числа новых проектов ЦОД в России при росте спроса

В первом полугодии в российских дата-центрах было открыто 3,7 тысячи новых стоек (технических шкафов для установки IT-оборудования), что на три раза меньше по сравнению с аналогичным периодом прошлого года, сообщает исследовательская компания iKS-Consulting. В сравнении с 2024 годом темпы ввода новых мощностей резко падают: тогда они составили 15%, а в 2025 году, согласно прогнозам iKS-Consulting, ожидаются на уровне 5,5%.

В целом, до конца этого года специалисты ожидают появления еще 4,5 тысячи стойко-мест. Снижение темпов, по данным iKS-Consulting, связано с перенесением сроков ввода в эксплуатацию ряда коммерческих дата-центров на 2026 и 2027 годы.

Российские стойки регулярно считают как «5 киловатт на стойку». Это маловато, но сойдет для начала.
Получается ввод примерно 8 тысяч стоек в год и примерно 5 (киловатт на стойку) *8.000 (стоек) = 40.000 киловатт. Можно округлить как «от 50.000 до 100.000 киловатт вводимой мощности».
50-100 мегаватт.

Новости США:

Tomshardware:
Microsoft заявил «самый мощный в мире» центр обработки данных искусственного интеллекта — площадка площадью 315 акров для размещения «сотней тысяч» графических процессоров NVIDIA и достаточного количества оптоволокна, чтобы опоясать Землю 4,5 раза
Оригиналы
Tomshardware: Microsoft announces 'world's most powerful' AI data center — 315-acre site to house 'hundreds of thousands' of Nvidia GPUs and enough fiber to circle the Earth 4.5 times
Microsoft: Inside the world’s most powerful AI datacenter

Ставить туда будут те самые «новые nVidia» -

Azure was the first cloud provider to bring online the NVIDIA GB200 server, rack and full datacenter clusters. Each rack packs 72 NVIDIA Blackwell GPUs, tied together in a single NVLink domain that delivers 1.8 terabytes of GPU-to-GPU bandwidth and gives every GPU access to 14 terabytes of pooled memory.

То есть, Microsoft вводит что-то сравнимое с Colossus от Илона Маска – 150 мегаватт на один датацентр:


The first phase of Elon Musk’s xAI Memphis Supercluster has just reached full operational capacity as the on-site substation goes online and connects to the main power grid. According to the Greater Memphis Chamber, the site will receive 150 MW from Memphis Light, Gas, and Water (MLGW) and the Tennessee Valley Authority (TVA). Aside from that, the xAI Colossus supercomputer also boasts another 150 MW of Megapack Batteries that will serve as backup, allowing it to stay powered in case of outages or during times of increased demand.
Musk’s Colossus is fully operational with 200,000 GPUs backed by Tesla batteries — Phase 2 to consume 300 MW, enough to power 300,000 homes

Вышла и статья с прогнозами по энергетике США:
September 17, 2025 Powering the US Data Center Boom: Why Forecasting Can Be So Tricky

Два американских датацентра от лидеров рынка по 150 мегаватт каждый с одной стороны
Все вводимые мощности датацентров в РФ за год – 50-100 мегаватт.

Мощностей по электричеству в РФ хватает, и даже турбинами своего производства, и даже под Москвой:

03.03.2025 На строительную площадку Каширской ГРЭС (реализация проекта модернизации электростанции ведётся под управлением ООО «Интер РАО – Инжиниринг») доставлена первая произведённая в России инновационная газовая турбина большой мощности ГТЭ-170.1. Оборудование предназначено для реализации проекта строительства двух дубль-блоков ПГУ суммарной мощностью 900 МВт.
Первая произведённая в России инновационная газовая турбина доставлена на стройплощадку ПГУ Каширской ГРЭС

Выводы ?
Выводов не будет. В Китае просто купили, что хотели, через Сингапур:

Через Сингапур в Китай отгрузили новых процессоров Nvidia на 2 миллиарда долларов

Оригинал: Singaporean company with clear Chinese connections spent roughly $2 billion on Nvidia AI processors — and allegedly made them available for Chinese companies or re-exported them to China, according to a recent New York Times investigation. Companies from Singapore have long been suspected of procuring restricted AI accelerators from Nvidia to ship to China, bypassing U.S. sanctions. Although a few smuggling networks have been found, establishing a direct link has been tenuous until now.
Singaporean company with clear Chinese connections spent roughly $2 billion on Nvidia AI processors — and allegedly made them available for Chinese companies or re-exported them to China

Показать полностью
[моё] IT Цод Nvidia Текст
2
9
TechSavvyZone
TechSavvyZone

Энтропия информационной инфраструктуры: Стратегии противодействия хаосу в серверных экосистемах корпоративного уровня⁠⁠

2 месяца назад

Аннотация: В современной бизнес-среде серверная комната или дата-центр перестали быть просто техническими помещениями. Они превратились в сложные, динамичные экосистемы, где физические и логические компоненты находятся в постоянном взаимодействии. В данной статье проводится глубокий анализ ключевых аспектов жизни такой экосистемы: энергопотребления и охлаждения, кабельной инфраструктуры, физической безопасности и мониторинга. В противовес описательному подходу, мы предлагаем системный взгляд, основанный на международных и отечественных стандартах (ГОСТ, TIA-942, ISO/IEC 27001). Для каждого аспекта детально разбираются типичные ошибки специалистов, приводятся яркие примеры их катастрофических последствий для бизнеса и предлагаются конкретные, реализуемые на практике варианты решений, направленные на достижение максимальной отказоустойчивости, эффективности и предсказуемости работы всей информационной структуры предприятия.

Введение: От «серверного парка» к «серверной экосистеме»

Бродя по просторам «ИНТЕРНЕТА» наткнулся на довольно неплохое чтиво в виде Статьи «Прогулки по серверному парку», которая была опубликована в далеком 2004 году, по моему мнению она была своего рода гидом по terra incognita для многих молодых IT-специалистов того времени которые только начинали свою карьеру. Она фиксировала состояние индустрии, где серверы были громоздкими, а их размещение зачастую напоминало скорее складское хозяйство, чем инженерное сооружение. Прошедшие два десятилетия кардинально изменили ландшафт. Виртуализация, облачные технологии, контейнеризация и экстремальный рост плотности вычислений на единицу площади превратили серверные помещения в критически важные центры жизнеобеспечения бизнеса. Я решил немного обновить и проанализировать ситуацию и обновить «Гайд» для новичков профессии, «Возможно пригодиться»! Старичкам профессии!, буду очень признателен, за комментарии и возможные дополнения, особо ценные обязательно попадут в продолжение, так как планирую в дальнейшем выпустить цикл статей если аудитория заинтересуется.

Понятие «парк» implies нечто пассивное, статичное. Сегодняшняя реальность требует более динамичной метафоры – «экосистема». Это живой, дышащий организм, где изменение одного параметра (например, температуры на одном стойко месте) немедленно сказывается на других (потреблении энергии, шуме вентиляторов, надежности соседнего оборудования). Основной закон термодинамики – энтропия, стремление системы к хаосу – в полной мере применим и к ИТ-инфраструктуре. Без целенаправленных усилий по ее поддержанию и развитию, инфраструктура неуклонно движется к состоянию беспорядка: кабели спутываются, документация устаревает, системы охлаждения не справляются с нагрузкой, а политики безопасности становятся формальностью.

Цель данной статьи – предложить не просто описание лучших практик, а целостную философию управления этой экосистемой. Мы перейдем от вопроса «Что это?» к вопросам «Почему это важно?», «Что будет, если этим пренебречь?» и «Как сделать это правильно, опираясь на мировой опыт?». Анализ будет строиться на сопоставлении хаотичного, «энтропийного» подхода с системным, стандартизированным, основанным на таких документах, как ГОСТ Р 56952-2022 (аналогичный EN 50600 по дата-центрам), серия стандартов ISO/IEC 27000 по безопасности, TIA-942 для телекоммуникационной инфраструктуры и других.

Раздел 1. Энергоснабжение и тепловой менеджмент: Основа стабильности экосистемы

Электричество – это кровь серверной экосистемы. Его качество, бесперебойность и распределение определяют возможность существования всей системы. Тепло – это ее естественный метаболический продукт, который должен быть эффективно отведен. Дисбаланс в этой паре – самая частая причина катастрофических сбоев.

Анализ текущей ситуации и проблемы

Многие организации, особенно на этапе роста, относятся к энергетике по остаточному принципу. Типичные ошибки включают:

Отсутствие резервирования: Подключение всей критической нагрузки к одной линии электропитания без источника бесперебойного питания (ИБП) или с ИБП, не рассчитанным на длительную работу.

Неправильный расчет мощности: Подключение нового мощного оборудования к уже загруженным электрическим цепям, что приводит к перегрузкам и срабатыванию автоматических выключателей.

Хаотичное размещение оборудования: Установка серверов с высокой тепловой нагрузкой в верхней части стойки, где скапливается горячий воздух, или создание «горячих островков» из-за непродуманной расстановки стоек.

Игнорирование холодных и горячих коридоров: Смешивание потоков холодного и горячего воздуха, приводящее к резкому снижению эффективности системы охлаждения.

Варианты решений для специалистов на основе стандартов

1.  Внедрение системы бесперебойного питания с многоуровневым резервированием (N+1, 2N).

Стандарт: ГОСТ Р МЭК 62040-3-2014 (Системы бесперебойного питания. Часть 3). Определяет методы определения производительности и испытаний.

Решение: Для малых и средних серверных достаточно ИБП с топологией VFI (двойное преобразование), обеспечивающего чистую синусоиду и защиту от всех видов помех в сети. Для ЦОДов корпоративного уровня обязательна схема резервирования 2N (два полностью независимых модуля питания, каждый из которых способен нести полную нагрузку). Это защитит от отказа одного из ИБП, а также позволит проводить его плановое обслуживание без прерывания работы.

2.  Проектирование и строгое соблюдение организации холодных и горячих коридоров.

Стандарт: TIA-942-B (Telecommunications Infrastructure Standard for Data Centers). Детально описывает требования к компоновке, включая ширину коридоров, высоту фальшпола, размещение перфорированных плит.

Решение: Стойки должны быть установлены фронтами друг к другу, образуя «горячие» коридоры, где горячий воздух отводится к кондиционерам. Тыльные стороны образуют «холодные» коридоры, откуда оборудование забирает охлажденный воздух. Холодные коридоры должны быть герметизированы (с помощью заглушек на пустых юнитах, боковых панелей на стойках и, в идеале, физических потолков). Это повышает температурный дифференциал и эффективность охлаждения на 15-40%.

3.  Внедрение системы мониторинга потребляемой мощности (PDU с измерением) и температуры в режиме реального времени.

Стандарт: ГОСТ Р 56952-2022 (Центры обработки данных. Требования к телекоммуникационной инфраструктуре). Рекомендует мониторинг ключевых параметров среды.

Решение: Использование интеллектуальных блоков распределения питания (PDU), которые предоставляют данные о токе, напряжении и потребляемой мощности на уровне каждой розетки или ветви. Датчики температуры должны размещаться не только на входе кондиционеров, но и на входе в стойки, а также на выходе из серверов (в горячих коридорах). Это позволяет строить тепловые карты и прогнозировать перегревы.

Последствия ошибок: Яркие примеры

Пример 1: «Эффект домино» из-за перегрузки цепи. В крупном интернет-магазине перед распродажей в стойку с существующим оборудованием был установлен новый мощный сервер СУБД. Инженер не проверил нагрузку на цепи PDU. Во время пиковой нагрузки автоматический выключатель на PDU сработал. Сервер БД отключился, что привело к падению сайта на 4 часа. Прямые убытки от потерянных продаж составили несколько миллионов рублей, а репутационные потери были еще значительнее.

Вывод: Каждое добавление оборудования должно сопровождаться проверкой нагрузки на электрическую цепь. Интеллектуальные PDU с пороговыми предупреждениями могли бы предотвратить инцидент.

Пример 2: Лавинообразный перегрев из-за нарушения циркуляции воздуха. В дата-центре финансовой компании сервер, расположенный в верхней части стойки, вышел из строя из-за перегрева и отключился. Его вентиляторы перестали работать. Этот сервер создавал значительное аэродинамическое сопротивление. После его остановки горячий воздух от нижестоящих серверов изменил поток и начал засасываться ими же на вход, создавая рециркуляцию. В течение 10 минут последовательно перегрелись и отключились еще 5 серверов, что привело к остановке биржевых торговых роботов. Расследование показало, что в стойке отсутствовали blanking-панели (заглушки), усугублявшие проблему.

Вывод: Физическое расположение оборудования и аэродинамика стойки не менее важны, чем работа кондиционеров. Заглушки – это не «косметика», а обязательный элемент системы охлаждения.

Раздел 2. Кабельная система: Нервная система экосистемы

Кабельная инфраструктура – это нервная система, связывающая все компоненты экосистемы воедино. Ее состояние напрямую определяет производительность сети, простоту управления и скорость реагирования на изменения.

Анализ текущей ситуации и проблемы

«Кабельный спагетти» – бич многих старых и даже не очень старых серверных. Проблемы возникают из-за:

Отсутствие проекта СКС: Прокладка кабелей «по мере необходимости», без единого плана и цветовой маркировки.

Смешение типов кабелей: Силовые и патч-корды, проложенные в одном лотке, что приводит к электромагнитным помехам.

Игнорирование правил прокладки: Резкие изгибы кабелей, превышающие минимальный радиус, что повреждает жилы и ухудшает характеристики.

Отсутствие документации: После ухода администратора, который «все держал в голове», новый специалист тратит недели на распутывание клубка.

Варианты решений для специалистов на основе стандартов

1.  Внедрение структурированной кабельной системы (СКС) с четкой иерархией.

Стандарты: ISO/IEC 11801 (Information technology — Generic cabling for customer premises), TIA-942. ГОСТ Р 53245-2008 (Информационная технология. Структурированные кабельные системы. Монтаж и приемка основных узлов).

Решение: СКС должна быть спроектирована с выделением главного кроссового поля (MC), кроссовых полей оборудования (EC) и горизонтальных кроссов (HC). Использование патч-панелей вместо прямого подключения кабелей к коммутаторам. Это создает точку стабильности (стенд с патч-панелями) и точку изменений (патч-корды). Все кабели должны быть промаркированы с двух сторон в соответствии с единой схемой именования.

2.  Разделение силовых и слаботочных кабельных трасс.

Стандарт: ГОСТ Р 53246-2008 (Информационная технология. Проектирование основных узлов систем...). Прямо указывает на необходимость разделения трасс или обеспечения расстояния не менее 30 см между силовыми и информационными кабелями при параллельной прокладке.

Решение: Использование раздельных лотков для силовых кабелей и кабелей СКС. Если разделение невозможно, следует использовать экранированные кабели (F/UTP, S/FTP) и заземлять экран. Пересечение трасс должно осуществляться строго под прямым углом.

3.  Применение систем управления кабелями (кабельные органайзеры, направляющие).

Стандарт: Рекомендации производителей телекоммуникационных шкафов (например, APC, Rittal) и лучшие практики, описанные в TIA-942.

Решение: Установка вертикальных и горизонтальных кабельных органайзеров на стойках. Использование патч-кордов фиксированной длины (0.5м, 1м, 2м). Это исключает образование свисающих петель и избыточного запаса, которые мешают циркуляции воздуха и доступу к оборудованию.

Последствия ошибок: Яркие примеры

Пример 1: Случайный обрыв критического соединения. В колокейшн-центре технический специалист, пытаясь добавить новый сервер, зацепился ногой за клубок неорганизованных кабелей. Это привело к выдергиванию патч-корда из коммутатора агрегатного уровня. Этим кабелем обеспечивалась связь между основным и резервным центром обработки данных. Сработал механизм репликации, который, столкнувшись с потерей связи, перевел систему в аварийный режим, ошибочно зафиксировав катастрофу в основном ЦОДе. Начался неплановый переход на резервный сайт, который занял 30 минут и привел к недоступности критичных приложений для сотен клиентов.

Вывод: Аккуратная кабельная разводка – это не эстетика, а вопрос отказоустойчивости. Вероятность случайного повреждения правильно организованных кабелей стремится к нулю.

Пример 2: Тайная деградация производительности сети. Компания жаловалась на периодические «зависания» сети хранения данных (SAN) в ночное время, во время выполнения задач резервного копирования. Логи серверов и коммутаторов не показывали явных ошибок. После многомесячного расследования приглашенный эксперт с помощью рефлектометра обнаружил, что один из волоконно-оптических кабелей, проложенных с резким изгибом за стойкой, имел микротрещины. Под нагрузкой (интенсивный трафик бэкапов) оптический сигнал деградировал, вызывая рост количества ошибок и повторных передач, что и проявлялось как «зависание». Проблема была решена заменой кабеля, проложенного с соблюдением минимального радиуса изгиба.

Вывод: Физические дефекты кабеля могут вызывать прерывистые и трудно диагностируемые проблемы. Соблюдение правил монтажа с самого начала сэкономило бы компании десятки тысяч рублей на диагностике и простое.

Раздел 3. Физическая безопасность и контроль доступа: Иммунная система экосистемы

Серверная комната – это сейф, где хранится самый ценный актив компании – ее данные. Физическая безопасность является фундаментом, на котором строится вся кибербезопасность.

Анализ текущей ситуации и проблемы

Ошибки в этой области часто происходят из-за недооценки человеческого фактора:

Упрощенный контроль доступа: Ключ от серверной, который хранится в незапертом ящике, или единый код на двери, известный десяткам людей.

Отсутствие аудита и сегрегации обязанностей: Один и тот же специалист имеет неограниченный физический доступ ко всему оборудованию, может самостоятельно вносить изменения без согласования.

Пренебрежение видеонаблюдением: Отсутствие архивов записей, фиксирующих кто, когда и что делал в помещении.

Варианты решений для специалистов на основе стандартов

1.  Внедрение многофакторной системы контроля доступа.

Стандарт: ISO/IEC 27001:2022 (Информационная безопасность, кибербезопасность и защита конфиденциальности — Системы менеджмента информационной безопасности — Требования). Контроль A.7.3 «Физический доступ в зоны безопасности».

Решение: Отказ от механических ключей в пользу электронных систем (карты доступа, брелоки). Обязательное использование двухфакторной аутентификации для доступа в зоны повышенной критичности (например, карта + PIN-код или биометрия). Система должна вести детальный журнал всех событий входа/выхода.

2.  Реализация принципа минимальных привилегий и сегрегации обязанностей.

Стандарт: Требованиям отечественного Федерального закона № 152-ФЗ «О персональных данных» (для обработчиков ПДн) и внутренним политикам безопасности.

Решение: Разграничение зон доступа. Например, специалист по сетевым оборудованием имеет доступ только к стойкам с коммутаторами, а администратор СУБД – только к стойкам с серверами баз данных. Физический доступ к ленточным библиотекам с архивными бэкапами должен быть предоставлен крайне ограниченному кругу лиц. Любое изменение в коммутациях (переключение патч-корда) должно фиксироваться в системе заявок.

3.  Организация круглосуточного видеонаблюдения с архивом.

Стандарт: Лучшие отраслевые практики, часто требуются стандартами PCI DSS (для платежных систем) и др.

Решение: Установка камер высокого разрешения с охватом всех критических зон: вход, коридоры, лицевые и тыльные стороны стоек. Видеоархив должен храниться не менее 90 дней. Камеры должны быть интегрированы с системой контроля доступа, чтобы событие доступа сразу привязывалось к видеофрагменту.

Последствия ошибок: Яркие примеры

Пример 1: Кража данных уволенным сотрудником. Сотрудник, уволенный из IT-отдела крупного ритейлера, воспользовался тем, что его карта доступа была деактивирована с задержкой в один день. Ночью он прошел в серверную, к которой имел доступ, и, зная пароли (которые не были изменены вовремя), подключился к серверу, скопировал базу данных с персональными данными и платежными реквизитами нескольких сотен тысяч клиентов. Эти данные были затем проданы на черном рынке. Компании пришлось уведомлять клиентов, менять платежные системы и заплатить многомиллионный штраф по 152-ФЗ.

Вывод: Процедура увольнения должна включать мгновенное отключение всех видов доступа – физического и логического. Журналы контроля доступа должны проверяться регулярно.

Пример 2: Саботаж и вывод из строя оборудования. В рамках корпоративного конфликта недовольный системный администратор, имеющий единоличный доступ в серверную, в выходной день отключил питание на нескольких стойках, вызвав остановку производственного конвейера на 12 часов. Убытки от простоя исчислялись десятками миллионов рублей. Так как видеонаблюдение велось только на входе, а журнал доступа не анализировался, доказать умысел сразу не удалось. Только косвенные улики и последующая исповедь самого администратора позволили установить истину.

Вывод: Отсутствие сегрегации обязанностей и полноценного наблюдения внутри помещения создает колоссальные операционные риски. Ни один сотрудник не должен обладать неконтролируемой властью над всей инфраструктурой.

Раздел 4. Мониторинг, документация и управление жизненным циклом: Сознание экосистемы

Способность экосистемы к самодиагностике, прогнозированию и планированию – признак ее зрелости. Это достигается за счет комплексного мониторинга и безупречного ведения документации.

Анализ текущей ситуации и проблемы

Самая распространенная болезнь – «выгорание» процессов документирования:

Документация отстает от реальности: Схемы, нарисованные пять лет назад, не соответствуют текущему состоянию.

Мониторинг «всего подряд» без реакции: Система генерирует тысячи событий, но большая часть из них игнорируется, так как не настроены пороги и приоритеты.

Отсутствие реестра активов и их жизненного цикла: Компания продолжает эксплуатировать сервер, гарантия на который истекла 3 года назад, и узнает об этом только в момент его отказа.

Варианты решений для специалистов на основе стандартов

1.  Внедрение системы централизованного мониторинга и управления событиями (SIEM).

Стандарт: ISO/IEC 27035 (Управление инцидентами информационной безопасности).

Решение: Использование систем типа Zabbix, Prometheus, Nagios для сбора метрик (температура, загрузка CPU, свободное место на дисках) и систем типа ELK Stack (Elasticsearch, Logstash, Kibana) или коммерческих SIEM-решений для агрегации и корреляции логов. Настройка правил, чтобы критичные события (например, отказ диска в RAID-массиве, срабатывание пожарной сигнализации) немедленно вызывали реакцию (уведомление по SMS, email, в мессенджер).

2.  Ведение единого реестра активов (CMDB - Configuration Management Database).

Стандарт: ITIL 4 (библиотека инфраструктуры IT). Практика «Управление активами и конфигурациями».

Решение: Создание базы данных, где каждый актив (сервер, коммутатор, ИБП) имеет свою запись с указанием производителя, модели, серийного номера, даты ввода в эксплуатацию, гарантийного срока, ответственного, связей с другими активами (какой сервер на каком коммутаторе висит). CMDB должна быть «единственным источником истины».

3.  Автоматизация документирования изменений.

Стандарт: Внутренние регламенты компании, интегрированные с ITSM-системами (ServiceNow, Jira Service Desk).

Решение: Любое изменение в инфраструктуре (добавление сервера, смена патч-корда) должно инициироваться через заявку на изменение (Request for Change, RFC). После выполнения изменения ответственный специалист обязан обновить соответствующие схемы в CMDB или системе документооборота. Это делает процесс необременительным и частью рабочего потока.

Последствия ошибок: Яркие примеры

Пример 1: Многочасовой простой из-за отсутствия актуальной схемы. В результате аварии на коммутаторе агрегатного уровня отключилась половина серверов. Команда администрирования начала восстановление, но столкнулась с тем, что схема сетевых подключений была устаревшей. Физическое распутывание кабелей, чтобы понять, какой сервер куда подключен, заняло 4 часа. Вместо потенциально быстрого восстановления путем переключения на резервный коммутатор, простой критически важных систем длился более 6 часов, что привело к остановке онлайн-торговли и срыву сроков по ключевым проектам.

Вывод: Актуальная документация – это не отчет для начальства, а инструмент для аварийного восстановления. Ее стоимость несопоставима со стоимостью простоя.

Пример 2: Цепная реакция отказов из-за пропущенных предупреждений мониторинга. Система мониторинга в течение двух недель генерировала предупреждения о постепенном снижении емкости аккумуляторных батарей в ИБП. Однако эти предупреждения имели низкий приоритет («Warning») и терялись среди сотен других сообщений. Никто на них не отреагировал. Во время плановых работ в городской электросети произошло короткое отключение питания. ИБП должен был обеспечить работу на 15 минут, но батареи отработали менее 2 минут. Серверы аварийно отключились, что привело к повреждению файловых систем на нескольких виртуальных машинах. Их восстановление из бэкапа заняло сутки.

Вывод: Мониторинг без настройки правил эскалации и реакции бесполезен. Критичные для инфраструктуры компоненты (ИБП, охлаждение) должны мониториться с высочайшим приоритетом.

Заключение: От борьбы с хаосом к управляемой эволюции

Серверная экосистема современного предприятия – это сложный организм, требующий не сиюминутных «латаний дыр», а продуманной стратегии управления, основанной на международных и отечественных стандартах. Каждый рассмотренный аспект – энергетика, кабельная система, безопасность, мониторинг – является неотъемлемым звеном в цепи надежности.

Ошибки на любом из этих этапов, как показали примеры, имеют далеко идущие последствия: от прямых финансовых потерь и репутационного ущерба до полной остановки бизнес-процессов. Стратегия, построенная на стандартах (ГОСТ, TIA-942, ISO/IEC 27001, ITIL), – это не бюрократия, а практический инструмент, позволяющий перевести инфраструктуру из состояния непредсказуемого хаоса в состояние управляемой, предсказуемой и надежной системы.

Ключевой вывод заключается в том, что инвестиции в порядок и стандартизацию «железного» уровня многократно окупаются за счет снижения рисков, уменьшения времени простоя и упрощения масштабирования. Борьба с энтропией информационной инфраструктуры – это непрерывный процесс, но именно он позволяет бизнесу не просто выживать, а уверенно развиваться в цифровую эпоху.

Показать полностью 18
[моё] Инженер Статья IT Серверная Сервер Цод ГОСТ Проектирование Технологии Компьютерное железо Автоматизация СКУД Охлаждение Система охлаждения Стандарты Закон Требования Нормы Длиннопост
0
1
MindMoney
MindMoney
Лига Инвесторов

Америку шандарахает током все сильней и сильней⁠⁠

2 месяца назад

По данным Управления энергетической информации (EIA), в США ожидается резкий рост спроса на электроэнергию — с 3938 тераватт-часов (ТВт⋅ч) в 2024 году до 5780 ТВт⋅ч в 2050 году.

Дизайнеры МisualСapitalist изобразили эту динамику на графике:

Отдельную визуализацию получила растущая доля спроса на электроэнергию для центров обработки данных в США, 2023–2030 гг.

Так что электроэнергетика сулит инвесторам всех стран приличные доходы

Показать полностью 2
Электричество Электроэнергетика США Цод Дата-центр Длиннопост
4
AntonBuh

Куда использовать 1000 SSD?⁠⁠

4 месяца назад

Без особой надежды, кидаю вопрос в интернет)))

У меня имеется больше 1000 SSD объемами 240, 480, 960 гигабайт.

Продать их не вариант, даже не просите.

Вопрос: как их можно использовать?

SSD Цод IT Облачное хранилище Текст
21
5
MindMoney
MindMoney
Лига Инвесторов

Человечество уничтожит не Терминатор, а дата-центры и кондиционеры⁠⁠

5 месяцев назад

В течение ближайшего десятилетия потребление электроэнергии центрами обработки данных и кондиционерами во всем мире утроится, что станет серьезным испытанием для коммунальных служб, которые и так испытывают нагрузку из-за стареющих сетей и длительных задержек с поставками новой электроэнергии. Кстати, эта проблема актуальна и для России.

Рост мирового спроса на электроэнергию по сегментам до 2035 года

Рост мирового спроса на электроэнергию по сегментам до 2035 года

По прогнозам Международного энергетического агентства (МЭА), спрос на электроэнергию со стороны центров обработки данных к 2035 году вырастет примерно на 800 тераватт-часов (ТВт·ч) по сравнению с примерно 416 ТВт·ч в 2024 году.

По данным Управления энергетической информации США (EIA), этого достаточно для обеспечения электроэнергией около 75 миллионов американских домов в течение года.

Однако, по данным Think Thank Ember, к 2035 году мировой спрос на системы охлаждения вырастет примерно на 1200 ТВт-ч, что почти равно объему электроэнергии, например, потребляемой всем Ближним Востоком в год.

Прогнозируемый мировой спрос на электроэнергию для охлаждения помещений и центров обработки данных

Прогнозируемый мировой спрос на электроэнергию для охлаждения помещений и центров обработки данных

Обозреватель «Рейтерс» Гэвин Магуайр: «Большая часть расширений центров обработки данных будет осуществляться в странах с развитой экономикой, где имеются современные электросети, а рост спроса будет в первую очередь обусловлен обработкой поисковых запросов для предприятий и приложений социальных сетей.

Напротив, большая часть роста спроса на кондиционирование воздуха придется на развивающиеся экономики, где многие сообщества уже сталкиваются с перспективой смертей и заболеваний, связанных с жарой, в и без того хрупких энергетических системах».

Изменение климата приводит к более частым, интенсивным и продолжительным волнам высоких температур по всему миру, но особенно в развивающихся регионах, таких как Южная и Юго-Восточная Азия, где высокий уровень влажности может усилить воздействие теплового стресса.

Чтобы бороться с последствиями, в новых домах и офисах в странах с теплым климатом увеличивают количество устанавливаемых в них кондиционеров. И во многих из этих регионов во всю идет строительный бум, в результате чего увеличиваются площади, требующие охлаждения.

К 2050 году все больше домов и зданий будут оснащены охлаждающим оборудованием

К 2050 году все больше домов и зданий будут оснащены охлаждающим оборудованием

Мир безвольно вступает в глобальное потепление. «В США повышение температуры может привести к увеличению спроса на природный газ, поскольку люди включают кондиционеры, что приведет к росту цен. За последние 30 лет июль стал жарче на 20 HDD+CDD единиц», - резюмирует в обзоре на ЕnergyСentral руководитель аналитического центра Mind Money Игорь Исаев.

И это подсказывает, что инвестировать в энергетику и энергосервисы сейчас самое время.

Показать полностью 2
Энергетика (производство энергии) Цод Кондиционер Распределенные сети Электросети Энергия Промышленность Длиннопост
3
7
SystemArchitect

Статья про сервер⁠⁠

5 месяцев назад

Всем привет!

Продолжаю делиться знаниями и т.к. сейчас моя работа связана с поставками серверов из реестра минпромторга, то будем говорить про них.

Информация будет полезна системным администраторам из госсектора(и не только), менеджерам по продажам такого рода оборудования.

В каждом вендоре, интеграторе или поставщике серверного оборудования есть позиция, которая называется "Технический пресейл инженер".

Этот человек занимается подбором оборудования по критериям (дайте сервер на 12 дисков, дайте сервер чтобы было 40 ядер или 512гб RAM и т.д) или техническому заданию от заказчика (Количество ядер каждого установленного процессора, Базовая частота каждого установленного процессора (без учета технологии динамического изменения частоты) и т.д.).

Чтобы начать разбираться в этом, нужно сначала хотя бы собрать сервер (виртуально), чем мы и займёмся.

Т.к. нас не интересует физическая сборка, а только проектирование будующей системы, то идём связанными "блоками":

Корпус - дисковая корзина - блок питания - вентиляторный модуль

Материнская плата - процессор - радиатор на процессор - оперативная память - порты на материнской плате

Вуяла, наш сервер готов (естественно нет). Есть огромное количество нюансов, которые я постараюсь описать про каждую составляющую нашего сервера.

Корпус: Есть несколько параметров (стандартов) которые использует каждый производитель.

Высота (измеряется в юнитах: 1-2-3-4-6-10U), монтажная ширина 19 дюймов (99% серверов, будем всегда использовать её) и 21 дюйм (специализированные или кастомные решения), глубина (зависит от серверной стойки, которая у вас есть в наличии).

Дисковая корзина: Диски бывают 2.5" и 3.5" (у них разная длина, высота, ширина), интерфейс подключения SATA, SAS, U.2(3). Исходя из этих параметров, подбирается корзина. Ну выбрали мы диски, допустим SAS, а как подключить?

Тут есть 2 варианта, прямое подключение (1 кабель - 4 или 8 дисков) или через дополнительный элемент, который называется бэкплейн (это плата, которая обеспечивает физическое подключение дисков и соединяет их с дисковым контроллером).

А как быть, если на дисковом контроллере не хватает портов? То выбор будет идти в пользу бэкплейна с экспандером (отдельный чип, который позволяет подключить всю дисковую корзину с бэкплейном одним кабелем к дисковому контроллеру).

Блок питания: Не будем сильно углубляться в КПД (стандарты platinum, gold, plus), а остановимся на самом важном параметре, это - количество блоков питания и их мощность. Сервер является ядром организации (программа, база данных) и простой может стоить денег или времени. Поэтому в нём установлено 2 блока питания.

Один работает, второй ожидает в резерве. Эта схема называется N+1, где N - это количество блоков, а +1, это тот самый блок, который ожидает в резерве. Теперь про мощность, она подбирается исходя из общего количества компонентов (процессоры (их потребление), оперативная память, вентиляторы, видеокарты, сетевые карты и т.д.).

Тот самый пресейл инженер исходя из общего количества компонентов и выбирает блок питания. Я в своей практике всегда руководствуюсь +30%, чтобы при подключении доп. устройств (которые не были учтены при проектировании), у заказчика не случился коллапс.

Вентиляторный модуль: В зависимости от высоты корпуса используется разное количество вентиляторов. Не будем глубоко лезть в эту тему, но тут важно знать, что они горячей замены (допустим, один вентилятор вышел из строя, мы просто достаём неисправный и на его место опускаем новый).

Надеюсь этот блок я объяснил понятно, а если нет, то напишите в комментарии, постараюсь ответить (всякие душнили и токсики мимо)

Переходим ко второй важной части, тут будет посложнее.

Материнская плата и основные параметры: 1. Бывает разных форм-факторов, но не будем уходить глубоко, т.к. в теме серверов это не имеет никакого смысла (кроме конкурсных процерур, где важно количество портов для соответствия) поэтому оставим просто, материнская плата)).

2. Количество сокетов для процессоров. Бывают платы с 1-2-4 сокетами (самое частое серверное решение, это 2 сокета). 3. Количество слотов под оперативную память, бывают решения на 8-16-24-32 слотов для модулей RAM. 4. Тип поддерживаемой оперативной памяти DDR4 или DDR5 (бывают динозавры с DDR3, но с ними в "нормальной" практите уже вряд ли столкнётесь).

Тут важно добавить, что серверная память всегда идёт с коррекцией ошибок (ECC). 5. Частота работы оперативной памяти, она измеряется в МГц. Для серверов "свежего поколения", данный параметр будет 2933 или 3200 МГц (для типа DD4) и от 4400 МГц (для типа DDR5). 6. Стандарт PCIe. Бывает 3.0, 4.0 и самый новый 5.0. От поколения этого параметра, зависит скорость данного порта.

Процессор: Можно выделить несколько главных особенностей, это количество ядер - потоков, базовая тактовая частота и в режиме TURBO Boost, кэш память L3, TDP.

Данные параметры определяет системный архитектор исходя из задач, которые будет решать сервер, а в проектирование вычислительных комплексов нам ещё рано, оставим это просто как параметры сервера.

Радиатор на процессор: Этот пункт комплектующих подбирается исходя из процессора, а точнее его параметра TDP. Чем мощнее процессор, тем выше у него TDP и тем производительней нам нужен радиатор. Они бывают пассивные, а бывают активные (с вентилятором).

При подборе, смотрим на TDP процессора, затем выбираем модель радиатора исходя из её характеристик.

Оперативная память: Ещё раз повторюсь, тип памяти (ddr4-ddr5), частота в МГц, ECC.

Порты на материнской плате: Мы подошли к завершающему пункту в этом блоке. Я напишу про порты, которые используются на современных материнских платах. Про всякие power-reset, даже не буду писать, остановимся на портах для подключения доп. оборудования.

OCP 3.0 - это порт PCIe x16, только другого форм-фактора и с возможностью горячей замены оборудования. Как правило, в него подключают OCP - сетевые адаптеры.

SFF8643 - это разъём для подключения SAS/SATA дисков, RAID-контроллера, бэкплейна. Данный разъём так же способен проводить 4 линии PCIe 3.0. С помощью специального провода, позволяет подключить 1 диск стандарта NVMe.

SFF8654-8i - это разъём для подключения SAS/SATA/NVMe дисков. Он обладает 8-ю линиями PCIe и 1 кабель может подключить 2 накопителя формата U.2, либо 8 SATA/SAS 12g

SFF8654-4i - это в половину урезанный порт, тут 4 линии PCIe. Можно подключить 1 диск U.2 или 4 SATA/SAS 12g.

MCIO x8 - это порт с высокой пропускной способностью, 8 линий PCIe 5.0 - 6.0. С помощью него уже можно подключать видеокарты, высокоскоростные диски NVMe или любое оборудование, где требуется шина PCIe.

MCIO x4 - это в половину урезанный порт, тут 4 линии PCIe 5.0 - 6.0. Он также позволяет подключить видеокарты, высокоскоростные диски NVMe или PCIe устройства.

OCuLink x8 - высокоскоростной порт который проводит 8 линий PCIe 4.0. Позволяет подключать U.2 и M.2 диски. Встречается очень редко.

OCuLink x4 - это высокоскоростной порт способный проводить 4 линии PCIe 4.0. Позволяет подключать U.2 и M.2 диски. Достаточно распространённый порт в серверах.

PCIe x16, x8, x4 - чаще всего на материнских платах есть 2 порта PCIe x32, из которых с помощью специальных райзеров (переходников) делают 1 порт x16 и 2 порта x8. В некоторых серверах, где материнская плата квадратного форм фактора, данные разъёмы имеют привычный вид. То есть, не требуется переходник.

Хоть и кратко, но я постарался описать и систематизировать информацию про такое сложное устройство как сервер.

P.S. В следующем посте я буду давать информацию про сетевые карты, raid и hba контроллеры, средства доверенной загрузки.

P.S.S. потом будут схд, коммутаторы, небольшой обзор рынка и много чего ещё, подписывайтесь, чтобы не пропустить.

Если кому-то пригодилась информация, то поставьте лайк и подпишитесь на паблик.

Показать полностью
[моё] Архитектор Сервер Цод Текст Длиннопост
1
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии