IT для среднего и малого бизнеса

Плановая замена техники или использование компьютеров "до упора"? Плюсы и минусы разных подходов.

Работа с компьютером до упора, плановые замены техники… или?

Житейская логика подсказывает житейский подход: купили устройство, эксплуатируем, пока оно не выйдет из строя, покупаем новое. Практически любой бизнес в начале (либо до первых крупных сбоев, либо до момента, когда

Учитывать все затраты

Многим кажется, что использовать один ПК "до упора" дешевле, чем создавать запасы, платить за обслуживание или проводить плановую замену. Это мнение возникают потому, что считают только прямые затраты на ПК и не учитывают убытки, которые возникают от его простоя.

Основные издержки практически любого предприятия – это заработная плата. Если это не так – то на предприятии либо все очень хорошо (большой объем основных фондов, высокая степень автоматизации, не требующая персонала, например), либо все очень плохо (совместное использование дорогого оборудования и дешевого персонала до добра не доводит). А раз самое дорогое – это сотрудник, то и использовать его нужно по максимуму. Если у менеджера сломался компьютер, и ремонт занял пару дней, то эти пару дней сотрудник «вынужденно отдыхает», а зарплата идет. Если зарплата сдельная, то потери меньше, но согласитесь – это уже попахивает подлостью: нанять сотрудника с расчетом по выработке, сэкономить на рабочем инструменте для него, а потом еще и переложить убытки на него же. Собственно, трудовое законодательство боролось именно с такими случаями, и то, что сейчас от него отказываются – путь не вперед, а назад.

Впрочем, простой сотрудника может быть лишь меньшим из понесенных убытков. Например, на менеджера завязана либо работа с контрагентами, либо управление сотрудниками. Клиент не смог решить проблему, взбесился и ушел к другому. Грузовик не встал на погрузку. Другие работники не получили задание. И так далее. Все это – потери денег.

Еще хуже – отказ сервера. Выход из строя любого сервера – катастрофа с точки зрения убытков. Плюс, она может потянуть за собой все последствия, которые мы описали выше. Простой сотрудников, сбои бизнес-процессов, потери данных – и много других «веселых» последствий, каждое из которых имеет свое выражение в деньгах.

Управление рисками

В общем, сбой компьютера или другой части ИТ-инфраструктуры предприятия способен здорово выбить это предприятие из колеи – зачастую с просто катастрофическими последствиями. При этом отказ оборудования – штука практически непрогнозируемая. Новая, гарантийная и дорогая (в том числе за счет повышенной надежности) система может отказать через пару месяцев, а обычный компьютер на бытовых комплектующих будет работать долгие годы. Хотя в общем и целом некоторая зависимость процента отказов от длительности и условий работы имеется, но она не линейная, а выглядит примерно так: «За первые два-три месяца выходит из строя то, где был брак, дальше долго работает – три, пять, семь лет, - дальше начинаются отказы, обусловленные возрастом, в первую очередь – тех частей, где есть механика».  

Полностью избавиться от риска отказа компьютерных систем невозможно, этот риск можно только несколько уменьшить. Но сами действия по уменьшению рисков обходятся в кругленькие суммы. Поэтому предприятия, работающие в условиях дефицита средств, часто решают – а, рискнем. Дунем, плюнем, а если что-то отвалится – придумаем временный аварийный вариант. Потому что денег все равно нет.

Впрочем, еще недавно так же подходили к вопросу надежности и относительно крупные и успешные компании. Но бизнес может работать «на авось» и не заботиться об эффективности до тех пор, пока может перекладывать возникающие из-за этого убытки на кого-то еще – на работников или на клиентов/контрагентов. Как только эта схема перестает работать (появляется конкуренция или начинает падать прибыльность по другим причинам), то сразу начинается "оптимизация издержек" - т.е. начинают сокращать непроизводительные траты и рассчитывать риски. Что до ИТ-инфраструктуры, то думают по двум направлениям – как минимизировать риск сбоя и какие меры принять заранее, чтобы уменьшить его  оследствия, если он все же случится.

Путь самурая.

В техническом плане процесс проходит в несколько этапов:

  • переход с потребительских решений на более дорогие и надежные профессиональные,
  • применение резервирования данных, компонентов и устройств,
  • перепостроение архитектуры предприятия под новые принципы,
  • и т.д.

А потом сталкиваются с проблемами сетевой безопасности – и все начинается сначала. Если инфраструктура строится с нуля, то можно начать с какого-то более продвинутого уровня, но развитие постоянно продолжается (потому что рынок и деньги), и в этом плане процесс управления рисками похож на ремонт: его невозможно завершить, можно только приостановить.

Вообще, западный менталитет отличается стремлением пытаться максимально убрать из жизни риски и вероятности, сделать мир и поведение в нем строго регламентированным. Из леса – парк, из джунглей – зоопарк с заборами и дорожками… Кстати, ровно про эту идею книжка «Парк Юрского периода»: там математик все время доказывал, что живую жизнь невозможно упорядочить до состояния зоопарка, и что она найдет лазейку и вырвется на свободу. Умные вещи говорил! Только его потом все равно съели, потому что люди, принимающие решения, ему не верили и считали, что предусмотрели все.

Эта книга хорошо передает и еще один момент, который обязательно нужно учитывать при построении инфраструктуры: внутри регламентированной системы всегда найдется место частной инициативе «не по правилам» и банальному разгильдяйству, которое сведет на нет эффективность любых правил и защитных мер. Пользователи установят что-нибудь из интернета, откроют письмо с вирусом, роутер зальют водой и т.д.

Наконец, эта выдуманная история лишний раз показывает, что даже если эксперт все понимает и видит последствия, проблемы все равно будут, потому что не он работает в системе и не он принимает решения. Любому ИТ-специалисту и консультанту до боли знакома ситуация, когда заказчик «все знает лучше». Правда, и эксперт может ошибиться. В конце концов, бывает сложно отличить правильного эксперта от проходимца, успешно эксплуатирующего тренды развития рынка.

Первый шаг: профессиональные компоненты и решения

Если вернуться к компьютерам, то борьба с «рисками выхода из строя» начинается с перехода от потребительской (домашней) техники к профессиональной. Стоит такая техника дороже (иногда – очень сильно дороже) потребительской, но зато одно из главных декларируемых отличий – как раз повышение надежности и снижение риска выхода из строя.

Считается, что профессиональные решения тщательнее проектируются, используются другие, более качественные материалы и компоненты, тратится больше времени на тестирование и доводку. Все это требует больших денег, и дополнительные затраты ложатся в цену устройства. Есть и субъективная теория: мол, профессиональные решения используются для зарабатывания денег, поэтому высокая цена оправдана, если они дают некую уникальную функциональность. Это ярко проявляется, например, для ПО: потребительские решения (где люди не готовы платить большие деньги) делаются дешевыми или и вовсе бесплатными, но все функции, которые не очень нужны дома, но могут пригодиться в работе – выносятся в отдельный продукт или версию и стоят гораздо дороже, хотя продукт по большей части один и тот же.

Второе – эргономика, т.е. удобство работы. Считается, что для домашних пользователей она не так важна, в отличие от профессионалов: если сотруднику работать удобнее, он сделает больше, больше заработает для компании. Как говорится, время – деньги. И сокращение затрат времени благодаря хорошему инструменту приносит дополнительные деньги компании, которыми она может поделиться с производителем инструмента. По крайней мере, такова логика производителей.

Еще профессиональные компоненты имеют более длительную гарантию. А что такое гарантия? Это перенос рисков ремонта с покупателя на производителя. Длительная гарантия с особыми условиями для профессиональных клиентов (например, замена неисправного сервера на исправный в течение нескольких часов) заметно снижает риски и издержки для клиента, а главное – снимает с него головную боль «что делать в случае отказа», позволяя сэкономить и на принятии решения, и на персонале.    

Но убрать вероятности нельзя: корпоративная техника ломается реже, но все равно ломается. Это кстати относится не только к ПК, но к серверам, где ярче всего проявляется в системах хранения данных. Потому что данные для компании – это все.

Второй этап - резервирование

Таким образом, следующий этап, который проходят все – это резервирование. И для примера возьмем самое ценное – данные. Резервирование всего остального строится по схожим принципам. А принципы резервирования данных рассмотрим на примере построения систем RAID.

Любые решения принимаются исходя из триады: стоимость, скорость, надежность. Это тоже общее правило. Любое улучшение должно повышать либо скорость, либо надежность – или понижать стоимость (с учетом издержек на внедрение). То же и с данными: некоторые вполне можно хранить в одном экземпляре и не волноваться, а некоторые – дублировать в нескольких местах и еще раз – на всякий случай. И скорость, скорость…

Рассмотрим это на примере ПК. Начинаем мы с типичной конфигурации, когда у нас есть один жесткий диск с системой, приложениями и личными данными. Один физический или даже логический сбой… и нам поможет только чудо или специализированные организации, которые берут за работу много денег. В общем, тут как самураю – проще смириться с потерей данных заранее.

Но суть управления рисками в том, что проще и дешевле подстраховаться заранее, не так ли? И вот мы покупаем второй диск, т.е. подсистема хранения у нас становится вдвое дороже, в деньгах мы получили заметный проигрыш. А где выигрыш? Мы можем создать RAID 0, где данные будут чередоваться на двух дисках. Тогда все будет работать вдвое быстрее, но при потере хотя бы одного диска из двух все данные пропадут. Можно сделать RAID1, тогда все данные будут дублироваться на два диска. Прироста скорости это не принесет (точнее, принесет на чтении), зато даст прирост надежности. Если один диск сломается, то данные останутся целыми, и достаточно будет заменить его на новый – на него скопируются данные с оставшегося. Наконец, есть RAID  10: два диска в RAID 0 (т.е. скорость), и каждый при этом еще и копируется на еще один диск. Работает очень быстро, надежность высокая, но стоит в четыре раза дороже. Остальные комбинации RAID – это разные варианты компромисса между скоростью, надежностью и стоимостью. Т.е. каждый может комбинировать эти показатели исходя из своих приоритетов.

Все остальное работает примерно так же: при построении системы нужно выбрать баланс между надежностью, производительностью и стоимостью. Только… только на самом деле все сложнее. И мы переходим к необходимости правильно строить инфраструктуру предприятия в целом.

Надежность - это не надежность конкретного ПК, тем более, что абсолютно надежным его сделать невозможно. Надежность - это надежность всей инфраструктуры в целом, куда входит не только физическая надежность устройств и ПО, но и правильное реагирование на выход компонента инфраструктуры из строя для уменьшения его последствий.

Производительность - это не производительность конкретного ПК, а в широком смысле - и не производительность всей ИТ-инфраструктуры. Важнее всего производительность сотрудников. Вся ИТ-инфраструктура, все ПК и серверы нужны для обслуживания сотрудников, повышения эффективности их работы. Поэтому не надо покупать компьютер сотруднику по принципу «есть бюджет такой-то», нужно считать так: в рамках более дешевой инфраструктуры он сможет сделать Х, в рамках более дорогой – У. Если разница Х и У… хотя кого я обманываю? Все равно все будут покупать исходя из бюджета, после чего приходит осознание, что работа на купленном «в рамках бюджета» не клеится, бюджет поднимают, а старое куда-нибудь списывают…

Наконец, стоимость – это не стоимость покупки системы. Есть такое понятие как TCO (total cost of ownership), в которое включаются все затраты на систему, включая покупку, обслуживание и иногда даже утилизацию. Здесь тоже есть проблемы: до сих пор многие при покупке принтера и МФУ забывают проверить, сколько стоят к нему картриджи и какой они при этом емкости. И это самый простой пример, таких вещей очень много, но суть одна: хотя при покупке что-то обошлось дешевле, но по результату эксплуатации может выйти дороже.

И самое ужасное: проделав все это, вы все равно имеете некую вероятность сбоя, устранение которого потребует времени и денег, а главное – все равно нужен специалист «на подхвате». Чаще всего именно на этот случай держат отдельного ИТ-инженера, который при сбое займется его ликвидацией. А пока сбоя нет, он может перезаправить картридж, переустановить систему на ноутбуке шефа или полить фикус… Извините, опять прорвалась грустная реальность.

Лучшний способ застраховаться от сбоя компьютера - избавиться от компьютера!

Если долго думать о том, как полностью застраховаться от сбоев компьютера, то получается, что все риски можно окончательно убрать, убрав сам компьютер. Ну ведь реально – если есть у вас нету тещи… пардон, если у вас нет компьютера, то он и не сломается. Да-да, многие уже догадались, о чем идет речь – о тонких клиентах и соответствующей инфраструктуре.

Представьте, как удобно – вместо компьютера у вас на столе стоит коробка, которая стоит копейки и просто транслирует вам изображение десктопа из сети. Если она сломается, ее можно мгновенно заменить и поставить новую. Или пересесть за соседний стол, ввести свой логин – и продолжить работу. Потому что данные и приложения хранятся на удаленном сервере.

Правда, удаленный сервер может удаленно сломаться. Поэтому с серверами мы проходим тот же путь, что и с ПК: перевод на профессиональные решения, резервирование, защита от сбоев… И тот же результат: это ведь нужно иметь лишний сервер (или его детали) на случай сбоя, это дорого (см. часть про RAID). И все равно будут потери во времени, деньгах, и нужно держать запасные компоненты и персонал, которые будут эти сбои ликвидировать. В результате мы приходим к тому же выводу: чтобы полностью исключить возможность отказа сервера, нам нужно избавиться от сервера.

Да, именно так выглядит обоснование для перехода на облачную инфраструктуру. Предприятие вообще избавляется от необходимости иметь и обслуживать сервера, включая и запасные. Плюс, получает возможность наращивать или уменьшать вычислительную мощность в зависимости от потребностей, а не держать часть мощностей "про запас". При этом издержки у облачного провайдера получаются меньше – он ведь может просчитать вероятности и хранить не по одному запасному серверу на каждый работающий, а, например, три на сто. Вот и экономия. И сотрудников у него будет одна бригада на объем серверов, достаточный для обслуживания ста организаций, а не так что по одной бригаде на предприятие (да, автор помнит про аутсорс, но там есть много своих веселых особенностей).

К сожалению, ничего идеального в нашем мире нет – и у работы с облаками полно своих рисков. Как вам, например, вариант потерять 2000 виртуальных серверов из-за технического сбоя у хостера? Причем даже не аппаратного! Или пережить угон аккаунта с последующим… ну, вы поняли. Или вот недавно один облачный хостер, где любили размещаться ИТ-стартапы, сбойнул так (пропало все, что нажито непосильным трудом, включая бэкапы), что ему проще оказалось выйти из бизнеса. И еще много-много-много разных вариантов, не говоря уже о том, что требуется хороший доступ к сети. А надежность облачных серверов стоит дополнительных, вполне реальных денег.

В общем, даже избавившись от аппаратных рисков, предприятие получает кучу других – просто на новом уровне.

Да и пусть ломается!

Итак, полностью избавиться от рисков невозможно. Можно только придумать такие решения инфраструктуры, которые будут минимально от них страдать. Например, через многократное резервирование. Хороший вариант, если решить вопрос с затратами.

Например, один хостер в Германии собирает дата-центры на относительно старых и дешевых компонентах – чуть ли не пользовательского уровня. Еще один, уже американский – использует в системах хранения данных самые дешевые жесткие диски, упирая не на надежность, а на резервирование. Для них так получается выгоднее: за счет более дешевого оборудования они могут поставить цены пониже и привлечь тех клиентов, которых дата-центры на профессиональных платформах отпугивают ценой. Сбои будут чаще, но ликвидируются они быстро (т.к. в этом суть бизнес-модели), а незначительные потери… ну что ж, так и цена низкая.

Примерно та же логика работает и для инфраструктуры в офисе. Например, можно выбрать неттопы, о которых мы уже много говорили на страницах проекта smb.ixbt.com, настроить резервирование системы, приложений и данных (можно отдельно) для каждого сотрудника и закупить несколько таких же машин и компонентов про запас. Если компьютер выйдет из строя, то легко можно либо переставить диск, либо развернуть бэкап. Если восстановление будет полностью автоматическим или выполняться удаленно, то можно отказаться от постоянного присутствия инженера в офисе и прилично сэкономить. Если же вышло из строя что-то еще, типа монитора или мыши, то все совсем просто – взял другую и все. Такую схему я видел в работе (только забыл уточнить, автоматическое развертывание там или нет).

С ПК такая схема тоже может работать (особенно с брендовыми, где конфигурации фиксированы), но с ПК велик соблазн держать не компьютер, а компоненты (т.к. ПК модульный) и заменять отдельно вышедшую из строя деталь. А это уже требует квалифицированного инженера, который распознает поломку и заменит нужную деталь, да и сама возня разборкой/поиском неисправности/сборкой и пр. займет больше времени. Замена «одним куском» имеет то преимущество, что осуществляется практически мгновенно, и сотрудник может вернуться к работе за минимальное время. Издержки на оборудование получатся выше (иногда – намного), издержки на квалифицированный персонал – ниже. А что по итогу – нужно считать для каждого отдельного случая.

Нужны ли нам облака

Таким образом, последовательно пытаясь устранить вероятность сбоев в аппаратной инфраструктуре, рано или поздно доходишь до мысли отказаться от нее вообще. Здесь на помощь вроде бы приходят облака, чьи провайдеры готовы взять все аппаратные проблемы на себя, да еще и предлагают перейти с модели «заплати кучу денег за оборудование сейчас и потом пользуйся» на «плати только за те ресурсы, которые нужны и только тогда, когда они нужны». Но в реальности все, разумеется, не так радужно – даже если предположить, что аппаратных сбоев не будет (а это не так – инфраструктура иногда «ложится» даже у крупнейших облачных провайдеров), то остаются программные, к которым еще добавляются проблемы с сетью и доступом. Простейший пример: эту статью я писал в условиях слабого и неустойчивого доступа (так повернул ноутбук – работает, а так – нет) и сетевых ошибок, включая потерю только что написанного, нахлебался сполна. Не все так просто и с расценками: арендная схема облачных услуг действительно более гибкая и позволять сэкономить на менеджменте рисков, но зачастую обходится дороже в долгосрочном плане.

Выбор между локальной и облачной инфраструктурой проще представлять себе как шкалу с большим количеством промежуточных значений, каждое из которых предлагает свой баланс возможностей, надежности, распределения обязанностей по обслуживанию и цены.

Итоги: так стоит доводить до предела?

Все-таки стоит вернуться к тому, с чего мы начали эту статью - как организовывать эксплуатацию техники, чтобы уменьшить вероятность отказов и их последствия. Конкретные рекомендации давать сложно, потому что все слишком зависит от финансового состояния конкретного предприятия и схем его работы.

Понятно, что не стоит надеяться «на авось» и гонять технику «до упора», пока она не откажет окончательно, а хорошо бы заранее подготовиться, разработав схему действий на случай сбоя в ИТ-инфраструктуре компании или отказа какого-либо из ее компонентов. Но какую именно? Действовать методом тыка - не всегда лучший вариант, а для грамотного обоснованного решения не всегда хватает квалификации даже у хороших инженеров. Поэтому, в теории, лучше положиться на профессионалов - консультантов по внедрению, интеграторов и аналогичные компании. Тем более, что они предлагают много различных вариантов.

Только стоит помнить о субъективных факторах: у кого-то есть сервера на складах, поэтому он будет рекомендовать локальную инфраструктуру, у кого-то новое облако с подключенными сервисами, и он будет называть оптимальным именно этот вариант. Практически будут делать упор на те решения (и баланс возможностей), с которыми они лучше знакомы, оставляя в тени другие возможности. Наконец, у принимающих решения руководителей тоже могут быть свои предпочтения: люди старой школы скорее предпочтут держать все у себя, а молодежь будет склоняться к облачным сервисам, так как более привычна к концепции сервисов вообще.

И в принципе, все предложенные схемы будут рабочими. А вот какая из них оптимальная, да и есть ли оптимальная схема или есть несколько хороших вариантов - это уже другой вопрос.