9 октября 2018 г.

Александр Малинин

В последнее время технологии обработки данных в реальном времени становятся все более востребованными. Компаниям необходимо быстро получать и анализировать информацию, чтобы принимать решения. Из-за больших объемов передаваемых данных сеть не выдерживает высочайшей нагрузки и не справляется с их обработкой в реальном времени.

А что, если перенести вычислительные мощности и хранилища на периферию, сохранив при этом основные преимущества облачных технологий — простоту и экономичность? Растущая популярность этой концепции, известной как «периферийные вычисления», обусловлена увеличением объемов данных и необходимостью быстро их обрабатывать. Консалтинговая компания Gartner включила развитие периферийных вычислений в десятку главных технологических тенденций 2018 года, и вполне обоснованно: необходимость снижения задержки и развития технологий обработки данных сегодня становится все более очевидна.

Периферийные (или «туманные») вычисления могут стать технологией, дополняющей традиционные облачные сервисы. По прогнозам Markets Insider, к 2022 году объем рынка периферийных вычислений достигнет 6,72 млрд долл. США, однако для ИТ-директоров по-прежнему остается открытым вопрос о том, в какой момент нужно инвестировать средства в новые решения и интегрировать их в существующую структуру ЦОДа, общедоступных и частных облачных платформ.

Сегодня из-за растущих объемов данных сети работают практически на пределе своих возможностей. Крупные компании несут тяжелое бремя управления 97% информации в глобальном информационном пространстве, а к 2025 г. доля данных, создаваемых такими организациями, достигнет 60% от общего объема (по данным исследования «Эпоха данных 2025», проведенного при поддержке Seagate).

Взаимодополняющие модели

Гибкость, масштабируемость и доступность облачных вычислений давно стали отраслевым стандартом. Лучше всего эта технология работает в централизованной вычислительной среде, позволяя пользоваться масштабируемостью архитектуры. В условиях же, когда объемы обрабатываемых данных увеличиваются в десятки раз, когда миллиарды устройств в реальном времени становятся источниками передаваемой информации, одних облачных вычислений недостаточно.

Облако позволяет крупным компаниям собирать данные в одном виртуальном хранилище, доступном из любой точки земного шара. Однако по мере роста потребностей в объеме и скорости передачи информации сеть перестает справляться с высокой нагрузкой, и обрабатывать большие массивы данных становится все сложнее.

Облачная модель останется основой сетевой инфраструктуры предприятий. Согласно отчету McAfee 2017 года, сегодня облачными сервисами пользуются 93% компаний, а к концу этого года расходы на облачные технологии составят 80% их общего ИТ-бюджета. Но растущая потребность в обработке больших объемов данных в реальном времени диктует необходимость использования облака в сочетании с периферийными вычислениями.

Расширение облака на периферию

При использовании периферийной модели хранение и анализ данных выполняются гораздо «ближе» к их источнику и дальше от традиционных дата-центров. Обработка и хранение данных могут выполняться на заводе-производителе, на складе компании или внутри беспилотного автомобиля.

В результате, нагрузка на облако снижается, высвобождая мощности под более «тяжелые» задачи, например, комбинирование и анализ данных, поступающих от многочисленных периферийных устройств.

Все эти механизмы полагаются на интеллектуальные технологии хранения данных и управления ими на периферии с изначально заложенными средствами обеспечения безопасности.

Удовлетворят ли периферийные вычисления потребности компаний?

Для ИТ-директоров реализация технологии периферийных вычислений будет зависеть от конкретных потребностей компании. В некоторых случаях может даже возникнуть конфликт интересов между бизнесом, который захочет сразу воспользоваться всеми преимуществами нового подхода, и ИТ-специалистами, которые, скорее всего, будут относиться к нововведениям более сдержанно.

На деле же особенности реализации периферийных вычислений будут определяться количеством устройств с выходом в Интернет (то есть являющихся частью Интернета вещей). Периферийный подход может иметь огромное значение для компаний, которые стремятся внедрить «умную» логистику или оптимизировать обработку данных, поступающих от подключенных устройств в реальном времени — и это лишь два примера. Эти сферы применения требуют настолько высокого быстродействия сети, что традиционное «облако» уже не способно достаточно быстро обрабатывать такую нагрузку.

Как правило, передача данных от точки их создания до поставщика облачных вычислений и обратно занимает 150–200 миллисекунд. Наличие периферийных серверов или шлюзов поблизости от конечных устройств позволило бы сократить это время до 2–5 миллисекунд. Например, если на производственном предприятии внедрена система распознавания изображений, автоматически проверяющая качество комплектующих или материалов, сокращение задержки может значительно увеличить производительность.

Эффективные инвестиции в периферийные вычисления могут позволить компаниям воспользоваться всеми преимуществами обработки данных в реальном времени, повысить эффективность и в конечном итоге добиться лучших финансовых показателей. Периферийные вычисления следует рассматривать как дополнение к уже реализованным на предприятии облачным сервисам. Эту технологию можно реализовать поэтапно по мере роста требований к скорости обработки информации. А высвобожденные облачные ресурсы можно будет перенаправить на более важные для бизнеса задачи.

Источник: Александр Малинин, старший менеджер по работе с корпоративным сегментом в компании Seagate Technology