8. Splunk: уход CEO; 1 млрд долл. от Silver Lake

Президент и главный управляющий Splunk Даг Мерритт, занимавший этот пост шесть лет, неожиданно покинул компанию 15 ноября — спустя пять месяцев после того, как Silver Lake инвестировала в нее 1 млрд долл.

На этой новости акции Splunk разом упали на 31,83 долл. (-18,97%) до 136,08 долл. — самой низкой отметки с 19 июля. К концу года (20 декабря) акции торговались по 109,61 долл. — вблизи 52-недельного минимума в 105,45 долл.

«Обдумывая вместе с Советом директоров, как лучше всего позиционировать Splunk для долгосрочного успеха и дальнейшего роста, мы решили, что сейчас подходящий момент для перехода к следующему этапу руководства компанией, — прокомментировал Мерритт в заявлении. — Так что Совет директоров занят поиском руководителя с проверенным опытом расширения операций и развития многомиллиардного бизнеса».

Обязанности CEO будет пока исполнять нынешний председатель правления Splunk и давний финансовый директор Salesforce Грэм Смит (Graham Smith), а Кеннет Хао (Kenneth Hao), председатель правления и управляющий партнер Silver Lake, стал членом Совета директоров Splunk.

«Становится всё очевиднее, что для модернизации необходима облачная трансформация, и Splunk идеально позиционирована, чтобы помочь организациям повсюду в мире справиться со сложностями такого перехода, — заявил Хао, объявляя об инвестиции. — Мы уверены в открывающихся впереди возможностях и хотим работать вместе с CEO Дагом Мерриттом и его командой, чтобы поддержать следующий этап роста Splunk».

Тем временем Splunk продолжает переход от продаж локального ПО с традиционной моделью лицензирования к облачному ПО, предлагаемому по подписке, что стало значительной трансформацией бизнеса для компании и ее партнеров.

В октябре Splunk существенно обновила свою партнерскую программу, переименовав ее в «Splunk Partnerverse» и расширив ресурсы поддержки и сертификацию, чтобы помочь партнерам подтвердить своё знание облачных технологий.

«Многие из партнеров Splunk — а всего их 2200 — трансформируют свой бизнес, переходя к модели поставщиков услуг и наращивая навыки в облаке, чтобы удовлетворить потребности клиентов в миграции в облако и гибридных облачных возможностях», — отметила Брук Каннингем (Brooke Cunningham), вице-президент Splunk по глобальному маркетингу и взаимодействию с партнерами, в интервью CRN.

7. AWS: череда отказов в облаке в декабре

Amazon Web Services — лидер рынка облачных услуг с оборотом 64,4 млрд долл. — завершила год с серьезными отказами, приведшими к недоступности множества ее сервисов, таких как Alexa, Ring и Prime Video.

Отказ 7 декабря начался примерно в 7:35 утра PT и продлился более восьми часов; были затронуты несколько сервисов Amazon и ряд бизнес-услуг, сообщила фирма ThousandEyes — бизнес в составе Cisco, отслеживающий отказы в реальном времени. Проблемы затронули регион Северной Виргинии (US-EAST-1).

«Инцидент затронул всё от бытовой техники до различных бизнес-услуг», — сообщил в блоге старший технический менеджер по маркетингу ThousandEyes Крис Виллемез (Chris Villemez).

Среди компаний, пострадавших от отказа 7 декабря — Ticketmaster, заявивший о задержке продаж билетов на предстоящие концерты поп-звезды Адель, приложение McDonald’s, Департамент парковок Бостона, который не мог взимать плату через свое приложение ParkBoston, веб-сайт Delta Airlines и стриминговые сервисы Disney+ и Roku.

«Один этот внутренний отказ, случившийся 7 декабря, не позволил потребителям включить через голосовой помощник свет в своем умном доме и даже сделал невозможным бронирование авиабилетов и многие другие, казалось бы, обыденные вещи, — пишет Виллемез. — Всё это говорит о необходимости независимого мониторинга и контроля».

Сама AWS сообщила, что проблемы с сетью 7 декабря затронули многие сервисы, в том числе Elastic Compute Cloud, AWS Management Console, DynamoDB и Amazon Connect.

В анализе причин отказа AWS указывает, что проблемы с сетью начались с «автоматической операции» масштабирования одного из ее сервисов, размещенного в основной сети AWS, что вызвало «неожиданное поведение большого количества клиентов во внутренней сети». Это привело к «большому росту количества подключений, создав перегрузку на сетевых устройствах между внутренней и основной сетью AWS, что вызвало задержку связи между этими сетями».

Директор по технологии и соучредитель Oracle Ларри Эллисон не упустил случая нанести удар по конкуренту, указав на «фундаментальные различия» между Oracle Cloud и AWS.

«Они строят малое количество очень-очень больших дата-центров, — сказал Эллисон на квартальной пресс-конференции 9 декабря. — Наша стратегия — строить большое число малых, менее дорогих ЦОДов. Мы считаем, это значительно повышает надежность. У нас не будет такого, чтобы гигантский дата-центр отказал. Это уменьшает радиус поражения при потенциальном отказе. Меньше отказавших ресурсов».

Эллисон добавил, что один клиент — крупная телекоммуникационная компания, использующая облака Oracle, Google, Amazon и Microsoft — похвально отозвался об отказоустойчивости Oracle Cloud. «Они пишут: „Одно отличие, которое мы увидели в облаке Oracle, это что оно никогда, никогда не отказывает — чего не скажешь о всех других облаках“, — процитировал Эллисон. — Мы считаем, что это очень важное отличие — доступность».

10 декабря еще один «крупный инцидент с AWS вызвал значительный сбой в работе нескольких сервисов», пишет ThousandEyes, назвав его «отголоском отказа». Он начался в 13:05 UTC и длился более часа примерно до 14:30.

Пять дней спустя у AWS произошел еще один сбой, который длился примерно 45 минут. Он затронул AWS и другие сервисы Amazon, такие как Twitch, Amazon.com и Ring. Пользователи сообщили также о проблемах с сервисами Intuit Quickbooks, Okta и Cisco Duo Security и Doordash.

«С 7:14 до 7:59 утра PST клиенты столкнулись с возросшей потерей сетевых пакетов, что затруднило взаимодействие с рядом сайтов в Интернете», — признала AWS в твите о статусе сервиса.

ThousandEyes сообщила, что инцидент 15 декабря произошел в основной сети AWS, при этом прекратился «трафик от источников внутри и вне AWS».

«Во время первого инцидента (7 декабря) произошла перегрузка устройств AWS, выполняющих критически важные функции переадресации трафика и трансляции сетевых адресов (NAT), — указывает ThousandEyes. — В сегодняшнем инциденте (15 декабря) большое возрастание потерь трафика также указывает на то, что некоторые функции сети на пути передачи данных, такие как маршрутизация или NAT, не могли работать с нормальной пропускной способностью (по неизвестной пока причине), не обеспечивая полной доступности приложений и сервисов».

22 декабря AWS столкнулась с еще одним отказом, который произошел из-за «отключения питания в одном ЦОДе в одной зоне доступности (USE-AZ4) в регионе US-EAST-1. AWS восстановит питание для всех инстансов и сетевых устройств к 6:13 утра», — сообщалось в панели статуса, но пять часов спустя компания всё еще работала над восстановлением оставшихся инстансов и томов.

«Мы полагаем, это связано с тем, каким образом дата-центр остался без питания, что привело к отказам обслуживающего оборудования, над восстановлением которого мы работаем, — сообщила AWS. — Восстановившиеся инстансы EC2 и тома EBS продолжают нормально работать в пострадавшем ЦОДе, а мы работаем над заменой компонентов оборудования для восстановления оставшихся инстансов EC2 и томов EBS. По отказам обслуживающего оборудования работают несколько наших инженеров, и мы планируем восстановление в течение следующих нескольких часов».

По материалам crn.com.

© 2022. The Channel Company LLC. Initially published on CRN.com, a The Channel Company website, at https://www.crn.com. Reprinted with permission.


Источник: Стивен Берк, CRN/США

Версия для печати (без изображений)   Все новости