Прогноз CW: ЦОДы в 2020 году — автоматизация, удешевление хранения, трансформация задач ИТ-персонала

Постоянное развитие систем дата-центров ставит перед персоналом ИТ-служб все новые и новые задачи


12:35 24.01.2020   |   16362 |  Энди Патрицио |  Network World, США

Рубрика Индустрия



По мере дальнейшего роста центров обработки данных организации будут корректировать баланс между ИТ-ресурсами, размещенными локально и в облаке, внедряя интеллектуальные технологии управления и пытаясь более эффективно управлять размещением данных.

Еще не поздно поделиться прогнозами на наступивший год. Кое-что из того, о чем говорилось год назад, сбылось: популярность облаков и твердотельных накопителей заметно выросла. А вот массовая миграция некоторых организацию из облака обратно в собственную выделенную ИТ-инфраструктуру, равно как и триумфальное возвращение AMD ускользнули от взглядов многих предсказателей.

Итак, давайте заглянем в вечно затянутый облаками (простите за невольный каламбур) хрустальный шар и составим из того, что удастся там разглядеть, десять прогнозов для центров обработки данных на 2020 год.

1. Перемещение ЦОДов в городские центры под влиянием Интернета вещей

Предположить такое несложно, поскольку это происходит уже сейчас. На протяжении долгого времени ЦОДы размещались там, где вокруг не было ничего – вблизи возобновляемых источников энергии, но сегодня настоятельная потребность в них возникает в густонаселенных районах. Одной из движущих сил здесь является Интернет вещей.

2. Наступление специализированных сетевых ускорителей

Технологии больших данных и искусственного интеллекта подразумевают наличие огромных объемов данных, причем не все из них можно найти в одном месте. Кроме того, контроллерам сетевого трафика сегодня нужны ресурсы центральных процессоров, что отвлекает процессоры от их основных задач, связанных с обработкой данных.

В результате на рынке появляется все больше и больше специализированных сетевых ускорителей, подобных Mellanox ConnectX. Центральные процессоры освобождаются для обработки данных, а сетевые ускорители берут на себя функции быстрой передачи данных в место назначения.

3. Рост популярности NVMe over Fabrics

NVMe (non-volatile memory express) – это интерфейс для подключения к устройствам хранения данных, примерно такой же как SATA. Недостаток SATA заключается в том, что он разрабатывался для жестких дисков и не позволяет в полной мере использовать преимущества SSD в скорости и параллелизме. Первые корпоративные устройства SSD могли обмениваться данными только с компонентами того физического сервера, в котором они были установлены. Но серверы нуждались в массивах хранения, а это предполагало передачу данных по сети, что приводило к задержкам.

Появление технологии NVMe over Fabrics (NVMeoF) стало очень важным шагом вперед. Устройства SSD, находящиеся в одном сервере, получили возможность обмениваться данными с любыми другими накопителями, подключенными к сети. Такое прямое соединение будет иметь жизненно важное значение для улучшения передачи данных в корпоративных системах и осуществления цифровой трансформации.

4. Удешевление SCM

Память класса устройства хранения (storage-class memory, SCM) устанавливается в разъем DRAM и может играть роль как оперативной памяти, так и твердотельного накопителя. Она обладает почти такой же скоростью, как и DRAM, но при этом является энергонезависимой, что позволяет эффективно использовать ее в качестве буфера для устройств SSD.

Компании Intel и Micron совместными усилиями разрабатывали технологию SCM, но в конечном итоге их пути разошлись. В мае прошлого года Intel представила линейку SCM-продуктов под названием Optane, а Micron в октябре вышла на рынок с собственными устройствами QuantX. Южнокорейский гигант отрасли оперативной памяти, компания SK Hynix также работает над созданием продуктов SCM, которые отличаются от используемой Intel и Micron технологии 3D XPoint.

Все это звучит весьма многообещающе с точки зрения дальнейшего развития технологий и снижения цен. Сегодня устройство Optane емкостью 512 Гбайт предлагается за совершенно безумные 8 тыс. долл. Правда, процессоры Intel Xeon могут стоить еще больше, но сборка полнофункционального сервера при таких ценах обходится непомерно дорого. Совершенствование технологии и конкуренция должны привести к снижению цен, благодаря чему память такого класса станет более привлекательной для корпоративных заказчиков.

5. Средства автоматизации на базе искусственного интеллекта

Интеллектуальными средствами автоматизации управления оснащают свои системы все ведущие поставщики серверов, но особняком здесь стоит компания Oracle, предлагающая клиентам абсолютно все, начиная от оборудования и заканчивая операционной системой, приложениями и стеком связующего ПО. Компании HPE, Dell и Lenovo также продолжают совершенствовать свои решения. А вот поставщики гипермасштабируемых серверов, компании Inspur и Supermicro рискуют отстать, поскольку обладают только аппаратным стеком и почти ничего не сделали в области операционных систем. Направление систем хранения в отличие от большой тройки поставщиков серверов у них тоже хромает.

Oracle и не входит в ведущую пятерку поставщиков серверов, но ее достижения в сфере автоматизации нельзя игнорировать. Ожидается, что и у других поставщиков серверов уровень автоматизации также будет расти.

6. Замедление миграции в облако

Помните, как все намеревались полностью отказаться от собственных ЦОДов и перенести все в облако? Из этой затеи ничего не вышло. Последний опрос IDC CloudPulse показывает, что 85% организации в течение ближайшего года намерены перенести рабочую нагрузку из публичных облачных сервисов в частную среду. А в ходе опроса Nutanix 73% респондентов сообщили о переносе некоторых приложений из публичных облаков назад, на свою территорию. Главной причиной такого разворота называется безопасность.

Поскольку безопасность в публичных облаках вряд ли когда-нибудь устроит некоторые компании и окажется достаточной для некоторых категорий данных, безумный скачок в облако, вероятно, немного замедлится, а люди станут более разборчивыми при определении того, что они будут хранить в облаке, а что – за границей собственного межсетевого экрана.

7. Расширение ареала данных, часть 1

По оценкам IDC, большая часть данных сегодня размещается не там, где следует. Только 10% корпоративных данных относятся к категории «горячих» – используемых постоянно. Еще 30% причисляют к категории «теплых» – используемых время от времени, а оставшиеся 60% относятся к «холодным». Обращение к ним осуществляется очень редко, если это вообще происходит.

Но дело в том, что данные разбросаны в самых разных местах и зачастую находятся не на том уровне. Многие поставщики систем хранения предлагают функции исключения дублирования, а вот о смене уровней речи, как правило, не идет. Стартап Spectra Logic нацелился сегодня на решение указанной проблемы, и вряд ли в этот он будет одинок. Если же соответствующий функционал окажется востребованным, очевидно, HPE и Dell тоже не окажутся в стороне.

8. Расширение ареала данных, часть 2

По прогнозам IDC, к 2025 году суммарный объем накопленных в глобальном масштабе данных достигнет 175 зеттабайт, а между тем, у нас уже сейчас имеется 32 Збайт данных, большая часть из которых вообще не используется. Было время, когда данные в хранилище сортировались, обрабатывались, и все ненужное отбрасывалось. Сегодня озера данных постоянно подпитываются потоками, поступающими из самых разных источников, в том числе из социальных сетей и от устройств Интернета вещей.

Рано или поздно что-то придется исключать. Глядя на петабайты мусора, люди начинают более разборчиво относиться к тому, что имеет смысл хранить, а что нет. Тратить целое состояние на жесткие диски и массивы, где хранится огромное количество бесполезных и не имеющих никакой ценности данных, представляется весьма сомнительным. Рано или поздно маятник качнется обратно в сторону модели хранения данных, приносящих пользу. Это обязательно должно случиться, иначе люди окажутся просто погребены под горами мусора.

9. Больше серверов и процессоров разных

Десять лет назад и однопроцессорный сервер, стоящий под столом, и четырехпроцессорный сервер, смонтированный в двухметровом шкафу, в любом случае оснащались процессорами x86-архитектуры. Сегодня мы видим, как растет число серверов, имеющих интегрированные процессоры, процессоры ARM, ускорители искусственного интеллекта и сетевые ускорители.

Все это требует внесения изменений в серверную архитектуру. Для работы многочисленных процессоров, греющихся в замкнутом пространстве, нужны системы жидкостного охлаждения. Программный стек также необходимо перестраивать с учетом особенностей всех этих чипов, что требует определенной работы со стороны Microsoft и провайдеров разнообразных дистрибутивов Linux.

10. Трансформация задач ИТ-службы

Не стоит надеяться на то, что внедрение средств автоматизации позволит вам играть в компьютерные игры на своем «айфоне». Постоянное развитие систем приносит специалистам ИТ-служб все новую и новую головную боль. На них возлагаются следующие задачи:

  • борьба с теневыми ИТ;
  • обеспечение цифровой трансформации;
  • разработка стратегий искусственного интеллекта для успешного противостояния конкурентам;
  • реакция на отрицательные последствия, связанные с новыми стратегиями в области искусственного интеллекта;
  • управление безопасностью в рамках всей компании;
  • управление растущими объемами данных и принятие решений о том, что с этими данными делать;
  • ускорение реакции на запросы клиентов и публикации в социальных сетях, оказывающие влияние на репутацию компании.

Теги: ИТ-инфраструктура Облачные сервисы ЦОД SSD Интернет вещей NVMe
На ту же тему: