В последние несколько дней мы много слышим о проектах строительства «центров обработки данных мощностью 1 ГВт» для ИИ во Франции
Чтобы понять потребность, вы должны помнить эти три цифры:
Потребуется 50Me для инвестирования в 1000 графических процессоров, которые будут работать в центре обработки данных, потребляющем 1 МВт электроэнергии.
Эти три числа работают вместе на нескольких уровнях шкалы:
80% этих сумм используются для покупки графических процессоров, 20% — для создания центра обработки данных.
Для какой нужды? Графические процессоры используются в двух целях:
Поколения графических процессоров, представленные в настоящее время на рынке, позволяют проводить обучение примерно на 100 тыс. графических процессоров, работающих одновременно. Ограничивающим фактором является расстояние между двумя физически удаленными графическими процессорами: начиная с определенного количества графических процессоров, соединенных вместе, расстояние замедляет работу набора графических процессоров.
Вот почему для нужд обучения на рынок выходит новое поколение графических процессоров: суперчипы. Вместо десятков независимых графических процессоров, которые вы подключаете друг к другу последовательно, каждый суперчип объединяет десятки графических процессоров на одной карте. Отличная работа! Вы сократили расстояние между графическими процессорами и теперь можете подключить в 10 раз больше графических процессоров вместе, не снижая производительности. С другой стороны, у вас есть новые задачи, которые нужно решить: как распределить энергию и охладить инфраструктуру, которая в 10 раз плотнее, как приобрести источник энергии мощностью 1 ГВт и как обеспечить его избыточность.
Для размещения вычислительной мощности в центре обработки данных мы используем отсеки, также известные как стойки, которые представляют собой своего рода шкафы шириной 0,6 м, глубиной 1 м и высотой 2,5 м. На каждый отсек подается около 20 кВт электроэнергии. Для его охлаждения используется свежий воздух, прогоняемый через залив.
Если мы хотим использовать в отсеке более 20 кВт, воздуха будет недостаточно для его охлаждения. Вам необходимо перейти на водяное охлаждение. Вот тут мы начинаем говорить о новом поколении центров обработки данных, и в некоторых случаях речь идет о мощности 1 ГВт. Действительно, для размещения суперчипов мы сейчас говорим о стойках мощностью 120 кВт или даже предполагаем 240 кВт на стойку и систему водяного охлаждения для улавливания и отвода всего этого тепла. Это совершенно новое решение с точки зрения мощности на отсек, а также с точки зрения масштабируемой системы водяного охлаждения. Вот почему такого типа ЦОД не существует и поэтому его необходимо построить.
Для использования выводов нет необходимости в столь сложных центрах обработки данных. И суперчип тоже не нужен. Для модели LLM требуется система графических процессоров, потребляющая от 100 Вт до 10 кВт, редко 20 кВт, что эквивалентно от 1 до 16 графических процессоров. Поскольку каждая система независима, вы можете подключить столько систем параллельно, сколько захотите, что позволит вам обрабатывать большой веб-трафик или мобильный трафик. Еще лучше иметь несколько центров обработки данных вывода, работающих параллельно, и почему бы не создать по одному на страну? Это обеспечивает высокую доступность и низкие задержки за счет использования ближайшего к посетителю центра обработки данных.
И причем здесь OVHcloud? У нас более 40 центров обработки данных в нескольких странах Европы, Канады, Северной Америки и Азии. Мы являемся экспертами в области водяного охлаждения уже более 20 лет. Это позволяет нам охлаждать более 500 тыс. физических серверов во всех наших центрах обработки данных. Наши внутренние технологии с открытым исходным кодом обходятся в 20–40 раз дешевле рыночных решений. У нас есть центры обработки данных мощностью от 40 МВт до 100 МВт, в которых можно проводить обучение, с отсеками мощностью 40 кВт, но у нас также есть центры обработки данных по всему миру для предоставления выводов. Наши инвестиции соответствуют потребностям наших клиентов, и при необходимости мы можем ускориться.
Потребуется 50Me для инвестирования в 1000 графических процессоров, которые будут работать в центре обработки данных, потребляющем 1 МВт электроэнергии.
Эти три числа работают вместе на нескольких уровнях шкалы:
- 50Me — 1k GPU — 1MW
- 500Me — 10k GPU — 10MW
- 5Mde — 100k GPU — 100MW
- 50Mde — 1M GPU — 1GW
80% этих сумм используются для покупки графических процессоров, 20% — для создания центра обработки данных.
Для какой нужды? Графические процессоры используются в двух целях:
- обучение и, следовательно, создание модели LLM с данными (обучение)
- использование существующей модели LLM клиентами (вывод)
Поколения графических процессоров, представленные в настоящее время на рынке, позволяют проводить обучение примерно на 100 тыс. графических процессоров, работающих одновременно. Ограничивающим фактором является расстояние между двумя физически удаленными графическими процессорами: начиная с определенного количества графических процессоров, соединенных вместе, расстояние замедляет работу набора графических процессоров.
Вот почему для нужд обучения на рынок выходит новое поколение графических процессоров: суперчипы. Вместо десятков независимых графических процессоров, которые вы подключаете друг к другу последовательно, каждый суперчип объединяет десятки графических процессоров на одной карте. Отличная работа! Вы сократили расстояние между графическими процессорами и теперь можете подключить в 10 раз больше графических процессоров вместе, не снижая производительности. С другой стороны, у вас есть новые задачи, которые нужно решить: как распределить энергию и охладить инфраструктуру, которая в 10 раз плотнее, как приобрести источник энергии мощностью 1 ГВт и как обеспечить его избыточность.
Для размещения вычислительной мощности в центре обработки данных мы используем отсеки, также известные как стойки, которые представляют собой своего рода шкафы шириной 0,6 м, глубиной 1 м и высотой 2,5 м. На каждый отсек подается около 20 кВт электроэнергии. Для его охлаждения используется свежий воздух, прогоняемый через залив.
Если мы хотим использовать в отсеке более 20 кВт, воздуха будет недостаточно для его охлаждения. Вам необходимо перейти на водяное охлаждение. Вот тут мы начинаем говорить о новом поколении центров обработки данных, и в некоторых случаях речь идет о мощности 1 ГВт. Действительно, для размещения суперчипов мы сейчас говорим о стойках мощностью 120 кВт или даже предполагаем 240 кВт на стойку и систему водяного охлаждения для улавливания и отвода всего этого тепла. Это совершенно новое решение с точки зрения мощности на отсек, а также с точки зрения масштабируемой системы водяного охлаждения. Вот почему такого типа ЦОД не существует и поэтому его необходимо построить.
Для использования выводов нет необходимости в столь сложных центрах обработки данных. И суперчип тоже не нужен. Для модели LLM требуется система графических процессоров, потребляющая от 100 Вт до 10 кВт, редко 20 кВт, что эквивалентно от 1 до 16 графических процессоров. Поскольку каждая система независима, вы можете подключить столько систем параллельно, сколько захотите, что позволит вам обрабатывать большой веб-трафик или мобильный трафик. Еще лучше иметь несколько центров обработки данных вывода, работающих параллельно, и почему бы не создать по одному на страну? Это обеспечивает высокую доступность и низкие задержки за счет использования ближайшего к посетителю центра обработки данных.
И причем здесь OVHcloud? У нас более 40 центров обработки данных в нескольких странах Европы, Канады, Северной Америки и Азии. Мы являемся экспертами в области водяного охлаждения уже более 20 лет. Это позволяет нам охлаждать более 500 тыс. физических серверов во всех наших центрах обработки данных. Наши внутренние технологии с открытым исходным кодом обходятся в 20–40 раз дешевле рыночных решений. У нас есть центры обработки данных мощностью от 40 МВт до 100 МВт, в которых можно проводить обучение, с отсеками мощностью 40 кВт, но у нас также есть центры обработки данных по всему миру для предоставления выводов. Наши инвестиции соответствуют потребностям наших клиентов, и при необходимости мы можем ускориться.
