Протестировали DeepSeek-R1 на наших серверах за вас





Современные языковые модели (LLM) помогают бизнесу автоматизировать задачи, анализировать данные и создавать контент. Но их использование связано с рисками: утечки данных в облаке или сложности локального развёртывания.

Мы протестировали DeepSeek-R1 – новую модель от DeepSeek (2025) – в локальной среде и делимся результатами.

В первой части исследования:
  • Запуск полной версии на CPU
  • Анализ потребления ресурсов и качества работы
  • Сравнение с облегчёнными дистиллятами
  • Цель – понять, насколько локальные LLM подходят для бизнес-задач.

1dedic.ru/content/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo

Почему защита данных в Европе так важна?





ПОТОМУ ЧТО ВАШИ ДАННЫЕ ЦЕННЫ
Вы вчера попались на нашу первоапрельскую шутку в социальных сетях, например, на Youtube или X?

«Физическая» миграция данных с помощью фейковой компании «Bitshifters» была шуткой, однако тема миграции данных из США к европейским провайдерам в последнее время стала весьма актуальной.

Но простое использование центра обработки данных в ЕС не означает, что ваши данные имеют самый высокий уровень защиты данных. Если главный офис вашего хостинг-провайдера находится в США, он должен следовать Закону США об облаках. Это означает, что власти США могут получить доступ к данным, даже к данным, которые хранятся в Европе. Только поставщики со штаб-квартирой в ЕС могут действительно гарантировать уровни защиты данных, соответствующие европейским стандартам.

Что вы получаете с нами:
  • Хостинг, соответствующий требованиям GDPR, во всех наших офисах
  • Уровень качества «Сделано в Германии» для защиты данных
  • Данные клиентов не передаются в «третьи страны»
  • Безопасность сертифицирована по стандарту DIN ISO/IEC 27001
  • Вы можете быть уверены, что ваши данные в безопасности.
www.hetzner.com/european-cloud

В НОВОСТЯХ: ПЕРЕХОД С ПОСТАВЩИКОВ ИЗ США НА HETZNER
Муниципалитет Орхуса в Дании недавно объявил, что они сменили своего провайдера облачного хостинга с одного из США на Hetzner, чтобы убедиться, что их хранилище данных соответствует европейским нормам. Кроме того, сделав это изменение, они сокращают свои расходы на две трети.
itk.aarhus.dk/nyheder/projektnyheder/itk-skifter-til-europaeisk-cloud-hosting-leverandoer


ПРЕМИЯ ПОСТАВЩИКОВ УСЛУГ 2025: ВАШ ГОЛОС ИМЕЕТ ЗНАЧЕНИЕ!
Голосование за лучшего поставщика услуг снова здесь. Премия Readers' Choice Service Providers Award 2025 включает 12 категорий, и мы в Hetzner были номинированы в двух из них.

Мы снова претендуем на номинацию «Datacenter / Colocation XXL». Но на этот раз мы также номинированы в новой категории «Superscaler». Эта группа объединяет крупных облачных провайдеров с региональной направленностью, которые являются альтернативой американским гиперскейлерам, особенно в плане защиты данных и соответствия стандартам безопасности.

Если вы считаете, что мы заслуживаем одну или обе эти награды, мы будем рады вашей поддержке! (Страница на немецком языке, но голосовать все равно легко, поскольку все названия категорий на английском языке. Просто прокрутите страницу вниз и выберите понравившиеся.) Голосование заканчивается 14 апреля 2025 года.

Заранее спасибо за вашу поддержку!


СОСРЕДОТОЧЕНИЕ НА ЗЕЛЕНОЙ ИТ-ИНФРАСТРУКТУРЕ
Мартин Хетцнер, основатель Hetzner Online GmbH, вместе с Джошуа Тлапаком, основателем MHB Montage GmbH, создали новую компанию HT clean energy GmbH. Новое предприятие будет заниматься эксплуатацией солнечных электростанций и крупномасштабными операциями по хранению аккумуляторных батарей. Первым крупным проектом новой компании станет солнечный парк в Нассау-Вайкерсхайме в Германии. Работа на этом участке площадью 7 гектаров уже началась. После завершения строительства он будет вырабатывать около 6,5 МВт электроэнергии, что достаточно для снабжения более 1800 домохозяйств зеленой энергией каждый год.

По мере того, как растет спрос на большую вычислительную мощность, растет и ответственность поставщиков, таких как Hetzner, за обеспечение надежности и использования устойчивой энергии. Поэтому мы используем инновационные решения для экономии энергии и ресурсов в проектах и работе наших центров обработки данных.

Используя современные технологии охлаждения, мы можем охлаждать наши серверы с помощью наружного воздуха до 358 дней в году, и таким образом мы экономим внушительное количество энергии. Мы используем 100% гидроэлектроэнергии для снабжения наших серверов в Германии электроэнергией с 2008 года, а в Финляндии мы также используем энергию ветра. В долгосрочной перспективе новая компания хочет вырабатывать больше электроэнергии, чем потребляют центры обработки данных Hetzner.
www.hetzner.com/press-release/ht-clean-energy

СОВЕТ: ЗАЩИТИТЕ СВОЙ АККАУНТ С ПОМОЩЬЮ 2FA
Безопасность в Интернете сейчас важнее, чем когда-либо. Злоумышленники используют слабые пароли для получения несанкционированного доступа к аккаунтам. Чтобы защитить ваши данные, мы рекомендуем вам использовать надежные пароли и менеджер паролей, а также активировать двухфакторную аутентификацию (2FA) для вашего аккаунта Hetzner.

С 2FA вы подтверждаете свою личность чем-то (вторым фактором) в дополнение к вашему имени пользователя и паролю. Многие люди используют YubiKey, смартфон или планшет в качестве второго фактора. Вы можете значительно повысить уровень безопасности своего аккаунта, активировав 2FA за несколько быстрых и простых шагов.
docs.hetzner.com/accounts-panel/accounts/two-factor-authentication/

СОЗДАЙТЕ ИГРУ ЗА 48 ЧАСОВ: HETZNER ПРИГЛАШАЕТ ВАС НА GAME JAM
Hetzner приглашает вас присоединиться к нам в Университете прикладных наук Ансбаха (Hochschule Ansbach). 16–18 мая 2025 года любители игр объединятся в команды и в течение 48 часов будут разрабатывать и создавать аналоговые или цифровые игры в соответствии с темой этого года.
Приглашаем всех желающих присоединиться к разработке игры, независимо от уровня мастерства или технического опыта.
И что самое приятное, участие бесплатное.

РУКОВОДСТВО: НАСТРОЙКА DEEPSEEK НА GPU-СЕРВЕРЕ
В этом руководстве шаг за шагом показано, как настроить Deepseek с Ollama на одном из наших выделенных серверов GPU.
Кроме того, это руководство также предоставляет вам полезную справочную информацию о моделях рассуждений и принципах их работы.
community.hetzner.com/tutorials/ai-chatbot-with-ollama-and-deepseek

ВЫ ЭТО ВИДЕЛИ? КАК СТРОЯТСЯ ЦЕНТР ОБРАБОТКИ ДАННЫХ
В нашем последнем видео вы можете увидеть, как мы в рекордно короткие сроки строим наши центры обработки данных.
Всего за несколько секунд вы увидите, как мы устанавливаем фальшполы, устанавливаем стойки, прокладываем кабели и устанавливаем инновационные системы охлаждения — и все это для максимального повышения эффективности и производительности

DeepSeek-R1-Distill-Llama-70B теперь доступен в генеративных API Scaleway



Scaleway расширяет свой каталог генеративных API, добавив DeepSeek-R1-Distill-Llama-70B — высокопроизводительную модель с открытым исходным кодом, предназначенную для поддержки следующего поколения приложений ИИ.

Более умная и эффективная модель 70B
Построенный на основе фреймворка Llama-3.3-70B-Instruct, DeepSeek-R1-Distill-Llama-70B использует передовые методы дистилляции знаний, чтобы сохранить глубину и возможности рассуждений более крупных моделей, одновременно повышая скорость и эффективность. Результат? Модель, которая обеспечивает сильные рассуждения, математическое решение проблем и генерацию кода, одновременно повышая скорость и эффективность.

Почему стоит запустить Scaleway?
Развертывая DeepSeek-R1-Distill-Llama-70B в суверенном облаке искусственного интеллекта Scaleway, пользователи получают следующие преимущества:

Полный суверенитет данных — ваши данные остаются в Европе в полном соответствии с местным законодательством.
Высокопроизводительный вывод с малой задержкой — оптимизированная инфраструктура графического процессора обеспечивает плавное развертывание.

Начните сегодня
DeepSeek-R1-Distill-Llama-70B теперь доступен через Generative APIs, предоставляя компаниям и разработчикам бесперебойный доступ к передовым моделям ИИ. В дополнение к этому, Scaleway недавно объявила о своем участии в AI Action Summit, где компания будет присутствовать для обсуждения цепочки создания стоимости искусственного интеллекта.
www.scaleway.com/fr/generative-apis/

Если у вас спросят про искусственный интеллект, что первым придет в голову? Возможно, ChatGPT?



Продукты от OpenAI действительно являются одними из лидирующих на рынке нейросетей, но, тем не менее, не единственными.
Вероятно вы уже слышали про DeepSeek — китайская нейросеть стала популярной не столько из-за своего функционала, сколько благодаря доступности. Теперь мы знаем, что эффективные нейросети могут быть бесплатными.

Функционал DeepSeek во многом не уступает ChatGPT, Gemini или другим платным нейросетям. Она позволяет писать тексты, анализировать информацию и даже программировать.

Как так получилось и почему DeepSeek оказался «дешевле»?
Все дело в архитектуре Mixture-of-Experts (MoE), которую использует нейросеть. Она позволяет разделить области моделей на несколько частей (около 256 штук). И при отправке запроса используется только нужная область нейросети, а не все сразу. Это сильно снижает вычислительные затраты.

Как выяснилось позже, DeepSeek была натренирована всего за пару месяцев на стеке из видеокарт nVidia H800, тогда как другим крупным игрокам рынка нейросетей требовалось на это несколько месяцев или даже лет, и огромные единицы вычислительного оборудования.

Вы можете зарегистрироваться и опробовать DeepSeek самостоятельно абсолютно бесплатно.
www.deepseek.com

Огромным преимуществом DeepSeek является возможность размещения на локальном сервере. Это позволяет крупным бизнесам хранить конфиденциальные данные только внутри своего оборудования, не обращаясь напрямую к внешнему API и не требуя соблюдений условий лицензирования продукта (ведь исходный код открытый).

Наша команда написала собственную статью, в которой мы подробно рассказали как установить и использовать разные модели DeepSeek на собственном VPS-сервере. Рассказано все: от слабых моделей с потреблением 4ГБ ОЗУ до оригинальной DeepSeek 671b, которой для работы требуется 768 ГБ ОЗУ.
wiki.spacecore.pro/ai/deploy-deepseek-easily

Серверы от SpaceCore идеально подходят для размещения собственной модели DeepSeek. Напишите нам t.me/spacecore_pro_manager мы проконсультируем вас и поможем выбрать подходящий сервер под любой бюджет.

Как установить DeepSeek AI на серверах Contabo

Как установить DeepSeek AI на серверах Contabo: пошаговое руководство с изображением в один клик и Ollama



DeepSeek AI представляет собой большой шаг вперед в моделях языка с открытым исходным кодом, предоставляя мощные возможности рассуждения без специализированного оборудования GPU. В сочетании с Ollama, легким инструментом управления моделями, он обеспечивает практическое решение для локального запуска моделей AI с лучшей конфиденциальностью и контролем производительности.

Почему стоит использовать самостоятельный хостинг DeepSeek?
Запуск DeepSeek на вашем собственном сервере Contabo дает вам явные преимущества конфиденциальности и безопасности. Это стало еще важнее после того, как исследователи безопасности недавно обнаружили незащищенную базу данных DeepSeek, которая раскрыла конфиденциальную информацию, включая историю чатов, ключи API и данные бэкэнда. Самостоятельный хостинг хранит всю информацию в вашей контролируемой инфраструктуре, предотвращая такие уязвимости, а также обеспечивая соответствие GDPR и HIPAA.

Революционная производительность на базе процессора
Модели DeepSeek могут эффективно работать также на системах на базе CPU. Это устраняет необходимость в дорогостоящем оборудовании GPU, делая расширенный ИИ доступным большему количеству пользователей для их целей. Используете ли вы модель 1.5b или 14b, DeepSeek заявляет, что работает на стандартных конфигурациях серверов, включая виртуальные частные серверы.

Локальный контроль и гибкость для целей тестирования
Самостоятельное размещение дает вам полный доступ к API и полный контроль над настройками модели. Эта настройка позволяет запускать тесты и песочницы для пользовательских реализаций, улучшенных мер безопасности и плавной интеграции с существующими системами. Природа открытого исходного кода DeepSeek обеспечивает прозрачность и позволяет вносить улучшения, инициированные сообществом, что делает его отличным выбором для организаций, которые ценят как производительность, так и конфиденциальность.

Пошаговое руководство: установка DeepSeek на Contabo
Отказ от ответственности: Мы рекомендуем наши модели VDS M-XXL, которые обеспечивают необходимые ресурсы для оптимальной производительности. Планы с более низкими характеристиками могут быть пригодными для использования, но определенно повлияют на производительность LLM.

Эксклюзив: предварительно настроенное изображение DeepSeek от Contabo
Contabo лидирует в отрасли как первый и единственный поставщик, предлагающий готовый образ с DeepSeek из коробки. Это решение устраняет сложные процедуры настройки и позволяет начать работу в течение нескольких минут. Наш предварительно настроенный образ обеспечивает оптимальные настройки производительности и возможности немедленного развертывания.

Выберите предварительно настроенный образ DeepSeek во время настройки сервера:
  • Перейдите к шагу 4 «Изображение» в Конфигураторе продукта.
  • Выберите изображение DeepSeek из доступных вариантов на вкладке «Популярное».
  • Продолжайте настройку сервера в соответствии с вашими требованиями для целей тестирования.



Этот предварительно настроенный образ обеспечивает возможности немедленного развертывания и дает вам пространство для дальнейшего тестирования оптимизации производительности модели. После того, как ваш сервер будет подготовлен, вы можете начать использовать DeepSeek сразу же без дополнительных шагов по установке.

Ручная установка
Для пользователей, предпочитающих индивидуальную настройку, процесс ручной установки прост, но требует нескольких шагов. Давайте разберем его:

Перед установкой DeepSeek на сервер Contabo убедитесь, что у вас установлена ​​Ubuntu 22.04 LTS.

Сначала убедитесь, что ваша система обновлена:
sudo apt update && sudo apt upgrade -y

Затем установите Ollama — легкий инструмент управления моделями, который будет управлять вашим развертыванием DeepSeek:
curl -fsSL https://ollama.com/install.sh | sh

После установки запустите службу Ollama, чтобы подготовиться к развертыванию модели:
sudo systemctl start ollama

Теперь вы готовы вытащить выбранную вами модель DeepSeek. Версия 14b предлагает отличный баланс производительности и использования ресурсов:
ollama pull deepseek-r1:14b

Развертывание модели
После завершения установки вы можете начать использовать DeepSeek. Запустите модель напрямую для интерактивного использования:
ollama run deepseek-r1:14b

Для доступа к API, который обеспечивает интеграцию с вашими приложениями:
ollama serve

Шаги проверки
Проверьте установку с помощью этих простых проверок:
# Check model status 
ollama list

# Run a simple test 
ollama run deepseek-r1:14b "Hello, please verify if you're working correctly."


Руководство по распределению ресурсов
Управление памятью является ключом к оптимальной производительности. Всегда выделяйте в два раза больше размера модели в ОЗУ для бесперебойной работы. Например, модель 14b (9 ГБ) лучше всего работает с ОЗУ не менее 20 ГБ для выполнения задач загрузки и обработки модели. Что касается хранилища: выбирайте диски NVMe для более быстрой загрузки модели.

Почему стоит выбрать Contabo для размещения DeepSeek в целях тестирования
Серверы Contabo обеспечивают высокопроизводительное хранилище NVMe, существенный ежемесячный трафик (32 ТБ) и конкурентоспособные цены без скрытых платежей. Имея центры обработки данных в 12 местах в 9 регионах, охватывающих 4 континента, включая несколько площадок в Европе, США (Нью-Йорк, Сиэтл, Сент-Луис), Азии (Сингапур, Токио), Австралии (Сидней) и Индии, Contabo предлагает глобальный охват для ваших развертываний ИИ. Сочетание надежного оборудования и экономически эффективных планов делает его идеальным выбором для самостоятельных развертываний ИИ.

Заключительные мысли
Сочетание эффективных моделей DeepSeek и надлежащей серверной инфраструктуры открывает новые возможности для организаций, ценящих конфиденциальность данных и производительность. Оставайтесь с нами на связи, поскольку мы продолжаем развиваться в этой области — этот предварительно настроенный образ — только начало наших обязательств по повышению доступности и управляемости передовых технологий ИИ.

contabo.com

DeepSeek R1 и V3: китайский Новый год ИИ начался рано



Если вы думаете, что празднование Нового года началось 1 января, то это зависит от того, как на это посмотреть — ведь в мире ИИ настоящий фейерверк прогремел в декабре с выпуском DeepSeek V3. Теперь DeepSeek R1 освещает небо сиянием с открытым исходным кодом, которое заставляет даже самых закоренелых гигантов Кремниевой долины почувствовать жар.

Рост DeepSeek
DeepSeek последовательно работает на моделях Mixture-of-Experts (MoE), которые эффективны и открыты. DeepSeek V2 был выпущен в мае 2024 года и представил интересную альтернативу Llama 3 70B. Его производительность на английском языке была немного ниже, чем у Llama, но V2 превзошел модель Meta на стандартных китайских тестах.

DeepSeek V3 сделал еще один шаг вперед, не только улучшив производительность, но и похваставшись в три раза более быстрым временем вывода. Он появился в декабре 2024 года и с тех пор вызвал резонанс в сообществе ИИ. Созданный на архитектуре MoE с колоссальным количеством параметров в 671 миллиард, V3 активирует всего 37 миллиардов параметров на токен, сохраняя как вычислительную нагрузку, так и потребление энергии на низком уровне по сравнению с другими альтернативами. Обученный на 14,8 триллионах высококачественных токенов с функцией Multi-Token Prediction для более высокой скорости вывода, DeepSeek V3 обрабатывает 60 токенов в секунду — в три раза быстрее своего предшественника. Он показывает тактовую частоту 88,5 на бенчмарке MMLU — немного меньше ведущего Llama 3.1, но превосходит таких известных конкурентов, как Qwen 2.5 и Claude 3.5 Sonnet. На бенчмарке DROP он достигает 91,6, демонстрируя внушительную способность к рассуждению (ты не должен обсуждать свои проблемы с рассуждениями LLM в этом посте; ты должен подождать отдельного). Если вы программист, обратите внимание: DeepSeek V3 превосходит Claude 3.5 Sonnet на Codeforces. Я знаю — я тоже любил свой Sonnet.


Доступность и открытость
Возможно, самой большой сенсацией является разрешительная лицензия DeepSeek V3 с открытым исходным кодом, позволяющая разработчикам свободно загружать, настраивать и развертывать модель — даже для коммерческих проектов. Эта открытая философия не только идеологическая; она также экономична. Обучение DeepSeek V3 обошлось примерно в 5,58 миллионов долларов за два месяца — это лишь малая часть того, что тратят некоторые крупные технологические компании. Внезапно у тяжеловесов с закрытым исходным кодом появился реальный конкурент, который может масштабироваться, не опустошая банковские счета. DeepSeek R1 добавляет оскорбления к ране, обойдя GPT-o1 по нескольким показателям (источник):


Количество данных преобладает над качеством данных
Тенденция, начатая Фи в Учебники — это все, что вам нужно наконец-то привело к широкому признанию: теперь, когда мы научились собирать огромные объемы данных, контроль качества данных стал настоящим секретом разработки современных моделей.

Это также одна из краеугольных идей проекта Pleias, соучредителем которого я являюсь. В 2024 году Pleias опубликовал Общий корпус — крупнейший открытый и разрешенный набор текстовых данных, включающий более 2 триллионов токенов. Однако именно обширная предварительная обработка, адаптированная для RAG, позволила Плея 1.0 семейство моделей, которые превзойдут свой вес на бенчмарках RAG. Надеюсь, позже я напишу несколько постов о предварительной обработке данных для «обмотки модели».

Бережливость — это новый тренд
Сообщество открытого исходного кода известно тем, что оно «бедно вычисляет», то есть ресурсы часто минимальны по сравнению с лабораториями с глубокими карманами. Но эта вынужденная бережливость может быть суперсилой: она стимулирует более эффективные алгоритмы, более простую архитектуру и экологичные оптимизации.

Интересное замечание: даже при постоянном повышении эффективности обучение гигантских моделей по-прежнему требует значительных затрат энергии. Это делает расположение и проектирование кластеров критически важными. Например, первый собственный центр обработки данных Nebius находится в Финляндии, где используется естественное воздушное охлаждение для сокращения расходов на электроэнергию и уменьшения выбросов углекислого газа — концепция, которую мы часто называем свободным охлаждением. Эта тенденция только усилится в 2025 году, поскольку все больше разработчиков и пользователей ИИ научатся делать больше с меньшими затратами.

По-настоящему открытый ИИ догоняет
Модели искусственного интеллекта закрытого типа в Кремниевой долине, эти «мамонты», оглядываются по сторонам. Появление DeepSeek V3 знаменует собой последний шаг в критическом сдвиге: ИИ с открытым исходным кодом больше не играет в догонялки; он медленно продвигается вперед по ключевым показателям и применимости в реальном мире.

Представляю вам Доказательство А: твиты Сэма Альтмана, намекающие на усиление конкуренции.


OpenAI, несомненно, изменил общественный консенсус относительно того, что возможно, но конкуренция усиливается, и слово «открытый» в его названии больше не является достаточным. Недавнее объявление Stargate контрастирует с бережливым подходом DeepSeek, который предоставляет полностью открытые модели за малую часть стоимости.

Если вы хотите разместить DeepSeek V3 в ЕС экономически эффективно, вы скоро сможете попробовать его в Небиус AI Студия и решите сами, как это сравнить с закрытыми альтернативами, используя игровую площадку студии. На этой неделе мы добавим и R1, и V3.

Дорога впереди
Можно с уверенностью сказать, что «китайский Новый год ИИ» начался с грохотом на целый месяц раньше в этом году. В конце концов, год Деревянной Змеи знаменует собой «время трансформации, роста и самоанализа». Это касается как начинающих стартапов, так и устоявшихся участников в области genAI. Вопрос уже не в том, догонит ли ИИ с открытым исходным кодом, а в том, как быстро он охватит поле — и кто сможет использовать его для наибольшего воздействия.