Бесплатный анти-спам для ваших сайтов в один клик



Добавили интеграцию с анти-спам сервисом Cleantalk.

В личном кабинете на тарифах PROXY защиты сайтов можно включить режим проверки IP адресов посетителей по базе спамеров. В случае отправки POST запроса и нахождения в базе, подобные запросы будут автоматически заблокированы, а спам сообщения в формы обратной связи, посты или комментарии не попадут.
Также в бета режиме возможна проверка email адресов из отправляемых посетителями запросов на предмет спама.

Все передаваемые на проверку данные обезличены и отправляются строго в виде хэшей. Мы заботимся о приватности вас и посетителей ваших сайтов.

http://cloud-shield.ru

Что нового в Ubuntu 20.04



23 апреля состоялся релиз Ubuntu версии 20.04 с кодовым названием Focal Fossa, являющимся следующим выпуском Ubuntu для долгосрочной поддержки (LTS) и является продолжением Ubuntu 18.04 LTS, выпущенной в 2018 году.

Немного про кодовое имя. Слово «Focal» означает «центральная точка» или «самая важная часть», то есть связано с понятием средоточия, центром каких-либо свойств, явлений, событий, а «Fossa» имеет корень «FOSS» (Free and Open-Source Software — свободное и открытое программное обеспечение) и по традиции именования версий Ubuntu названиями животных означает Фосса — самое крупное хищное млекопитающее из семейства виверровых с острова Мадагаскар.

Разработчики позиционируют Ubuntu 20.04 как важное и успешное обновление с поддержкой в течение следующих 5 лет для настольных компьютеров и серверов.

Ubuntu 20.04 явилась логическим продолжением Ubuntu 19.04 «Disco Dingo» и Ubuntu 19.10 «Eoan Ermine». В версиях для настольных компьютеров, следуя последним тенденциям, появилась темная тема. Таким образом, в Ubuntu 20.04 есть три варианта стандартной темы Yaru:
  • Light,
  • Dark,
  • Standard.
Также было удалено приложение Amazon. Ubuntu 20.04 использует в качестве графической оболочки по умолчанию последнюю версию GNOME 3.36.


Подробнее
selectel.ru/blog/new-ubuntu-lts/

Как сообщество Google Maps Platform реагирует на COVID-19: визуализация полезной информации

Примечание редактора: за последние несколько месяцев мы увидели вдохновляющий отклик на COVID-19 от нашего сообщества. Чтобы поблагодарить организации, которые разрабатывают инструменты, которые помогут нам в этом, в ближайшие недели мы расскажем о многих из проектов, которые наши клиенты создали для поддержки своих сообществ.

Первой волной усилий по реагированию COVID-19, которую мы увидели от сообщества независимых разработчиков, некоммерческих организаций, государственных учреждений и технологических компаний, была визуализация распространения вирусов, чтобы помочь миру понять воздействие географически. Поскольку сообщества и предприятия реагировали на изменение поведения и потребностей потребителей, наше сообщество отреагировало, представив другие данные, которые могут помочь людям найти необходимые товары и услуги. Сегодня мы расскажем о нескольких примерах веб-сайтов, использующих API-интерфейс Maps JavaScript, кластеризацию маркеров и платформу Google Maps, которые размещают данные, чтобы помочь визуализировать важные данные и места для поддержки своих сообществ.


TrackCorona предоставляет актуальную глобальную информацию для борьбы с пандемией. Веб-сайт, который объединяет данные из более чем 17 авторитетных источников, был создан студентами из Стэнфорда, Университета Вирджинии и Технологии Вирджинии. В дополнение к подробной информации о глобальном присутствии COVID-19, сайт предоставляет информацию о происхождении вируса, глобальных ограничениях на поездки, исторический график распространения вируса и многое другое. С момента запуска сайта было просмотрено более 9 300 000 страниц.
www.trackcorona.live/

Найти маски

#findthemasks был создан волонтерами для подключения доноров, имеющих средства индивидуальной защиты (СИЗ), к медицинским учреждениям, групповым домам и приютам, наиболее нуждающимся в этом. Путем картирования нехватки средств индивидуальной защиты и предоставления инфраструктуры открытых данных сайт поддерживает широкий спектр массовых усилий по переносу масок, перчаток, термометров и даже радионяней из подвалов на передовую, где они могут защитить работников, которые заботятся о нас. Найдите ближайший сайт для пожертвований на findthemasks.com


Empower Health разрабатывает технологические платформы, которые помогают пациентам находить необходимое лечение и помогают поставщикам медицинских услуг предоставлять пациентам наилучшее качество обслуживания. Их платформа iamsick.ca предоставляет канадцам централизованный ресурс, позволяющий легко находить семейных врачей, принимающих новых пациентов, поликлиники, оздоровительные клиники, аптеки и больницы — в любое время и в любой день. Чтобы помочь людям найти места для получения оценок для COVID-19, они добавили информацию о центрах оценки COVID-19 в платформу. Центры оценки отмечены специальным маркером на карте, чтобы помочь людям быстро и легко определить местоположение, наиболее близкое к ним.

Они также создали национальный информационный центр COVID-19 по адресу c19.ca и поддерживают Канадский национальный институт старения в Университете Райерсона, выпустив первый в мире трекер длительного лечения COVID-19. Отслеживание долгосрочного ухода COVID-19 позволит ежедневно предоставлять обновления случаев и смертей в домах престарелых и престарелых, особенно в Онтарио, чтобы усилить текущие передовые усилия по защите жителей и поставщиков услуг в этих условиях, которые в настоящее время представляют сердце канадской эпидемии COVID-19.
www.iamsick.ca/en
www.c19.ca/
ltc-covid19-tracker.ca/



Так как многие рестораны закрываются или переходят только на вывоз или доставку, Takeout Tracker стремится предоставить жителям Остина, Техас, актуальный ресурс для поиска открытых ресторанов, их текущих правил работы, часов и информации о заказе. Рестораны могут представить свою информацию для ускоренного перечисления, но команда также принимает пользовательские отчеты и проактивные обновления по мере изменения политики ресторана. Сайт предлагает список рекомендаций от местных ветеранов отрасли, а также элементы управления для поиска, фильтрации и сопоставления их полного списка из 675+ ресторанов.
www.takeouttracker.com/

Некоммерческие разработчики и организации, работающие над веб-сайтами или приложениями, связанными с COVID-19, могут подать заявку на кредиты Google Maps Platform, заполнив заявку на кредиты. Наша команда также собрала полезные ресурсы, чтобы помочь разработчикам лучше понять основные функции Google Maps Platform, которые могут быть полезны для создания приложений в нашем центре ресурсов для разработчиков COVID-19. Далее мы расскажем о том, как разнообразные наши клиенты помогают местным сообществам оставаться вовлеченными, даже когда они укрываются на месте.
cloud.google.com/maps-platform/

Новости сервиса Yandex DataLens



С начала этого года сервис Yandex DataLens получил несколько новых функций и долгожданное дополнение для работы с данными 1С. А для тех, кто начинает работу с DataLens, мы подготовили новую пошаговую инструкцию. Рассказываем об этих и других новостях.

Добавлен коннектор для 1С
Теперь вы можете импортировать данные из «1С: Предприятие 8» для анализа и построения дашбордов. ДашбордКоннектор от компании «Вебзавод» позволяет выбирать сущности для выгрузки и анализа, чтобы работать с данными 1С в Yandex DataLens. При этом можно задавать расписание для синхронизации и использовать заранее настроенные шаблоны отчётов, например «Отчёт о прибылях» и «Отчёт по розничным продажам». ДашбордКоннектор можно приобрести в маркетплейсе DataLens. При приобретении до 15 мая 2020 года, первый месяц использования — бесплатный.


Обновлена мобильная версия
Обновлена адаптивная вёрстка для мобильных браузеров. Теперь дашбордами удобно пользоваться с телефона. Визуализации выстраиваются в единую полосу, по порядку «слева направо, сверху вниз». Переход к взаимодействию с отдельными визуализациями выполняется простым нажатием. После этого вы сможете подвинуть карту, сделать зум или, например, показать тултип. Ознакомиться с новой вёрсткой можно на примере публичного дашборда.


Появились зависимые селекторы
Зависимые селекторы фильтруют друг друга по выбранным значениям. Это упрощает и ускоряет выбор нужных опций. Например, при выборе страны в первом селекторе во втором ограничивается список доступных городов, и наоборот. Селекторы над полями из одного датасета связываются автоматически.


Для ранее созданных дашбордов зависимые селекторы нужно включить в настройках, а чтобы изменить зависимости нажмите Связи в режиме редактирования дашборда.


Публичные чарты теперь можно встраивать
Чтобы встроить опубликованный чарт, добавьте параметр embedded=1 к ссылке:
https://datalens.yandex/oxxbqilhotpgk?_embedded=1

После этого код можно встроить:
<iframe src="https://datalens.yandex/oxxbqilhotpgk?_embedded=1></iframe>


Расширен функционал для геоаналитики
Для работы с фоновой картой и геополигонами добавлены новые градиенты для заливки цветом, тултипы с возможностью отображения нескольких значений, отображение легенды и скрытие границ полигонов. Теперь с помощью DataLens в несколько кликов можно сделать, например, такую визуализацию:


Также появилась новая функция geoinfo(address, scale). Она преобразует address в название географического объекта (топоним), который соответствует указанному масштабу (scale: «country», «country_code», «region», «locality»). Теперь, имея, например, только адреса своих клиентов, вы сможете не только нарисовать их точками на карте, используя функцию geocode для получения координат по адресу, но и построить аналитику по регионам страны или районам города.

Усовершенствования UI и визуализаций
Новые типы визуализации
Линейчатую и линейчатую нормированную визуализацию удобно использовать при большом количестве категорий с длинными наименованиями, например ФИО.


Новое окно настройки чартов
Появилось окно настройки, в котором можно задать отключаемую легенду и отображение заголовков чартов.


Отключаемая группировка в таблицах
Теперь группировку можно отключить. Это важно, если нужно посмотреть на данные без агрегации — в том виде, как они лежат в БД.


Новые фильтры дат
Стало удобнее задавать фильтры дат, особенно относительные.


Обновлённые тултипы для диаграмм
Теперь тултипы информативно отображают даже большие списки показателей и рассчитывают их суммы.


Во весь экран
Новый режим удобен для вывода дашбордов на большие ТВ-панели. При переключении в полноэкранный просмотр в URL проставляется параметр mode=tv, это позволяет делиться ссылкой на дашборд с сохранением режима просмотра.


Подключение облачных БД в несколько кликов
Для подключения к сервисам управляемых баз данных больше не нужно вручную прописывать реквизиты доступа. Достаточно выбрать нужную базу данных из списка уже созданных в Яндекс.Облаке.


Пошаговая инструкция
Для быстрого начала работы с DataLens мы подготовили новую пошаговую инструкцию. С её помощью вы пройдёте весь путь от загрузки данных до создания публичного дашборда, узнаете, как работать с геоданными в DataLens и как объединять источники на уровне датасета на примере открытых данных по ДТП в РФ.
cloud.yandex.ru/docs/solutions/datalens/data-from-csv-geo-visualization

Дашборд COVID–19
Мы подготовили публичный дашборд со статистикой самоизоляции и распространения коронавируса в мире и России. Чтобы изменить графики или обогатить их собственными данными, вы можете развернуть пресет дашборда с обновляемыми датасетами из нашего маркетплейса.
datalens.yandex/covid19
datalens.yandex.ru/marketplace/7o6xrxcmx85y3

Уважаемые клиенты!



В результате неожиданной проблемы с электропитанием в ЦОДе МСК с 21ое на 22ое Апреля 2020, вышел из строя маршрутизатор уровня ядра сети, Juniper MX104. В ходе аварийно-восстановительных работ было принято решение о срочной замене-модернизации его до MX240, который производительнее более чем в 37 раз, а также имеет полностью дублированные компоненты: линейные карты, процессорные-роутинг модули и БП. На данный момент в срочном порядке меняется архитектура сетевой подсистемы IPSERVER. Изменения направлены на значительное увеличение отказоустойчивости: дублирование коммутаторов, распределение питания по вводам/фазам, что учитывает и исключает различные сценарии отказа.

По последним данным, если бы не случился отказ роутера, всё бы заработало после отключения/включения питания, так как резервные линии связи бы позволило работать. Также планово мы собирались переходить на этот роутер, но не успели это сделать до 21го апреля.

Чтобы предотвратить любые проблемы с питанием, прорабатываем схему резервирования с собственными ИБП.
https://www.ipserver.su

Переезд в дата-центр. Быстро. Выгодно. Безопасно.



Ничто не ускоряет процесс цифровой трансформации, как COVID-19. В этой ситуации есть простой рецепт как обеспечить непрерывность работы it-оборудования независимо от любых факторов, включая карантин.

Не оставляйте ваши серверы работать в пустом офисе.
Не заставляйте ваших it-специалистов нарушать режим самоизоляции.


Xelent – крупнейший коммерческий дата-центр в Санкт-Петербурге является предприятием непрерывного цикла. Мы обеспечим бесперебойную работу Вашей it-инфраструктуры с финансовым SLA 99,82%. Наш дата-центр – единственный в Санкт-Петербурге сертифицирован по стандарту Tier III Uptime Institute.

www.xelent.ru/services/pereezd-fizicheskogo-oborudovaniya-za-1-den/
К вам приедет команда наших инженеров-инсталляторов в полной противовирусной защите. Мы используем грузовые фургоны, оснащенные для бережной перевозки it-оборудования.
Мы работаем в режиме 24/7/365.


www.xelent.ru/services/pereezd-fizicheskogo-oborudovaniya-za-1-den

В стоимость входит:
  • Транспортные услуги и организация перевозки.
  • Монтаж-демонтаж, упаковка и распаковка оборудования.
  • Работы по погрузке и разгрузке оборудования.
  • Копирование схемы коммутации (до 30 портов).
  • Настройка, тестирование и запуск оборудования на нашей площадке.

точните подробности у менеджера или оставьте заявку на нашем сайте.

История создания облачного сервиса, приправленная киберпанком



С ростом стажа работы в IT начинаешь замечать, что системы имеют свой характер. Они могут быть покладистыми, молчаливыми, взбалмошными, суровыми. Могут располагать к себе или отталкивать. Так или иначе, приходится «договариваться» с ними, лавировать между «подводными камнями» и выстраивать цепочки их взаимодействия.

Вот и нам выпала честь построить облачную платформу, а для этого потребовалось «уговорить» пару подсистем работать с нами. Благо, у нас есть «язык API», прямые руки и куча энтузиазма.

В этой статье не будет технического хардкора, но будет описание проблем, с которыми мы столкнулись при построении облака. Я решил описать наш путь в виде легкой технической фантазии о том, как мы искали общий язык с системами и что из этого вышло.

Начало пути
Некоторое время назад перед нашей командой была поставлена задача — запустить облачную платформу для наших клиентов. В нашем распоряжении была поддержка руководства, ресурсы, аппаратный стек и свобода в выборе технологий для реализации программной части сервиса.

Был также и ряд требований:
  • сервису нужен удобный личный кабинет;
  • платформа должна быть интегрирована в существующую систему биллинга;
  • программно-аппаратная часть: OpenStack + Tungsten Fabric (Open Contrail), которые наши инженеры научились достаточно хорошо «готовить».

О том, как собиралась команда, разрабатывался интерфейс личного кабинета и принимались дизайнерские решения, расскажем в другой раз, если у хабра-сообщества будет интерес.
Инструменты, которые мы решили использовать:
  • Python + Flask + Swagger + SQLAlchemy — вполне стандартный Python набор;
  • Vue.js для фронтенда;
  • взаимодействие между компонентами и сервисами решили делать с помощью Celery поверх AMQP.

Предвосхищая вопросы о выборе в сторону Python, поясню. Язык занял свою нишу в нашей компании и вокруг него сложилась небольшая, но всё же культура. Поэтому было решено начинать строить сервис именно на нём. Тем более, что скорость разработки в таких задачах зачастую решает.

Итак, начнем наше знакомство.

Молчаливый Билл — биллинг
С этим парнем мы были знакомы давно. Он всегда сидел рядом и что-то молча считал. Иногда переправлял нам запросы пользователей, выставлял клиентские счета, управлял услугами. Обычный работящий парень. Правда, были сложности. Он молчалив, иногда задумчив и часто — себе на уме.


Биллинг — это первая система, с которой мы попытались подружиться. И первая же трудность встретилась нам при обработке услуг.

Например, при создании или удалении, задача попадает во внутреннюю очередь биллинга. Таким образом реализована система асинхронной работы с услугами. Для обработки своих типов услуг нам нужно было «складывать» свои задачи в эту очередь. И здесь мы столкнулись с проблемой: нехватка документации.


Судя по описанию программного API, решить эту задачу все же можно, но времени заниматься реверс-инжинирингом у нас не было, поэтому мы вынесли логику наружу и организовали очередь задач поверх RabbitMQ. Операция над услугой инициируется клиентом из личного кабинета, оборачивается в «задачу» Celery на бэкенде и выполняется на стороне биллинга и OpenStack’a. Celery позволяет достаточно удобно управлять задачами, организовывать повторы и следить за состоянием. Подробнее про «сельдерей» можно почитать, например, здесь.

Также биллинг не останавливал проект, на котором закончились деньги. Общаясь с разработчиками, мы выяснили, что при подсчете по статистике (а нам нужно реализовать именно такую логику) есть сложная взаимосвязь правил остановки. Но эти модели плохо ложатся под наши реалии. Также реализовали через задачи на Celery, забирая на сторону бэкенда логику управления услугами.

Обе вышеуказанные проблемы привели к тому, что код немного раздулся и нам в будущем придется заняться рефакторингом, чтобы вынести в отдельный сервис логику работы с задачами. Нам также нужно хранить часть информации о пользователях и их услугах в своих таблицах, чтобы поддерживать эту логику.

Еще одна проблема — молчаливость.

На часть запросов к API Билли молча отвечает «Ок». Так, например, было, когда мы делали зачисления обещанных платежей на время теста (о нем позже). Запросы корректно выполнялись и мы не видели ошибок.


Пришлось изучать логи, работая с системой через UI. Оказалось, что сам биллинг выполняет подобные запросы, изменяя scope на конкретного пользователя, например, admin, передавая его в параметре su.

В целом, несмотря на пробелы в документации и небольшие огрехи API, все прошло достаточно неплохо. Логи вполне можно читать даже при большой нагрузке, если понимать, как они устроены и что нужно искать. Структура базы данных витиеватая, но вполне логичная и в чем-то даже привлекательная.

Итак, подводя итоги, основные проблемы, которые у нас возникли на этапе взаимодействия, связаны с особенностями реализации конкретной системы:
  • недокументированные «фичи», которые так или иначе нас затрагивали;
  • закрытые исходники (биллинг написан на C++), как следствие — невозможность решить проблему 1 никак, кроме «метода проб и ошибок».

К счастью, у продукта есть достаточно развесистый API и мы интегрировали в свой личный кабинет следующие подсистемы:
  • модуль технической поддержки — запросы из личного кабинета «проксируются» в биллинг прозрачно для клиентов сервиса;
  • финансовый модуль — позволяет выставлять счета текущим клиентам, производить списания и формировать платежные документы;
  • модуль управления услугами — для него нам пришлось реализовать свой обработчик. Расширяемость системы сыграла нам на руку и мы «обучили» Билли новому типу услуг.
Пришлось повозиться, но так или иначе, думаю, с Билли мы поладим.

Прогулки по вольфрамовым полям — Tungsten Fabric
Вольфрамовые поля, усеянные сотней проводов, прогоняющих через себя тысячи бит информации. Информация собирается в «пакеты», разбирается, выстраивая сложные маршруты, как по волшебству.


Это вотчина второй системы, с которой нам пришлось подружиться — Tungsten Fabric (TF), бывший OpenContrail. Ее задача — управлять сетевым оборудованием, предоставляя программную абстракцию нам, как пользователям. TF — SDN, инкапсулирует в себе сложную логику работы с сетевым оборудованием. Про саму технологию есть неплохая статья, например, тут.

Система интегрирована с OpenStack (о нём речь пойдет ниже) через плагин Neutron’a.


Взаимодействие сервисов OpenStack.

С этой системой нас познакомили ребята из отдела эксплуатации. Мы используем API системы для управления сетевым стеком наших услуг. Серьезных проблем или неудобств она нам пока не доставляет (за ребят из ОЭ говорить не возьмусь), однако были и некоторые курьезы взаимодействия.

Первый выглядел так: команды, требующие вывода большого количества данных на консоль инстанса при подключении по SSH просто «вешали» подключение, при этом по VNC все работало корректно.


Для тех, кто не знаком с проблемой, это выглядит достаточно забавно: ls /root отрабатывает корректно, тогда как, например, top «зависает» наглухо. К счастью, мы уже сталкивались с подобными проблемами. Решилось тюнингом MTU на маршруте от compute-нод до маршрутизаторов. К слову сказать, это и не проблема TF.

Следующая проблема ждала за поворотом. В один «прекрасный» момент магия маршрутизации исчезла, вот так просто. TF перестал управлять маршрутизацией на оборудовании.


Мы работали с Openstack с уровня admin и после этого переходили на уровень нужного пользователя. SDN, похоже, «перехватывает» скоуп пользователя, которым выполняются действия. Дело в том, что этот же админский аккаунт используется для связи TF и OpenStack. На шаге переключения под пользователя «магия» пропадала. Решено было завести отдельный аккаунт для работы с системой. Это позволило работать, не ломая функционал интеграции.

Силиконовые формы жизни — OpenStack
Силиконовое существо причудливой формы обитает недалеко от вольфрамовых полей. Больше всего оно похоже на ребенка переростка, который одним взмахом может раздавить нас, но явной агрессии от него не исходит. Оно не вызывает страха, но его размеры внушают опасение. Как и сложность того, что происходит вокруг.


OpenStack — ядро нашей платформы.

OpenStack имеет несколько подсистем, из которых активнее всего мы пока используем Nova, Glance и Cinder. Каждая из них имеет свой API. Nova отвечает за compute-ресурсы и создание instance’ов, Cinder — управление volume’ами и их снимками, Glance — image service, который управляет шаблонами ОС и метаинформацией по ним.

Каждый сервис запускается в контейнере, а брокером сообщений выступает «белый кролик» — RabbitMQ.

Эта система доставила нам больше всего неожиданных хлопот.

И первая проблема не заставила себя ждать, когда мы пытались подключить дополнительный volume к серверу. Cinder API наотрез отказывался выполнять эту задачу. Точнее, если верить самому OpenStack’у связь устанавливается, однако внутри виртуального сервера устройство диска отсутствует


Мы решили «пойти в обход» и запросили то же действие у Nova API. Результат — устройство корректно подключается и доступно внутри сервера. Похоже, что проблема возникает, когда block-storage не отвечает Cinder’у.

Очередная сложность ждала нас при работе с дисками. Системный volume не удавалось отсоединить от сервера.

Опять же, сам OpenStack «божится», что связь он уничтожил и теперь можно корректно работать с volume’ом отдельно. Но API категорически не желал производить операции над диском.


Здесь мы решили особенно не воевать, а изменить взгляд на логику работы сервиса. Уж коли есть instance, должен быть и системный volume. Поэтому пользователь пока не может удалить или отключить системный «диск», не удалив «сервер».

OpenStack — достаточно сложный комплекс систем со своей логикой взаимодействия и витиеватым API. Нас выручает достаточно подробная документация и, конечно, метод проб и ошибок (куда же без него).

Тестовый запуск
Тестовый запуск мы проводили в декабре прошлого года. Основной задачей ставили проверку в боевом режиме нашего проекта с технической стороны и со стороны UX. Аудиторию приглашали выборочно и тестирование было закрытым. Однако мы также оставили возможность запросить доступ к тестированию на нашем сайте.

Сам тест, разумеется, не обошелся без курьезных моментов, ведь на этом наши приключения только начинаются.

Во-первых, мы несколько некорректно оценили интерес к проекту и пришлось оперативно добавлять compute-ноды прямо во время теста. Обычный кейс для кластера, однако и тут были нюансы. В документации для конкретной версии TF указана конкретная версия ядра, на котором тестировалась работа с vRouter. Мы решили запускать ноды с более свежими ядрами. Как итог — TF не получил маршруты с нод. Пришлось экстренно откатывать ядра.


Другой курьез связан с функционалом кнопки «изменить пароль» в личном кабинете.

Мы решили использовать JWT для организации доступа в личный кабинет, чтобы не работать с сессиями. Так как системы разноплановые и широко разбросаны, мы управляем своим токеном, в который «заворачиваем» сессии от биллинга и токен от OpenStack’a. При изменении пароля токен, разумеется, «протухает», поскольку данные пользователя уже невалидны и его нужно перевыпускать.


Мы упустили этот момент из виду, а ресурсов, чтобы быстро дописать этот кусок, банально не хватило. Нам пришлось вырезать функционал перед самым запуском в тест.
На текущий момент мы выполняем logout пользователя, если пароль был изменен.

Несмотря на эти нюансы, тестирование прошло хорошо. За пару недель к нам заглянуло порядка 300 человек. Нам удалось посмотреть на продукт глазами пользователей, протестировать его в бою и собрать качественный фидбек.

Продолжение следует

Для многих из нас это первый проект подобного масштаба. Мы вынесли ряд ценных уроков о том, как работать в команде, принимать архитектурные и дизайнерские решения. Как с небольшими ресурсами интегрировать сложные системы и выкатывать их в продакшн.

Разумеется, есть над чем поработать и в плане кода, и на стыках интеграции систем. Проект достаточно молод, но мы полны амбиций вырастить из него надежный и удобный сервис.

Системы мы уже смогли уговорить. Билл послушно занимается подсчетом, выставлением счетов и запросами пользователей у себя в каморке. «Волшебство» вольфрамовых полей обеспечивает нас стабильной связью. И лишь OpenStack иногда капризничает, выкрикивая что-то вроде «'WSREP has not yet prepared node for application use». Но это совсем другая история…

Совсем недавно мы запустили сервис.
Все подробности вы можете узнать на нашем сайте.
clo.ru



OpenStack
docs.openstack.org/nova/latest/
docs.openstack.org/keystone/latest/
docs.openstack.org/cinder/latest/
docs.openstack.org/glance/latest/

Tungsten Fabric
docs.tungsten.io/en/latest/user/getting-started/index.html
www.juniper.net/documentation/en_US/contrail-cloud10.0/topics/concept/contrail-cloud-openstack-integration-overview.html

Для тех, кому не хватает VDS — новый сервис CLO



Сперва немного предыстории.
Осенью прошлого года мы проводили закрытое бета-тестирование нового сервиса, разработанного нашей командой. Так сказать, первый пробный запуск, после которого собрали фидбэк, проанализировали его, а затем работали над улучшением продукта…

И сегодня мы хотим поделиться отличной новостью — запуск этого сервиса состоялся! Итак, знакомьтесь.

Сервис CLO — это уже привычные для вас виртуальные серверы, но с расширенными облачными возможностями. Мы предлагаем готовое и доступное по цене решение, с помощью которого легко создавать собственную отказоустойчивую IT-инфраструктуру, и решать задачи, непосильные для обычного VDS.


В вашем распоряжении виртуальные KVM-серверы, которые по умолчанию объединяются в серую локальную сеть, переключаемые диски и плавающие IP, которые при необходимости «перебрасываются» с одного сервера на другой. Можно использовать и статический IP-адрес. На выбор предлагаются три операционные системы: Ubuntu, Centos и Debian.

CLO — это универсальный инструмент и умная альтернатива VDS, выделенным серверам и собственным дата-центрам. С его помощью можно легко и быстро оптимизировать работу интернет-магазина, гибко управляя ресурсами в дни сезонных спадов или Чёрную пятницу. Или создать безопасную среду для разработки и тестирования, настроить удобную систему хранения или обработки данных, поднять сервисы для организации удаленной работы.

Преимущества сервиса
Экономит время
Удобный Личный кабинет, в котором легко разобраться. Управление ресурсами централизованно.
Сокращает расходы
Платите только за те ресурсы, которыми пользуетесь. Оплата считается по часам.
Повышает надежность
Узлы кластера зарезервированы, а пользовательские данные дублируются, поэтому информация не потеряется.

Сервис построен на базе проверенных технологий: OpenStack, Tungsten Fabric, Ceph, которые позволяют создавать гибкие и отказоустойчивые облачные решения.


Посмотреть тарифы и зарегистрироваться в сервисе можно на сайте clo.ru
clo.ru