Как защитить интерфейс и код приложения



Как защитить интерфейс и код приложения?
Вы и ваша команда упорно трудились над созданием собственного приложения. Теперь вы справедливо обеспокоены не менее важным вопросом: как защитить ваш интерфейс и название от копирования? Максимально просто и понятно рассказываем о том, как закрепить свои права и не подарить оригинальные наработки конкурентам — в подробном разборе вопросов защиты интеллектуальных прав на приложения от наших друзей, компании Онлайн Патент.
onlinepatent.ru/faq/common/kak-zaschitit-prilozhenie/

Тот случай, когда больше — значит лучше
Наилучшим вариантом получения исключительных прав на приложение является комплексная защита всех его элементов:
1. Товарный знак — защищает название приложения и его логотип
в магазине (теперь ни одно «похожее» приложение не пройдет).
2. Патент на промышленный образец — охраняет интерфейс приложения от прямого копирования.
3. Изобретение — обеспечивает вам исключительные права на уникальный способ работы приложения (алгоритм).
4. Программа для ЭВМ — фиксирует права компании (или разработчиков) на исходный код.
Как избежать распространённых ошибок при подготовке к защите приложения — читайте также в рекомендациях.

Самое важное и интересное
Конечно, не всегда есть возможность защитить сразу все элементы приложения, поэтому вы можете начать с самого простого — с регистрации товарного знака. До 17 февраля 2020 года для вас действуют специальные условия: скидка 1500 рублей по промокоду 1500PROTECT на подготовку и подачу заявки на регистрацию любого объекта из списка выше.
my.onlinepatent.ru/client/registration

Рассказываем, что сделали для Вас в 2019 году


По старой традиции мы подводим итоги года и рассказываем, что сделали для Вас в 2019 году, возможно Вы что-то пропустили.
  • Весь 2019 год мы занимались улучшением нашего сервиса. Для Вашего удобства, мы запустили сразу 5 новых гермозон в России и в мире: в Санкт-Петербурге, Казани, Франкфурте, Екатеринбурге, и буквально на днях открывается новая гермозона в Новосибирске. Теперь у RUVDS 9 площадок в мире: cобственный дата-центр уровня TIER III в г. Королеве, Московская область, а также гермозоны в дата-центрах в Цюрихе Interxion ZUR1 (Швейцария), Лондоне Equinix LD8 (Великобритания), Москве ММТС-9 (Россия), Санкт-Петербурге Linxdatacenter (Россия), Казани IT Park (Россия), Екатеринбурге «Дата Центр Екатеринбург» (Россия), Франкфурте Telehouse (Германия) и в Новосибирске ДЦ “Калининский” (Россия). Все дата-центры являются высоконадежными площадками и соответствуют уровню надежности не ниже TIER III.
  • В 2019 году мы кардинальным образом изменили работу технической поддержки. Помимо новой, полностью кастомизированной тикет-системы, мы значительно увеличили штат всех уровней поддержки, отказались от аутсорсинга первой линии и перешли на честные 24/7. Всё это уменьшило время обработки и ответа на Ваши входящие сообщения в разы.
  • Для виртуальных серверов на ОС Linux стали доступны образы с предустановленной панелью управления Plesk и cPanel, до 31 января 2020 года панель Plesk будет бесплатной для всех новых серверов.
  • В дата-центре RUCLOUD теперь Вы можете подключить видеокарту к виртуальному серверу (доступно только для “Мощного” процессора).
  • В личном кабинете рядом с IP адресом сервера появилась кнопка “Настроить файрвол”. С ее помощью можно изменить правила фильтрации к входящему сетевому трафику до попадания на Ваш сервер, а к исходящему трафику после выхода с Вашего сервера.
  • Чтобы Вы могли мониторить и управлять Вашими серверами с любимых мобильных устройств, мы подготовили мобильные приложения под ОС Android и IOS.

Все это помогло сделать наш сервис лучше и надежнее, наши заслуги также признали и в CNews Analytics. В новом рейтинге крупнейших поставщиков IaaS в России, RUVDS занял 16 место, поднявшись на 3 пункта с прошлого года.

А 2019 год запомнится нам интересными мероприятиями. В феврале мы провели закрытую презентацию Cloudrussia Interactive Course совместно с партнёрами из Huawei. На день Космонавтики запустили сервер в стратосферу, он поднялся на высоту 27 км и во время полёта раздавал интернет, снимал и передавал видео и данные телеметрии на землю. Мы познакомились с легендарными гейм дизайнерами и разработчиками компьютерных игр с Ричардом Levelordом (дизайнер Duke Nukem), Рэнди Питчфордом (SEO GearBox), Джоном Ромеро (разработчик и дизайнер Doom), которые рассказали клиентам RUVDS о том, как были созданы самые известные компьютерные хиты 90-х.

Благодарим Вас за то, что выбрали RUVDS и надеемся на продолжение сотрудничества в Новом 2020 году. Желаем Вам успехов в реализации намеченных планов.
Ваш поставщик IT-услуг, коллектив компании RUVDS.

ruvds.com/

Best Wishes for 2020



Уважаемый клиент, дорогой партнер, дорогой облако наездник, мы желаем всем вам отличный и успешный 2020 год.

В этом году, Scaleway продолжает переход к облаку, с вашим соответствием устанавливается в качестве первоочередной задачи. В самом деле, мы делаем все возможное, чтобы предложить вам уникальный выбор экспертов и профессиональных инфраструктур.

С одной стороны, мы будем продолжать обогащать Scaleway элементы, наши облачных вычислений экосистемы. С другой стороны, Интернет по Scaleway и Scaleway Datacenter будет продолжать развиваться в правильном направлении.

Все это приведет к многим новых услуг, еще более гладкому пользовательского опыта, больше опций и художественной сочетаемости и открытию новых доступности зон на новых рынках.
Мы также будем продолжать развивать наши продукты, с обязательством и страстью, чтобы наилучшим образом соответствовать вашим ожиданиям через многочисленные беты. Перед запуском, вы всегда будете иметь возможность протестировать функциональные возможности продукта, участвуя в ее разработке и эволюции на различных этапах испытаний.

Мы также предлагаем вам новейшее оборудование на рынке, а также целевые технологические инновации. Следите за более предстоящие объявления…

2020 будут определены многочисленные встречи и регулярные взаимодействия со всеми вами. Мы будем вводить новые опросы, чтобы собрать свои ценные мнения и организовывать разнообразно тематические клубы пользователей и даже больше событий клиента в Лилле, Париже и других новых направлениях!

Правда в нашу ДНК, мы будем продолжать общаться прозрачно о нашей компании и поделиться с вами опытом женщин и мужчин, которые делают Scaleway исключительных человека приключения.
Мы искренне благодарим вас за вашу верность, что для некоторых в настоящее время превышает 20 лет, за ваш энтузиазм и как rapidely вы принимаете наши продукты.

Благодарим Вас за доверие, оказанное нам в 2019 году, и продолжает доверять нам в 2020 году.
Мы желаем Вам всего самого наилучшего и счастливого Нового года всем вам,
В Scaleway Команды

Linode запускает бесплатную расширенную защиту от DDoS в глобальной сети



Мощная комбинация технологии автоматической защиты от угроз и широких возможностей по снижению риска может блокировать или задерживать крупномасштабные DDoS-атаки.

ФИЛАДЕЛЬФИЯ, 24 января 2020 г. — Linode, крупнейший в мире независимый провайдер облачных услуг, сегодня объявил о расширенной защите в своей глобальной сети из 11 центров обработки данных, чтобы смягчить воздействие распространяющихся и дорогостоящих атак типа «отказ в обслуживании» (DDoS). Как и в случае с другими критически важными сервисами, Linode делает этот дополнительный уровень защиты бесплатным для каждого из своих клиентов, независимо от того, большой он или маленький.

Повышение уровня DDoS-атак на каждом уровне Интернета сделало защиту от DDoS обязательной первой линией защиты для предприятий, работающих с облачными нагрузками. Эти атаки привели к экономическим потерям в сотни миллиардов долларов во всем мире и остаются серьезной проблемой для многих облачных провайдеров и их клиентов. Компания Linode реагирует на эти постоянные угрозы, вкладывая значительные средства в создание передовых возможностей по предотвращению DDoS-атак, которые сегодня представляют собой одну из самых передовых мер защиты сети в отрасли.

DDoS-атаки представляют собой явную опасность для любого, кто сегодня занимается бизнесом в облаке. Мы вложили значительные средства в способность смягчать эти атаки в нашей глобальной сети и создали прогностические технологии, необходимые для автоматического обнаружения и нейтрализации угроз на границе нашей сети, прежде чем они смогут повлиять на обслуживание. В сочетании с нашим скорым выпуском облачного брандмауэра мы даем клиентам усовершенствования, которые им необходимо масштабировать с уверенностью
сказал Дэн Спатаро, директор по инфраструктуре Linode

Объемные атаки являются наиболее распространенным типом DDoS-атак, виртуальным эквивалентом преднамеренного создания пробки из-за затопления шоссе с большим количеством автомобилей, чем он может выдержать. Усовершенствованная система защиты от DDoS от Linode способна противостоять атакам, которые превышают все известные на сегодняшний день в отрасли, без увеличения задержки и маршрутизации трафика клиента третьей стороне, применяя поведенческие алгоритмы в реальном времени, которые обнаруживают и блокируют объемный трафик до он достигает инфраструктуры клиента. Когда угроза обнаружена, Linode блокирует атаку на линии, а затем распределяет увеличенный трафик по своей глобальной оптоволоконной магистрали. Новая возможность была разработана для того, чтобы дополнительно минимизировать любое влияние на сервисы клиента путем решения широкого спектра методов DDoS-атак, включая UDP, SYN, HTTP-потоки и многое другое.


Добавление усовершенствованных средств защиты от DDoS-атак отличает Linode от других альтернативных облачных провайдеров, которые взимают или не предлагают этот уровень защиты.

Linode была известна качеством и производительностью сети, которую она построила за последние 16 лет. Продолжение добавления таких возможностей, как защита от DDoS, — это то, насколько мелкие, ориентированные на клиента поставщики облачных услуг предоставляют разработчикам и компаниям, с которыми они работают, надежные альтернативы крупным поставщикам общедоступных облаков
сказал Лиам Игл, вице-президент по исследованиям в 451 Research.

Для получения дополнительной информации о Linode и его новой усовершенствованной защите от DDoS, посетите linode.com/ddos

О Линоде
Linode ускоряет инновации, делая облачные вычисления простыми, доступными и доступными для всех. Основанная в 2003 году, компания Linode помогла стать пионером в отрасли облачных вычислений и сегодня является крупнейшим независимым поставщиком открытых облачных вычислений в мире. Штаб-квартира находится в Старом городе Филадельфии, и в ее глобальной сети, состоящей из 11 центров обработки данных, работают более миллиона разработчиков, стартапов и компаний.

https://www.linode.com

От 15 000 подключений к базам данных до 100: история о долговых обязательствах DigitalOcean

Недавно за обедом меня попросил новый сотрудник: «Как выглядит технический долг DigitalOcean?»

Я не мог удержаться от улыбки, когда услышал вопрос. Инженеры-программисты, спрашивающие о техническом долге компании, равносильны задаче о кредитном балле. Это их способ оценить сомнительное прошлое компании и то, какой багаж они несут. И DigitalOcean не привыкать к техническому багажу.

Как поставщик облачных услуг, который управляет нашими собственными серверами и оборудованием, мы столкнулись с трудностями, с которыми многие другие стартапы не сталкивались в эту новую эру облачных вычислений. Эти сложные ситуации в конечном итоге привели к компромиссам, которые мы должны были сделать в самом начале нашего существования. И, как известно любой быстро растущей компании, технические решения, которые вы принимаете на раннем этапе, как правило, догоняют вас позже.

Глядя на новый прокат через стол, я глубоко вздохнул и начал. «Позвольте мне рассказать вам о времени, когда у нас было 15 000 прямых подключений к нашей базе данных…»


История, которую я рассказал нашему новобранцу, — это история крупнейшей на сегодняшний день технической реархитектуры DigitalOcean. Это было усилие всей компании, которое длилось несколько лет и преподало нам много уроков. Надеюсь, что это поможет будущим разработчикам DigitalOcean — или любым разработчикам, попавшим в непростую головоломку с техническими проблемами.

С чего все началось
DigitalOcean был одержим простотой с самого начала. Это одна из наших основных ценностей: стремиться к простым и элегантным решениям. Это относится не только к нашей продукции, но и к нашим техническим решениям. Нигде это так заметно, как в нашей первоначальной конструкции системы.

Как и GitHub, Shopify и Airbnb, DigitalOcean была запущена как приложение Rails в 2011 году. Приложение Rails, внутренне известное как Cloud, управляло всеми взаимодействиями пользователей как в пользовательском интерфейсе, так и в открытом API. В оказании помощи Rails работали две службы Perl: планировщик и DOBE (DigitalOcean BackEnd). Планировщик планировал и назначал Droplets гипервизорам, а DOBE отвечал за создание реальных виртуальных машин Droplet. В то время как облако и планировщик работали как отдельные службы, DOBE работал на каждом сервере в парке.

Ни Cloud, ни Scheduler, ни DOBE не общались напрямую друг с другом. Они общались через базу данных MySQL. Эта база данных выполняла две функции: хранение данных и посредничество в общении. Все три службы использовали одну таблицу базы данных в качестве очереди сообщений для передачи информации.

Каждый раз, когда пользователь создавал новую каплю, Cloud вставлял новую запись события в очередь. Планировщик непрерывно опрашивает базу данных каждую секунду на предмет новых событий Droplet и планирует их создание на доступном гипервизоре. Наконец, каждый экземпляр DOBE будет ожидать создания новых запланированных капель и выполнения задачи. Чтобы эти серверы могли обнаружить какие-либо новые изменения, каждый из них должен будет опросить базу данных на предмет новых записей в таблице.


Хотя бесконечные циклы и предоставление каждому серверу прямого подключения к базе данных, возможно, были элементарными с точки зрения проектирования системы, это было просто, и это работало — особенно для технической команды с небольшим персоналом, работающей в сжатые сроки и быстро растущей пользовательской базы.

В течение четырех лет очередь сообщений базы данных составляла основу технологического стека DigitalOcean. В течение этого периода мы приняли микросервисную архитектуру, заменили HTTPS на gRPC для внутреннего трафика и вытеснили Perl в пользу Golang для внутренних сервисов. Однако все дороги все еще вели к этой базе данных MySQL.

Важно отметить, что просто потому, что что-то является «наследием», не означает, что оно не функционирует и должно быть заменено. Bloomberg и IBM имеют устаревшие сервисы, написанные на Fortran и COBOL, которые приносят больший доход, чем целые компании. С другой стороны, каждая система имеет предел масштабирования. И мы собирались ударить наших.

С 2012 по 2016 год пользовательский трафик DigitalOcean вырос более чем на 10 000%. Мы добавили больше продуктов в наш каталог и услуг для нашей инфраструктуры. Это увеличило вход событий в очередь сообщений базы данных. Повышенный спрос на Droplets означал, что планировщик работал сверхурочно, чтобы назначить их всем серверам. И, к сожалению, для Планировщика, количество доступных серверов не было статичным.


Чтобы не отставать от возросшего спроса на капли, мы добавляли все больше и больше серверов для обработки трафика. Каждый новый гипервизор означал другое постоянное соединение с базой данных. К началу 2016 года база данных имела более 15 000 прямых соединений, каждое из которых запрашивало новые события каждые одну-пять секунд. Если это было не так уж плохо, SQL-запрос, который каждый гипервизор использовал для извлечения новых событий Droplet, также усложнялся. Он стал колоссом длиной более 150 строк и присоединился к 18 столам. Это было столь же внушительно, как это было ненадежно и трудно поддержать.

Неудивительно, что именно в этот период начали появляться трещины. Единственная точка отказа с тысячами зависимостей, захваченных общими ресурсами, неизбежно приводила к периодам хаоса. Блокировки таблиц и задержки запросов привели к сбоям и снижению производительности.

И из-за тесной связи в системе не было четкого или простого решения проблем. Облако, планировщик и DOBE — узкие места. Исправление только одного или двух компонентов только сместит нагрузку на оставшиеся узкие места. Поэтому после долгих размышлений инженерный персонал разработал трехэтапный план исправления ситуации:
  • Уменьшить количество прямых соединений с базой данных
  • Алгоритм ранжирования Refactor Scheduler для повышения доступности
  • Освободить базу данных от своих обязанностей в очереди сообщений
  • Рефакторинг начинается
Чтобы справиться с зависимостями базы данных, инженеры DigitalOcean создали Event Router. Маршрутизатор событий выполнял роль регионального прокси-сервера, который опрашивал базу данных от имени каждого экземпляра DOBE в каждом центре обработки данных. Вместо тысяч серверов, каждый из которых запрашивает базу данных, будет только несколько прокси, выполняющих запросы. Каждый прокси-сервер Event Router будет извлекать все активные события в определенном регионе и делегировать каждое событие соответствующему гипервизору. Event Router также разбил гигантский опросный запрос на те, которые были меньше и проще в обслуживании.


После запуска Event Router количество подключений к базе данных сократилось с 15 000 до менее 100.

Далее инженеры нацеливаются на следующую цель: планировщик. Как упоминалось ранее, Scheduler был Perl-скриптом, который определял, какой гипервизор будет содержать созданную каплю. Это было сделано с помощью ряда запросов для ранжирования и сортировки серверов. Каждый раз, когда пользователь создавал дроплет, планировщик обновлял строку таблицы, выбирая лучший компьютер.

Хотя это звучит достаточно просто, у Scheduler было несколько недостатков. Его логика была сложной и сложной для работы. Он был однопоточным, и его производительность пострадала во время пиковой нагрузки. Наконец, был только один экземпляр планировщика — и он должен был обслуживать весь флот. Это было неизбежное узкое место. Чтобы решить эти проблемы, команда разработчиков создала Scheduler V2.

Обновленный планировщик полностью обновил систему ранжирования. Вместо того, чтобы запрашивать базу данных для метрик сервера, он собирал их из гипервизоров и сохранял их в своей собственной базе данных. Кроме того, команда планировщика использовала параллелизм и репликацию, чтобы сделать свою новую службу эффективной под нагрузкой.

Event Router и Scheduler v2 были большими достижениями, которые устраняли многие архитектурные недостатки. Несмотря на это, было явное препятствие. Централизованная очередь сообщений MySQL все еще использовалась — даже суетливо — к началу 2017 года. Она обрабатывала до 400 000 новых записей в день и 20 обновлений в секунду.

К сожалению, удаление очереди сообщений базы данных было нелегким делом. Первым шагом было предотвращение прямого доступа к сервисам. База данных нуждалась в уровне абстракции. И ему нужен API для агрегирования запросов и выполнения запросов от его имени. Если какой-либо сервис хочет создать новое событие, он должен сделать это через API. И вот, Гарпун родился.

Однако создание интерфейса для очереди событий было легкой задачей. Получить бай-ин от других команд оказалось сложнее. Интеграция с Harpoon означала, что командам придется отказаться от доступа к базе данных, переписать части своей кодовой базы и в конечном итоге изменить то, как они всегда делали что-то. Это было нелегко продать.

Команда за командой и сервис за сервисом, инженеры Harpoon смогли перенести всю кодовую базу на свою новую платформу. Это заняло лучшую часть года, но к концу 2017 года Harpoon стал единственным издателем в очереди сообщений базы данных.

Теперь настоящая работа началась. Полный контроль над системой событий означал, что у Harpoon была возможность заново изобрести рабочий процесс Droplet.

Первая задача Гарпуна состояла в том, чтобы извлечь из базы данных обязанности очереди сообщений. Для этого Harpoon создал собственную внутреннюю очередь сообщений, состоящую из RabbitMQ и асинхронных рабочих. Когда Гарпун выдвинул новые события в очередь с одной стороны, рабочие вытянули их с другой. И так как RabbitMQ заменил очередь базы данных, работники могли свободно общаться непосредственно с Планировщиком и Маршрутизатором событий. Таким образом, вместо того, чтобы Scheduler V2 и Event Router опрашивали новые изменения в базе данных, Harpoon отправлял обновления прямо в них. На момент написания статьи в 2019 году именно здесь находится архитектура событий Droplet.


За последние семь лет DigitalOcean выросла из корней гаражных групп в признанного поставщика облачных услуг, которым она является сегодня. Как и другие переходные технологические компании, DigitalOcean регулярно занимается устаревшим кодом и техническими долгами. Независимо от того, разбиваете ли вы монолиты, создаете многорегиональные сервисы или устраняете отдельные точки отказа, мы, инженеры DigitalOcean, всегда работаем над созданием элегантных и простых решений.

Я надеюсь, что эта история о том, как наша инфраструктура масштабировалась с нашей базой пользователей, была интересной и яркой. Я хотел бы услышать ваши мысли в комментариях ниже!

https://www.digitalocean.com

Повышение производительности с помощью балансировщиков нагрузки Vultr



Мы рады сообщить, что Vultr Load Balancers доступны с сегодняшнего дня. Доступно во всех 16 регионах центров обработки данных, добавление высокой доступности и масштабирование ваших приложений по всему миру стало еще проще с Vultr Load Balancers! Используя наше полностью сконфигурированное решение, вы можете упростить управление растущими приложениями, не управляя собственной инфраструктурой балансировки нагрузки.

Избыточная архитектура обеспечивает гибкий способ добавления мониторинга работоспособности и высокой доступности ваших приложений с легкостью. Вы также можете легко масштабировать свои приложения и услуги по горизонтали и удовлетворять растущие потребности всего несколькими щелчками мыши. Самое главное, что все ваши кластеры балансировки нагрузки могут легко управляться с помощью нашего удобного пользовательского портала и API Vultr.

Балансировщики нагрузки Vultr предоставляют множество функций в одном удобном пакете, в том числе:
  • Несколько алгоритмов балансировки трафика
  • Поддержка TCP, HTTP и HTTPS.
  • Проверка работоспособности, чтобы убедиться, что трафик направляется только на исправные узлы.
  • Автоматическое аварийное переключение, поэтому вам не нужно беспокоиться о простоях
  • Подробные метрики кластера

Хотя мы включили много функций в наш первоначальный выпуск, дополнительные обновления будут добавлены в ближайшее время. В ближайшие недели мы добавим поддержку IPv6, SSL через Lets Encrypt, поддержку нашего клиента Go и JavaScript, а также terraform и vultr-cli, дополнительные протоколы и многое другое!

Готовы начать? Посетите страницу балансировщиков нагрузки, чтобы развернуть свою собственную. Вы также можете ознакомиться с нашей документацией по балансировщикам нагрузки, в которой объясняется, как работают балансировщики нагрузки.
www.vultr.com/products/load-balancers/
www.vultr.com/docs/vultr-load-balancers

http://www.vultr.com

Managed Databases в Selectel: приглашаем в бету



Сегодня мы представляем открытую для тестирования бета-версию Managed Databases для PostgreSQL, использование которой будет бесплатным на период бета-тестирования.

Базы данных — один из наиболее значимых и сложных компонентов любой информационной системы или приложения. Процессы создания, конфигурации баз данных и управления ими, выполняемые вручную, могут занимать недели или даже месяцы.

С ростом бизнеса, что ведет за собой рост инфраструктуры, требуется обеспечивать масштабируемость баз данных. При этом, их надежность и отказоустойчивость ставятся на первое место, ведь от этого зависит доступность оказываемого сервиса. Реализация этих требований отнимает драгоценное время на решение бизнес-задач и развитие ваших приложений. К тому же, у компании не всегда есть время, деньги и квалифицированные специалисты для решения этих задач.

Вот почему мы решили создать полностью автоматизированный сервис по управлению базами данных Managed Databases, благодаря которому вы сможете сфокусироваться на развитии вашего бизнеса, а не на обслуживании инфраструктуры.

selectel.ru/blog/dbaas-beta/