Основные условия:
Панель должен поддерживать дата-центр
Следит за обновлениями панели дата-центр
В панель можно добавлять серверы дата-центра
В панель можно добавлять как собственные серверы дата-центра, привезенные на коло, так и просто арендованные серверы в этом же дата-центре.
В панели можно завести карточку под клиента.
Клиент в панели имеет возможность арендовывать/приводить серверы, любое оборудование короче, оно добавляется ему в расходы уже в биллинге где-то ДЦ, а так же все это оборудование отображается в панели, по мере надобности.
На базе панели ведь можно строить абсолютно разные модели хостинга или бизнес облаков даже. Поэтому и разные запчасти потребуются.
Например, клиент хостер, просто арендует серверы, ничего лишнего, все просто. Так вот он арендует 2 дедика, арендует пару сетей на эти дедики. И панель от дата-центра ему настраивает там и добавляет эти 2 заказа в этот xaas сервис.
Клиент хостер видит в своей карточке 2 узла, ip адреса. И у него есть там кнопочка создать VM с любого из этих узлов. А так же он может создать пользователя этой же панели, но который по уровням доступа/ролям будет находиться как саб-пользователь этого нашего клиента. И вот короче он создает саб-пользователя, потом тыкает в его настройки, и там назначает ему VM машину или несколько VM машин. Или например ставит галочку что саб-пользователь может сам создавать VM машины с какого-то из узлов, узлы просто галочками например выбираются с которых ему разрешено создавать.
Далее логинимся под саб-пользователем. Там человек может перезагрузить VM, переустановить ОС, загрузить свой ISO образ. Или если ему разрешено — создать VM с разрешенных узлов. В принципе это самый базовый функционал и больше нихуя не нужно для старта идеи. Чтобы начать копить.
Рассмотрим другой пример.
Выше описанный пример это пример хостера бомжа без денег, только начинающего продажи.
А теперь допустим какой-то хостер имеет бабки. Он сразу арендовывает 20 серверов с процессорами. И еще 5 серверов с хранилищами, дата-центр собираем ему там CEPH массив и тоже — добавляет в эту панель.
Все остальное происходит точно так же как описал я.
Еще один пример. Какой-то хостер еще более крупный. Привозит на коло стойку или пару стоек серверов. И дата-центр снова под заказ делает все что нужно. И собирает этот кластер и добавляет опять же в эту единную панель. Все остальное опять одинаковое.
Следующий пример. Почему обязательно хостер? Может быть какой-то офис или бизнес привез серверы или арендовал серверы. И ему тоже нужно облако из виртуалок поднять. Может быть по простому где 1 сервер 1 узел и локальные ssd. А может быть ему тоже нужно создать ceph кластер какой-ниб. И дата-центр снова делает, снова добавляет в панель.
И вот такие клиенты начинают копиться.
С годами их становиться все больше и больше.
И кто-то наверняка ОТКАЖЕТСЯ потом, перестанет оплачивать ) И вот тут самое интересное.
Есть alice2k, который создает сообщество под эту идею. И начинает вести учет людей. Внутри сообщества все интернет хостеры общаются между собой. Каждый под своим брендом и доменом раскручивает эту панель от дата-центра.
А когда кто-то ломается, банкротится. Он под гарантии alice2k — продает свой бизнес или бесплатно отдает даже.
И в панели биллинга дата-центра — просто меняется владелец, который будет оплачивать.
ВСЕ нахуй.
Не нужно никаких миграций проводить.
В панели xaas нужно просто сменить владельца у всех саб-пользователей и сменить владельца у всех арендованных серверов/узлов. И все продолжает работать как ни в чем ни бывало.
Точно так же на сообществе например появляется и сам представитель дата-центра и панели.
И он начинает курировать уже не другие отделения. Например те направления которые не являются интернет-хостерами. И так же потом он занимается переназначением владельцев.
А благодаря сообществу и взаимопомощи, начинают приходить новые хостинги. Которые тоже хотят присоединиться к наполнению этой панели и встроиться в систему.
Начинают приходить разные локации и дата-центры. Это уже более глобальная идея панели xaas. Сначала она построена просто на базе одного ДЦ. А потом, если ДЦ захочет развивать ее выше — начинают подключаться и другие дата-центры, так же с своими представителями.
И все варятся в одной системе.
Через интернет сообщество. Точки продаж сайты хостеров и прочие биллинги. Начинают создавать топики, мы хотим расшить продажи, нам нужна европа, нужна NL, нужна UK, может быть UA нужна, может быть SGP может быть US. И другие представители начинают говорить — вот смотрите у нас уже имеются свои «клиенты-хостеры» которые пилят на базе нашего ДЦ свои виртуалки, так же через эту единную панель. Можете обсудить с ними. И начинается партнерство. Одни платят другим и перепродают.
А доступы меняются только в единной панели. Не нужно создавать никаких новых регистраций. Не нужно создавать никаких новых облаков. Все взаимосвязано.
И я готов построить такое сообщество — рынок интернета. Мне нужна лишь панель.
VMmanager можно автоматизировать только в собственном ДЦ, на сетях уровня 1024 и выше
Покупая в аренду серверы, где на каждом сервере фиксированные сети. Хуй ты там что автоматизируешь.
Либо делать без узлов. А делать 1 панель VM — 1 сервер — 1 обработчик — 1 тариф.
А если ты сделаешь 1 панель VM в которой 50 узлов с 50 разными серверами и на каждом из 50 своя сетка — 1 обработчик — 1 тариф. То короче IP начнут рандомно с левых серверов вообще браться.
Поэтому — мы продаем вручную. Потому что мы делаем узлами, т.к. так дизайнерски красивее и моднее.
Ну и вообще.
Чтобы реально поставить VM на бизнес модель.
Чтобы 10 лет копить услуги без гемороя, без проблем. Как устраивает VMmanager постоянно заставляя клиента перекатываться.
Нужен только надежный партнер — ДЦ.
Никак не метод «аренды сервера в ДЦ».
Те статьи которые я писал в 2018 году на hostsuki.pro про xaas сервисы, панели и прочее.
Даже если будет автоматизация. Расти и достигать хороших бизнес высот — невозможно при текущем подходе.
Нужна только удобнейшая гибкая панель. Которой можно было бы довериться и приводить туда клиентов всю свою жизнь. Чтобы не было казусов типо дебиан больше не поддерживаем, только центос. Чтобы дата-центр сам поддерживал эту панель. И чтобы хостинги строились внутри этой экосистемы. Чтобы когда 1 хостер сдался, он мог безболезнено отдать клиентов «панели/системе/другим-хостерам». Чтобы не приходилось заниматься миграцией любого рода, а просто в этой панели сменить одного владельца на другого просто роль изменить. Поэтому там и можно было бы копить услуги. Потому что они бы только копились, а не уничтожались постоянно «с нуля» по каким либо причинам, например по причине v5 v6 или по причине дебиан-центос, или по причине хостер банкротится, делаем перенос на другого хостера. В экосистеме — все едино на базе ДЦ. И там все в два клика менятеся в панели, но физически остается как было.
В общем выбирайте складчик если нужны недорогие виртуалки.
спасибо за комплимент
но я не хочу чтобы аудитория черни полезла ко мне.
поэтому сразу напишу комментарий.
мы тоже баним всех подозрительных людей. за что угодно.
с ОВХ можно работать только так — пришла жалоба, тут же забанил удалил, наскринил что прогнал клиента и ответил в абуз отдел.
сам абуз отдел овх никогда в жизни не отвечает, устроил ли их твой ответ или не устроил.
если не банить 100% жалоб — абуз отдел забанит уже тебя и весь аккаунт с доменами, серверами, облаками, не важно хоть сотни серверов там. из-за 3 евровой бомж виртуалки, ОВХ легко может послать нахуй клиента и на 5000 евро. потому что это массовый ДЦ. когда-то они даже 20к евро выгнали.
так что работая с дешевыми виртуалками — нужно банить постоянно всех. только так можно выживать в ОВХ.
там не существует такого понятия как оспорить или обсудить жалобу, можно лишь забанить, удалить, и надеяться что последствий не будет.
конечно 1000р за разблокировку мы не берем. потому что работа сотрудников у нас никак не оплачивается и все добровольно тратят время на тикеты, создания, удаления вдс и ответы на саппорт — все это просто по доброте душевной.
но баним очень жестко людей. по любым причинам. иначе забанят уже нас :)
все честно в правилах написано.
а еще складчик убыточный.
плюс созданный от балды ради эксперимента и доказательства, что самопал может быть качественным.
так что мы тоже ничего не гарантируем. просто по каким-то причинам у нас ничего не падает. мы даже не знаем как отслеживать нагрузку. мы даже не знали что такое вес io, и до сих пор не знаем как работает KVM. но как видишь, мы не баним за нагрузку, но все как-то уже 4 года само работает )) и никто не жалуется, а еще и хвалит.
и на удивление у нас не было не одного падения, только когда VMmanager обновлялось с дебианов на центосы, т.к. разработчик больше не поддерживает дебианы.
и самый парадокс как раз в том, что у нас не сгорел еще не один диск даже. хотя мы пилим часть виртуалок даже без raid, даже на 1 диске, где если он сгорит то 100% потеря данных будет. это конечно лишь малая часть, но такие у нас тоже имеются.
когда я в 2010-2013 пользовался VPS хостингами, они постоянно мазались что у них все горит. когда же я начал продавать hetzner дедики тысячами у меня тоже ничего не горело, хотя раньше был слух типо там некачественные диски.
но как ты понял со скринов.
содержание складчика обходится мне достаточной кровью. не финансовой, а скорее моральной.
только из-за того что я люблю качественно работать, а другие хостеры любят пилить деньги компаний себе на зар плату. поэтому собственно такие и отличия. и именно поэтому складчик до сих пор на плаву. как бизнес модель он абсолютно провальный.
но как доказательство честных услуг — неплохо себя показал.
вот это я понимаю идеальное облако
до 48 ядер по часам
как раз те самые 5 дней как описывал, когда какой-то чел тестирует игру, зайдет ли она или нет
если зайдет — он потом купит дедик уже на заработанные за 5 дней донаты.
такое не для меня точно ) ходить в ДЦ что-то там пересобирать самому. даже при условии если бы я жил в том же городе что и дц. а так у меня невыполнимо это, т.к. я из сибири где ничего нет.
и таких людей как я — полно.
Основные условия:
Панель должен поддерживать дата-центр
Следит за обновлениями панели дата-центр
В панель можно добавлять серверы дата-центра
В панель можно добавлять как собственные серверы дата-центра, привезенные на коло, так и просто арендованные серверы в этом же дата-центре.
В панели можно завести карточку под клиента.
Клиент в панели имеет возможность арендовывать/приводить серверы, любое оборудование короче, оно добавляется ему в расходы уже в биллинге где-то ДЦ, а так же все это оборудование отображается в панели, по мере надобности.
На базе панели ведь можно строить абсолютно разные модели хостинга или бизнес облаков даже. Поэтому и разные запчасти потребуются.
Например, клиент хостер, просто арендует серверы, ничего лишнего, все просто. Так вот он арендует 2 дедика, арендует пару сетей на эти дедики. И панель от дата-центра ему настраивает там и добавляет эти 2 заказа в этот xaas сервис.
Клиент хостер видит в своей карточке 2 узла, ip адреса. И у него есть там кнопочка создать VM с любого из этих узлов. А так же он может создать пользователя этой же панели, но который по уровням доступа/ролям будет находиться как саб-пользователь этого нашего клиента. И вот короче он создает саб-пользователя, потом тыкает в его настройки, и там назначает ему VM машину или несколько VM машин. Или например ставит галочку что саб-пользователь может сам создавать VM машины с какого-то из узлов, узлы просто галочками например выбираются с которых ему разрешено создавать.
Далее логинимся под саб-пользователем. Там человек может перезагрузить VM, переустановить ОС, загрузить свой ISO образ. Или если ему разрешено — создать VM с разрешенных узлов. В принципе это самый базовый функционал и больше нихуя не нужно для старта идеи. Чтобы начать копить.
Рассмотрим другой пример.
Выше описанный пример это пример хостера бомжа без денег, только начинающего продажи.
А теперь допустим какой-то хостер имеет бабки. Он сразу арендовывает 20 серверов с процессорами. И еще 5 серверов с хранилищами, дата-центр собираем ему там CEPH массив и тоже — добавляет в эту панель.
Все остальное происходит точно так же как описал я.
Еще один пример. Какой-то хостер еще более крупный. Привозит на коло стойку или пару стоек серверов. И дата-центр снова под заказ делает все что нужно. И собирает этот кластер и добавляет опять же в эту единную панель. Все остальное опять одинаковое.
Следующий пример. Почему обязательно хостер? Может быть какой-то офис или бизнес привез серверы или арендовал серверы. И ему тоже нужно облако из виртуалок поднять. Может быть по простому где 1 сервер 1 узел и локальные ssd. А может быть ему тоже нужно создать ceph кластер какой-ниб. И дата-центр снова делает, снова добавляет в панель.
И вот такие клиенты начинают копиться.
С годами их становиться все больше и больше.
И кто-то наверняка ОТКАЖЕТСЯ потом, перестанет оплачивать ) И вот тут самое интересное.
Есть alice2k, который создает сообщество под эту идею. И начинает вести учет людей. Внутри сообщества все интернет хостеры общаются между собой. Каждый под своим брендом и доменом раскручивает эту панель от дата-центра.
А когда кто-то ломается, банкротится. Он под гарантии alice2k — продает свой бизнес или бесплатно отдает даже.
И в панели биллинга дата-центра — просто меняется владелец, который будет оплачивать.
ВСЕ нахуй.
Не нужно никаких миграций проводить.
В панели xaas нужно просто сменить владельца у всех саб-пользователей и сменить владельца у всех арендованных серверов/узлов. И все продолжает работать как ни в чем ни бывало.
Точно так же на сообществе например появляется и сам представитель дата-центра и панели.
И он начинает курировать уже не другие отделения. Например те направления которые не являются интернет-хостерами. И так же потом он занимается переназначением владельцев.
А благодаря сообществу и взаимопомощи, начинают приходить новые хостинги. Которые тоже хотят присоединиться к наполнению этой панели и встроиться в систему.
Начинают приходить разные локации и дата-центры. Это уже более глобальная идея панели xaas. Сначала она построена просто на базе одного ДЦ. А потом, если ДЦ захочет развивать ее выше — начинают подключаться и другие дата-центры, так же с своими представителями.
И все варятся в одной системе.
Через интернет сообщество. Точки продаж сайты хостеров и прочие биллинги. Начинают создавать топики, мы хотим расшить продажи, нам нужна европа, нужна NL, нужна UK, может быть UA нужна, может быть SGP может быть US. И другие представители начинают говорить — вот смотрите у нас уже имеются свои «клиенты-хостеры» которые пилят на базе нашего ДЦ свои виртуалки, так же через эту единную панель. Можете обсудить с ними. И начинается партнерство. Одни платят другим и перепродают.
А доступы меняются только в единной панели. Не нужно создавать никаких новых регистраций. Не нужно создавать никаких новых облаков. Все взаимосвязано.
И я готов построить такое сообщество — рынок интернета. Мне нужна лишь панель.
Покупая в аренду серверы, где на каждом сервере фиксированные сети. Хуй ты там что автоматизируешь.
Либо делать без узлов. А делать 1 панель VM — 1 сервер — 1 обработчик — 1 тариф.
А если ты сделаешь 1 панель VM в которой 50 узлов с 50 разными серверами и на каждом из 50 своя сетка — 1 обработчик — 1 тариф. То короче IP начнут рандомно с левых серверов вообще браться.
Поэтому — мы продаем вручную. Потому что мы делаем узлами, т.к. так дизайнерски красивее и моднее.
Ну и вообще.
Чтобы реально поставить VM на бизнес модель.
Чтобы 10 лет копить услуги без гемороя, без проблем. Как устраивает VMmanager постоянно заставляя клиента перекатываться.
Нужен только надежный партнер — ДЦ.
Никак не метод «аренды сервера в ДЦ».
Те статьи которые я писал в 2018 году на hostsuki.pro про xaas сервисы, панели и прочее.
Даже если будет автоматизация. Расти и достигать хороших бизнес высот — невозможно при текущем подходе.
Нужна только удобнейшая гибкая панель. Которой можно было бы довериться и приводить туда клиентов всю свою жизнь. Чтобы не было казусов типо дебиан больше не поддерживаем, только центос. Чтобы дата-центр сам поддерживал эту панель. И чтобы хостинги строились внутри этой экосистемы. Чтобы когда 1 хостер сдался, он мог безболезнено отдать клиентов «панели/системе/другим-хостерам». Чтобы не приходилось заниматься миграцией любого рода, а просто в этой панели сменить одного владельца на другого просто роль изменить. Поэтому там и можно было бы копить услуги. Потому что они бы только копились, а не уничтожались постоянно «с нуля» по каким либо причинам, например по причине v5 v6 или по причине дебиан-центос, или по причине хостер банкротится, делаем перенос на другого хостера. В экосистеме — все едино на базе ДЦ. И там все в два клика менятеся в панели, но физически остается как было.
но я не хочу чтобы аудитория черни полезла ко мне.
поэтому сразу напишу комментарий.
мы тоже баним всех подозрительных людей. за что угодно.
с ОВХ можно работать только так — пришла жалоба, тут же забанил удалил, наскринил что прогнал клиента и ответил в абуз отдел.
сам абуз отдел овх никогда в жизни не отвечает, устроил ли их твой ответ или не устроил.
если не банить 100% жалоб — абуз отдел забанит уже тебя и весь аккаунт с доменами, серверами, облаками, не важно хоть сотни серверов там. из-за 3 евровой бомж виртуалки, ОВХ легко может послать нахуй клиента и на 5000 евро. потому что это массовый ДЦ. когда-то они даже 20к евро выгнали.
так что работая с дешевыми виртуалками — нужно банить постоянно всех. только так можно выживать в ОВХ.
там не существует такого понятия как оспорить или обсудить жалобу, можно лишь забанить, удалить, и надеяться что последствий не будет.
конечно 1000р за разблокировку мы не берем. потому что работа сотрудников у нас никак не оплачивается и все добровольно тратят время на тикеты, создания, удаления вдс и ответы на саппорт — все это просто по доброте душевной.
но баним очень жестко людей. по любым причинам. иначе забанят уже нас :)
все честно в правилах написано.
а еще складчик убыточный.
плюс созданный от балды ради эксперимента и доказательства, что самопал может быть качественным.
так что мы тоже ничего не гарантируем. просто по каким-то причинам у нас ничего не падает.
мы даже не знаем как отслеживать нагрузку. мы даже не знали что такое вес io, и до сих пор не знаем как работает KVM. но как видишь, мы не баним за нагрузку, но все как-то уже 4 года само работает )) и никто не жалуется, а еще и хвалит.
и на удивление у нас не было не одного падения, только когда VMmanager обновлялось с дебианов на центосы, т.к. разработчик больше не поддерживает дебианы.
и самый парадокс как раз в том, что у нас не сгорел еще не один диск даже. хотя мы пилим часть виртуалок даже без raid, даже на 1 диске, где если он сгорит то 100% потеря данных будет. это конечно лишь малая часть, но такие у нас тоже имеются.
когда я в 2010-2013 пользовался VPS хостингами, они постоянно мазались что у них все горит. когда же я начал продавать hetzner дедики тысячами у меня тоже ничего не горело, хотя раньше был слух типо там некачественные диски.
но как ты понял со скринов.
содержание складчика обходится мне достаточной кровью. не финансовой, а скорее моральной.
только из-за того что я люблю качественно работать, а другие хостеры любят пилить деньги компаний себе на зар плату. поэтому собственно такие и отличия. и именно поэтому складчик до сих пор на плаву.
как бизнес модель он абсолютно провальный.
но как доказательство честных услуг — неплохо себя показал.
Такой объем делается за 1 год у любого новичка, к слову сказать :)
видимо человек совсем не развивал собственный проект
под лежачий камень вода не течет ©
вся жизнь хостинга 1 картинкой
для истории моих блогов рынка
так как раздаю еще 3 EV SSL
то сумму могу увеличить до 80 тысяч раздачи
надеюсь хоть за 2019 раздам :))
скидка 45%
уже постоянная
практически не падает оборот
в 2018 году плавало то 40% то 45%
теперь вот короче
до 48 ядер по часам
как раз те самые 5 дней как описывал, когда какой-то чел тестирует игру, зайдет ли она или нет
если зайдет — он потом купит дедик уже на заработанные за 5 дней донаты.
E3-1245v2 / 32 ddr3 / 2x 480 SSD — 2700р/мес + 1800р установка
Бесплатно покупаю вечный узел VMmanager
В нашу панель
rbx.1245.ovh/vmmgr
И создаю вам
При создании VM — просто выбираете свой № узла на котором ваш сервер и сеть IP которую вы себе купите (1600р разово)
26055р
еще 50% ждут!
Пиши я могу ее у тебя выкупить мне как раз нада 2 новый проекта )
больше фоток складирую тут ruovh.ru/blogs/
у каждого ДЦ есть свой раздел
раз в год наполняю историей
Еще даже половины нет
Акция продолжается пока 50000р не потратится
А i7-8700 допустим и за 50к люди бы выкупили.
в 2018 — только 1