Мёд или жизнь: как AI-пчела понимает абстрактные концепции



Способность понимать абстрактные понятия, такие как «сходство» и «различие», считается когнитивной (познавательной) функцией высшего порядка наравне с вниманием и восприятием. Удивительно, но медоносные пчёлы обладают не только этой способностью, но также могут решать ряд простых и сложных ассоциативных задач.

Мы сделали конспект статьи, в которой расскажем о разработке новой нейронной сети, моделирующей структуру мозга медоносной пчелы.

Обучение абстрактным понятиям
Модель даёт достаточно точное представление о том, как реальные пчёлы воспринимают абстрактные понятия независимо от способа обработки информации.

Считается, что способность распознавать абстрактные концепции формирует основу мышления человека, а также других млекопитающих и птиц. Она связана с активностью нейронов в префронтальной коре головного мозга. Однако у медоносной пчелы нет ничего похожего на префронтальную кору в её гораздо меньшем мозге.

Для исследования способности насекомых обучаться абстрактным концепциям будет использоваться подход моделирования. Для начала мы более подробно опишем, как эту задачу решают медоносные пчёлы и другие животные.

Задачи «совпадает с образцом» («Match-To-Sample», MTS) разработаны для оценки обучения невербальному восприятию одинаковых и разных объектов. Животным сначала показывают один образец (стимул), а через некоторое время — два новых: первый соответствует изначальному, а второй нет. Чтобы изучить, какая продолжительность «рабочей памяти» («working memory») необходима для выполнения задачи, новые объекты показывались с задержками различной длины. Это называется «Delayed-Match-To-Sample» (DMTS).

Тесты, где животным надо наоборот выбирать не совпадающие с оригиналом предметы, называются «не совпадает с образцом» («NotMatch-To-Sample», NMTS или DMTS). Но этих задач недостаточно для демонстрации обучения абстрактным понятиям. Необходимо показать, что если животное научилось определять совпадающие или несовпадающие объекты, то оно сможет применить принцип сходства или различия и в новом контексте. Обычно это делается с помощью проверки на новом наборе образцов и называется трансферным тестом.

Исследования показали, что медоносные пчёлы могут учиться как DMTS, так и DNMTS-задачам и обобщать их на новые объекты. В опыте использовался лабиринт в форме буквы Y с исходным стимулом на входе и двумя разными объектами в каждом из ответвлений. Пчёлы прошли 60 испытаний, чтобы освоить эти задачи — это намного дольше, чем изучение простых обонятельных или визуально-ассоциативных навыков, для которых им требуется всего 3 испытания.

Показатели точности при этом не были идеальными — средняя эффективность составила около 75%, но это лучше, чем шанс простого «угадывания».

Концепция рабочей памяти имеет решающее значение для задач DMTS/DNMTS, поскольку животное не видит первоначальный стимул в процессе выбора. Если нет нейронной информации, которая могла бы идентифицировать совпадение, то проблема не может быть решена. Поэтому необходимо определить, как пчела запоминает эту информацию, и создать модель для решения задачи.

Модель строго ограничена установленными нейрофизиологическими и нейроанатомическими особенностями поведения настоящих пчёл. Мозг пчелы структурирован в виде отдельных областей нейропиля (зоны синаптического контакта). Особенности их взаимодействия хорошо изучены и описаны. Обучение происходит с помощью грибовидных тел (corpora penduculata) — они обрабатывают обонятельные, зрительные и механосенсорные данные.

До сих пор не было ясно, каким образом грибовидные тела и связанные с ними структуры могут изучать абстрактные понятия, которые не зависят от каких-либо специфичных особенностей объектов. Компьютерное моделирование грибовидного тела потребует реализации двух вычислительных компонентов: рабочей памяти для хранения идентичности образца и механизма для её использования, чтобы влиять на поведение модели в момент принятия решения.

Модель сети на основе мозга пчелы
Схема модели и основные принципы



A — нейроанатомия: MB (Mushroom Bodies) — грибовидные тела; AL (Antennal Lobe) — гломерулы антенной доли (круги); ME и LO — нейропили глубоких частей зрительной доли (Medulla и Lobula). Соответствующие нейронные пути помечены для сравнения с моделью.
B — упрощённая модель. Классы нейронов указаны справа.
C — полная модель, отражающая соединения и приблизительное число нейронов каждого типа. Цветовая маркировка и метки сохраняются на всех диаграммах.

Основные типы нейронов: KC (Kenyon Cells) — Клетка Кеньона, PCT (Protocerebellar Tract neurons) — протоцеребеллярный тракт нейронов, IN (Input Neurons) — входные нейроны (обонятельные или зрительные), EN (Extrinsic Neurons) — внешние нейроны грибовидных тел из субпопуляций GO и NOGO.

Грибовидное тело смоделировано как ассоциативная сеть из трёх слоёв. Входные нейроны IN обеспечивают обработку обонятельных, визуальных и механосенсорных данных. Слой клеток Кеньона KC выполняет разреженное кодирование (sparce-coding) сенсорной информации для эффективной классификации образцов. И, наконец, внешние нейроны грибовидного тела EN связаны с премоторной корой и активируют различные возможные поведенческие реакции. Для простоты мы рассматриваем EN как две субпопуляции, контролирующие только ответы «go» или «no-go» при выборе между различными вариантами объектов. Связи между выходом KC и EN модифицируются синаптической пластичностью и могут поддерживать изученные изменения в поведенческих реакциях на стимулы.

Как упоминалось выше, нам требуются два вычислительных механизма для решения задачи DMTS/DNMTS. Первый — находит средство для сохранения идентичности стимула, и второй — учится использовать эту идентичность для управления поведением и решения задачи.

Более того, результат обучения должен распространяться на новые стимулы, что требует большой вычислительной сложности.

У клеток Кеньона есть особенность, выполняющая требование обнаружения новизны — сенсорная аккомодация. У медоносных пчёл, даже при отсутствии вознаграждения или наказания за правильные или неправильные решения, KC резко снижают активность между начальными и повторными образцами до 50%. Этот эффект сохраняется в течение нескольких минут и может влиять на поведение во время испытания, но вряд ли повлияет на последующие опыты.

Теперь нам необходим второй механизм, который может использовать это свойство KC для управления поведением при выборе направления Y-лабиринта. При этом надо учесть, что пчёлы должны решать как DMTS, так и DNMTS-задачи, и не столкнуться с противоречием. Например, постсинаптическое обучение пропорционально увеличивает как более слабую (повторную) стимулирующую активность в субпопуляции GO EN, так и более сильную (единичную). Чтобы выбрать «go», активность GO для текущего стимула должна быть выше, чем активность NOGO, которая остаётся фиксированной. Это подойдёт для задачи DMTS, но в DNMTS должен применяться обратный принцип — ни одно правило постсинаптического обучения не удовлетворяет этому требованию.

Поэтому для решения DMTS и DNMTS задач необходим отдельный набор нейронов, которые могут выступать в роли переключателя между KC и поведением. Наиболее подходящий кандидат — тормозящие нейроны (inhibitory neurons), образующие протоцеребеллярный тракт (PCT). Они участвуют в регулировании входных данных для KC, и мы предполагаем, что они также могут регулировать активность популяций EN в выходные области KC с помощью синаптической пластичности. Если мы предположим, что при высоком пороге активности нейронов PCT повторные стимулы не будут их активировать, а единичные будут, тогда станет возможной синаптическая пластичность от PTC к EN. Это позволит решить DMTS и DNMTS задачи и передать это обучение новым стимулам.

Итак, мы представляем две модели, основанные на анатомии и свойствах мозга медоносной пчелы. Первая модель — упрощённая демонстрация того, что вышеизложенные принципы могут решать задачи DMTS и DNMTS и обобщать обучение для новых наборов образцов. Но эта модель не может продемонстрировать, что ассоциативное обучение в синапсах от KC до EN не препятствует обучению в синапсах от PCT до EN или наоборот. Поэтому вторая модель будет более полной и сможет решать как DMTS и DNMTS с переходом к новым стимулам, так и набор других ассоциативных задач.

Упрощённая модель
Упрощённая модель показана на рисунке (B). Входные узлы S1 и S2 — альтернативные стимулы, где KC для простоты разделены на два непересекающихся узла, поэтому нам не нужно отдельно моделировать входные нейроны IN. Узел I (который соответствует нейронам PCT, опять же в упрощённом виде) — это тормозящие нейроны, связанные с выходами GO и NOGO. Узлы S1 и S2 проецируются на узлы I, GO и NOGO с фиксированной возбуждающей взвешенной связью. I проецируется на GO и NOGO с помощью пластичных тормозящих взвешенных связей. Он имеет пороговое значение, поэтому реагирует только на новые стимулы.

Модель регулирует веса между I и GO, чтобы изменить вероятность выбора несоответствующего стимулу объекта. При этом веса от I до GO/NOGO инициализируются половиной максимального значения веса. Поскольку условия для изменения весов выполняются, когда для «go» выбирается единичный стимул, модель учится только на неудачных попытках для DMTS (увеличение веса) или успешных попытках для DNMTS (уменьшение веса).

Полная модель
Полная модель также изображена на рисунке ©. Ниже показана эффективность обеих моделей:


Области A и B показывают эффективность упрощённых моделей при обучении и переходе к новым образцам. Можно заметить, что процесс предварительного обучения сильно смещает модель в сторону единичных стимулов.

На области D изображена эффективность полной модели для первого блока обучения. Здесь тоже наблюдается смещение в сторону единичных образцов при обучении только по пути PCT. Это смещение уменьшается при наличии ассоциативного обучения по пути KC и не зависит от количества этапов предварительного обучения.

Область C отражает результаты обучения по пути от PCT к EN. Мы попытались подтвердить, что это позволило обеспечить обобщение результатов на новые наборы стимулов. Здесь из модели выборочно исключены: ассоциативное обучение по пути KC, обучение по пути PCT и полное обучение (синаптические веса остаются неизменными). На рисунке видно, что обучение по пути PCT является необходимым условием обобщения, в то время как обучение только по пути KC не влияет на эффективность этой задачи по сравнению с полностью исключённым обучением.

Эксперименты
Для того чтобы упростить задачу исследования нашей модели, мы воплотим её в мире, который можно описать конечным автоматом. Этот мир не сталкивается с некоторыми навигационными проблемами реального мира, но для доказательства эффективности модели такое упрощение приемлемо.

Экспериментальная установка Y-лабиринта изображена на рисунке ниже. Модель пчелы перемещается между набором состояний — различными местоположениями лабиринта: на входе, в центре справа, в центре слева, в правой ветви, в левой ветви.



Находясь у входа, пчела видит исходный стимул. В центральной камере перед ней два входа с объектами, из которых надо выбрать один согласно испытанию (DMTS или DNMTS).

В упрощённом Y-лабиринте модель пчелы может занять одно из трёх положений: на входе, в точке выбора перед левой ветвью, в точке выбора перед правой ветвью. В каждом положении для неё доступны два выбора: идти или не идти («go» и «no-go»). На входе всегда выбирается «go» — если пчёлы отказываются входить в лабиринт, то не участвуют в эксперименте. После этого случайно выбирается одна из ветвей: левая или правая. Если модель выбирает «no-go», то процедура повторяется, пока она не выберет «go». Поскольку на этом этапе обучения не происходит, модель может постоянно перемещаться между двумя входами, никогда не выбирая «go». Чтобы этого избежать, мы вводим равномерно распределённое случайное смещение в канал «go», которое увеличивается с числом раз, когда модель выбирает «no-go».

Нейроны IN делятся на непересекающиеся группы по 8 нейронов, каждая из которых представляет собой стимул:
  • Z: стимул для предварительного обучения
  • A, B: обучающие стимулы
  • C, D: стимулы для трансферного теста
  • E, F: стимулы для повторного трансферного теста

Нейроны в каждой из групп равны нулю, когда стимул отсутствует, и определённому значению, когда стимул активен. Это значение согласуется для каждой пчелы, но не между ними.

Предварительное обучение
Как и в опытах с реальными пчёлами, сначала мы знакомим наши простые модели с экспериментальным аппаратом. Мы проводим 10 этапов обучения с «поощрением» пчелы, которая входит в Y-лабиринт, без использования стимулов. После этого модель обучается ещё 10 этапов, чтобы перемещаться к каждой из ветвей лабиринта. В этом случае пчела не выбирает между «go» и «no-go», поскольку цель обучения — дать ей достаточное поощрение, чтобы потом она заходила в лабиринт и могла участвовать в дальнейшем эксперименте.

Обучение
Процедура состоит из 60 испытаний, разделённых на блоки по 10 испытаний. Опыт включает набор повторяющихся четырёх этапов: по два испытания с разными стимулами на входе в лабиринт. В каждом из испытаний объекты на левой и правой ветви менялись местами. Если модель решает задачу MTS, то она награждается за выбор объекта, совпадающего со стимулом, и наказывается за выбор другого. В задаче DMTS — наоборот.

Трансферный тест
В трансферном тесте мы не используем вознаграждение или наказание, а тестируем модели с помощью процедуры обучения, заменяя обучающие стимулы на тестовые. Используется два набора трансферных стимулов и 4 повторения (с заменой объектов в левой и правой ветви) для каждого из них.

Другие ассоциативные эксперименты
Теперь мы должны подтвердить, что наша модель может решать задачи обусловливания. Важный момент — они выполняются с точно такими же параметрами модели, как в DMTS/DNMTS; и характеристиками, обнаруженными в экспериментах на реальных пчёлах. Мы выбрали четыре опыта, включая эксперимент по обонятельному обучению с использованием рефлекса удлинения хоботка (proboscis extension reflex, PER), и визуальное обучение со свободно летающими пчёлами.

Обучение/переучивание
Эти эксперименты проводятся так же, как и DMTS, но с одним отличием — для первых 15 испытаний поощряется выбор одной соответствующей стимулу ветви (за неправильный выбор нет наказания), а после 15 испытания — другой соответствующей ветви. При этом не проводится никакого предварительного обучения, и данные анализируются для каждого опыта, а не для блоков по 10. В эксперименте используются 200 виртуальных пчёл.

Рефлекторное удлинение хоботка (PER)
Рефлекс удлинения хоботка — классический опыт с неподвижными пчёлами. В этом эксперименте пчёлы находятся в маленьких металлических трубках, открыты только голова и усики. Им подносят обонятельный стимул (условный раздражитель) и дают вознаграждение в виде раствора сахарозы (безусловный раздражитель). Для экспериментов PER мы разделяем нейроны IN так же, как было описано. Но так как пчёлы неподвижны, запахи представляются в заранее определённом порядке, и выбор пчелы на него не влияет.

Обучение одному запаху
В экспериментах с одним запахом обучение и тестирование происходят одновременно. Реальным пчёлам дают запах и с некоторой задержкой награждают раствором сахарозы. Если насекомое расширяет хоботок в течение задержки, его считают отреагировавшим, если нет — его всё равно награждают, но считают не отреагировавшим. Чтобы соответствовать этому плану, эффективность модели записывалась в каждом испытании, при этом NOGO — отсутствие реакции на стимул, GO — ответ на стимул. Награда давалась независимо от эффективности модели.

Положительное/отрицательное упорядочивание
Обучение делится на блоки, каждый из которых содержит четыре представления о запахе или комбинации запахов. При положительном упорядочивании мы не вознаграждаем отдельные запахи A и B, а только комбинацию AB (A -, B -, AB +). При отрицательном упорядочивании — наоборот (A +, B +, AB -). В обоих случаях объединённый запах используется дважды для каждого представления отдельных запахов, поэтому блоком для положительного упорядочивания является, например, [A -, AB +, B -, AB +], а для отрицательного: [A +, AB -, В +, AB -]. Эффективность оценивается так же, как при обучении одному запаху.

Результаты экспериментов показали, что полная модель способна успешно выполнять эти задачи. Количественная эффективность показана на рисунке ниже и почти соответствует экспериментам с реальными пчёлами.


Здесь A — обучение одному запаху, B — обучение/переучивание, C и D — положительное/отрицательное упорядочивание.

Использование модели
Упрощённая модель построена в GNU Octave, а полная модель создана с помощью набора инструментов SpineML и SpineCreator GUI (всё ПО с открытым исходным кодом). Входные векторы для нейронов IN и механизм состояний для навигации по Y-лабиринту моделируются с помощью сценария на Python через соединение TCP/IP.

Исходный код доступен на github.

Установите SpineML_2_BRAHMS, как описано здесь. Для простоты мы рекомендуем использовать Ubuntu Linux.

Клонируйте репозиторий с github и измените файл scripts/setup.py, добавив ваш путь к репозиторию и путь к SpineML.

Модель можно протестировать на разных экспериментах с помощью batch_X.py, а для анализа данных можно запустить сценарий process_data.py.

Если вы хотите визуализировать модель, то сделать это можно в SpineCreator GUI (инструкция по установке). Откройте файл .proj в каталоге /model с помощью меню File/Open Project в SpineCreator. Модель можно запускать из SpineCreator, но перед этим убедитесь, что вы запустили правильный файл scripts/world_X.py.

Упрощённую модель можно найти в каталоге /matlab_model и запустить в GNU Octave или Matlab.

Нейронные архитектуры, способные оперировать абстрактными понятиями — первый шаг на пути построения полноценного искусственного интеллекта. Развитие этих моделей позволит оперировать более сложными признаками и зависимостями, например, точнее распознавать эмоции из особенностей разных частей лица. Нейросети смогут оперировать не только сведениями об объектах, но и понимать их назначение и способы применения.

С оригинальной статьёй можно ознакомиться на портале biorxiv.org

Продажа оборудования

Добрый день, уважаемые клиенты и партнёры!
Продаём оборудование связи с расчисткой склада ЗИП:



Оплата наличными, возможность оплаты банковским счётом уточнять в отделе продаж. Гарантия месяц.
По вопросам приобретения обращаться в отдел продаж:
09:00–17:00 Пн.–Пт.: +7(3822)705-476, nov@netpoint-dc.com

Придумать идею для стартапа: гид по рабочим методикам



Что самое сложное в бизнесе? Искать инвесторов, обходить конкурентов или вести бухгалтерию — трудно, но это обязательные составляющие. Самое сложное для предпринимателя — найти идею, ради которой захочется работать 24 часа в сутки. Идею, которая будет вдохновлять не только тебя, но и окружающих. Из которой вырастет перспективный бизнес.

Чтобы генерировать такие идеи, не надо быть Илоном Маском или Николой Теслой. Достаточно замечать проблемы и использовать готовые алгоритмы. В этой статье мы расскажем, как получить бесконечный список идей для бизнеса.

Чем стартап-идея отличается от традиционного бизнеса?
Стартап — компания, которая тестирует нетрадиционные бизнес-модели, чтобы повысить маржинальность или снизить порог входа на рынок. Но если вы используете необычные пути развития, возникает необходимость в гипотезах и проверках. Во всех остальных случаях ничего изобретать не надо — результат дают профессионалы, дешёвые деньги и проверенные стратегии. Говоря проще, стартап при равных усилиях должен приносить намного больше денег, чем традиционный бизнес.

4 способа придумать идею конкурентоспособного бизнеса
Ниже шпаргалка для тех, кто хочет перевернуть экономику и придумать что-то по-настоящему новое и, что важно, полезное — инструменты для генерации бизнес-идей. Что интересно — результат зависит только от вашей смекалки, кругозора и усердия. И, скорее всего, эти идеи будут уникальны, потому что окружение и манера думать у всех нас разные.

1. Шесть шляп мышления Эдварда де Боно

Случалось вам садиться за ноутбук с целью придумать новый бизнес, продукт или решение давней проблемы, а в итоге вы отвлекались на другие задачи? Просто ваше мышление — это хаос и это нормально. Чтобы добиться результата, Эдвард де Боно предложил разбить мышление на шесть режимов, фокусируясь только на одном из них, решая конкретную задачу. Чтобы было нагляднее, для каждого режима придумали цветную шляпу (шляпа может быть как образной, так и самой настоящей — всё на ваше усмотрение).
  • Синяя шляпа — управление и координация. Надевается в начале, чтобы обозначить стратегию и периодически по ходу мышления, чтобы контролировать процесс.
  • Белая шляпа — информация и факты. Анализируем, каких данных не хватает и где их можно найти. Смотрим, какие цифры уже устарели, соответствует ли статистика действительности.
  • Красная шляпа — эмоции и чувства. Высказывания делаются на основании личных переживаний и предпочтений, хорошо подходит для оценки дизайна и эстетической стороны решения.
  • Чёрная шляпа — критическое мышление. Выявляются возможные риски, опасности и препятствия. Хорошо тормозит поток сознания красной шляпы, но надевать раньше нее нельзя, чтобы не испортить творческий запал.
  • Жёлтая шляпа — оптимистичность. Позитивные ожидания и предположения.
  • Зелёная шляпа — креативность. Необычные творческие идеи и даже провокационные решения. Полёт мысли, который часто применяют после черной шляпы, чтобы найти интересное решение обозначенных проблем.

Чтобы решения и особенности шляп не противоречили друг другу, а главное — не урезали общую эффективность мозгового штурма, методика Боно подразумевает разные порядки, в которых надеваются шляпы:
  1. Разработка идей на старте — Синяя, Белая, Зелёная, Синяя.
  2. Выбор из альтернатив — Синяя, Белая, (Зелёная), Жёлтая, Чёрная, Красная, Синяя.
  3. Выбор решения — Синяя, Белая, Чёрная, Зелёная, Синяя.
  4. Быстрая обратная связь — Синяя, Чёрная, Зелёная, Синяя.
  5. Стратегическое планирование — Синяя, Жёлтая, Чёрная, Белая, Синяя, Зелёная, Синяя.
  6. Усовершенствование процесса — Синяя, Белая, Белая (мнения других участников), Жёлтая, Чёрная, Зелёная, Красная, Синяя.
  7. Решение проблем — Синяя, Белая, Зелёная, Красная, Жёлтая, Чёрная, Зелёная, Синяя.
  8. Обзор результатов — Синяя, Красная, Белая, Жёлтая, Чёрная, Зеленая, Красная, Синяя.

Метод подходит как для групповой дискуссии, там и для индивидуальной работы. Его плюсы в том, что можно развернуть привычный ход мыслей на 180 градусов, вывести из состояния равновесия самых застенчивых членов команды. Исключается пустая болтовня, полярные точки зрения не конфликтуют, а мирно сосуществуют рядом.

2. Идеи, которые осталось заметить

В своей статье Юрий Лифшиц из образовательного стартапа для предпринимателей EarlyDays. io говорит, что создавать идеи — это навык, который нужно тренировать. Для этого важна привычка видеть возможности для запуска новых бизнесов во всём, что вас окружает. Например, замечать боли людей или собственные проблемы, а потом решать их. Не нравится медленный лифт — придумайте быстрый, надоел пьяный сосед — придумайте супертонкий звукоизолятор. Для этого Лифшиц предлагает несколько методик:
  1. Живите в будущем. Читайте фантастику, придумайте то, чего вчера не существовало, читайте о новых изобретениях и думайте, как бы вы их улучшили.
  2. Подумайте, где взять дешевле и кому подороже продать. Развивающиеся страны предоставляют доступную рабочую силу, а государства Старого и Нового света — обеспеченных клиентов.
  3. Копируйте и развивайтесь. Позаимствуйте чужую идею. Позаимствуйте, а потом сделайте её немного лучше. Поднимитесь на носочки, загляните за забор. Иногда идеи десятилетиями медленно переползают океан.
  4. Путешествуйте. Привычная манера жизни в одной стране может быть революционной в другой стране. Самое главное — она отличается и это можно протестировать. Общайтесь с умными людьми, будьте открыты к чужому мнению.

Конечно, чтобы воплотить идею в жизнь, надо быть экспертом. Мало быть романтиком, вооруженным благими намерениями. Чтобы делать бизнес, надо быть лучшим специалистом своей отрасли. Это сложно, но только так идея трансформируется в гарантированный способ создать собственную сильную компанию.

3. Матрица стартапов
Мозговые штурмы и недельные моделирования не про вас? Для таких стартаперов Эрик Стромберг разработал матрицу с идеями. Она описывает по вертикали потребительские рынки, а по горизонтали — возможные тактики. На пересечении получается потенциальная стратегия выхода на рынок. Посмотреть таблицу вы можете в гугл-документе. Он доступен для просмотра всем пользователям.

4. Теория решения изобретательских задач (ТРИЗ)
Теорию решения изобретательских задач разработал советский ученый Генрих Альтшуллер. Он проанализировал более 40 000 изобретений и создал свои алгоритмы, следуя которым можно находить небанальные решения в, казалось бы, безвыходных ситуациях. Кроме того, с помощью этой методики можно не только разработать инновационный продукт, но и улучшить существующие процессы в вашем бизнесе.

Вот некоторые методики ТРИЗ:
  • Принцип вынесения. Отделить от целого ту часть, которая мешает больше всего (проблема, которую надо решить). Например, проанализируйте на что вы больше всего тратите время, занимаясь бизнесом, и выделите ту деятельность, которая не является для вас основной. Рассмотрите возможность передать эту деятельность на аутсорсинг.
  • Принцип асимметрии. Например, применяйте различные стратегии для каждого класса потребителей.
  • Принцип универсальности. Например, вы можете привлечь для разработки вашего сайта fullstack-разработчика, который будет разрабатывать дизайн и писать код.
  • Принцип наоборот. Поощряйте клиентов оставлять негативные отзывы. В обычной ситуации вы бы не стали такое делать, но жалобы клиентов помогут выявить недостатки вашего продукта или сервиса.
  • Принцип проскока. Старайтесь ускорить некоторые трудные или вредные процессы производства до максимальной скорости.

⌘⌘⌘

Вас окружают возможности. Они в привычных продуктах и услугах, в знакомых людях и в вас самих. Но идеи, которые переворачивают мир, не родятся сами собой — придётся меняться. В следующем материале мы расскажем как проверить вашу идею для стартапа на жизнеспособность.

www.reg.ru

Уверенный хостинг для бизнеса!



Уверенный хостинг для бизнеса!
Тариф VIP SSD-1 (50Gb SSD)
+ Поддержка http/2 и бесплатных SSL Let's Encrypt
+ Перенос ваших сайтов — БЕСПЛАТНО!
www.trustednetwork.ru/cart.php?a=add&pid=10

Специальная цена 500 руб. в месяц
Промокод: vesna19-TN2

Внимание! Акция действует по 15.04.2019. Всего 10 предложений!

VDS на базе Intel Xeon Gold доступны для заказа!



У нас отличные новости для тех, кто хочет приобрести быстрые и производительные VDS. Виртуальные серверы на базе Scalable 2 x Intel Xeon Gold @ 2,1-3,7GHz с современными NVMe SSD дисками уже доступны для заказа! Цены на тарифы остаются прежними. Стоимость переноса на новые ноды составляет 500 рублей.

www.ihor.ru/ru

Прогноз погоды от FIRSTBYTE на 50%



В связи с наступлением плохой погоды в Москве, скидки по промокоду FBSPRING2019 временно приостановлены, ожидайте хорошей погоды.

VPS в России SAS firstbyte.ru/vps-vds/kvm-sas/ — Рекомендуем!
OVZ в России SSD firstbyte.ru/vps-vds/ovz-ssd/ — Также рекомендуем!
VPS в России SSD firstbyte.ru/vps-vds/kvm-ssd/ — Золотая середина.
VPS в Европе SSD firstbyte.ru/vps-vds/kvm-ssd-eu/ — Супер правильный выбор!
VPS в США SSD firstbyte.ru/vps-vds/kvm-ssd-us/ — Далеко и надежно!

Бесплатный DNS, DDOS защита, резервное хранилище от FIRSTBYTE — все доступно.
Следим за прогнозом погоды.

С уважением
Команда FIRSTBYTE

Обновление конфигураций выделенных серверов

Здравствуйте, уважаемые пользователи.



Спешим вам сообщить, что у нас обновились конфигурации выделенных серверов в Германии, Франции, Польше, Англии и Канаде.

Xeon-D 2123IT 4х2.2 GHz / 32gb / 2x4000 gb / 500Mb (безлимитный) / — 7200 руб/мес
Xeon-D 2123IT 4х2.2 GHz / 32gb / 2x500 NVMe SSD gb / 500Mb (безлимитный) / — 7200 руб/мес
Xeon-D 2123IT 4х2.2 GHz / 64gb / 2x4000 gb / 500Mb (безлимитный) / — 8800 руб/мес
Xeon-D 2123IT 4х2.2 GHz / 64gb / 2x500 NVMe SSD gb / 500Mb (безлимитный) / — 8800 руб/мес
Xeon E-2136 6x3.3 GHz / 32gb / 2x4000 gb / 500Mb (безлимитный) / — 7800 руб/мес
Xeon E-2136 6x3.3 GHz / 32gb / 2x500 NVMe SSD gb / 500Mb (безлимитный) / — 7800 руб/мес
Xeon E-2136 6x3.3 GHz / 64gb / 2x4000 gb / 500Mb (безлимитный) / — 9400 руб/мес
Xeon E-2136 6x3.3 GHz / 64gb / 2x500 NVMe SSD gb / 500Mb (безлимитный) / — 9400 руб/мес
AMD EPYC 7351P 16х2.4 GHz / 128gb / 2x4000 gb / 500Mb (безлимитный) / — 20000 руб/мес
AMD EPYC 7351P 16х2.4 GHz / 128gb / 2x500 NVMe SSD gb / 500Mb (безлимитный) / — 20000 руб/мес
AMD EPYC 7351P 16х2.4 GHz / 256gb / 2x4000 gb / 500Mb (безлимитный) / — 28000 руб/мес
AMD EPYC 7351P 16х2.4 GHz / 256gb / 2x500 NVMe SSD gb / 500Mb (безлимитный) / — 28000 руб/мес

Ссылка для заказа серверов в Германии — hostiman.ru/dedicated-server/germany
Ссылка для заказа серверов во Франции — hostiman.ru/dedicated-server/france
Ссылка для заказа серверов в Польше — hostiman.ru/dedicated-server/poland
Ссылка для заказа серверов в Англии — hostiman.ru/dedicated-server/england
Ссылка для заказа серверов в Канаде — hostiman.ru/dedicated-server/canada

Для всех серверов бесплатно предоставляется панель управления ISPmanager или Vesta, защита от DDOS атак, неограниченный трафик и круглосуточная техподдержка.
1 дополнительный IP-адрес — 150 руб/мес
Для консультации и подбора оптимальной для вас конфигурации пишите тикет в отдел продаж.

С уважением, хостинг-провайдер HostiMan.

Выделенные серверы на новых Xeon E



Процессоры нового семейства Intel — Xeon E — это обновлённые Xeon E3. Некоторые новые модели показали себя на тестах точно так же. Но мы выбрали более производительные и уже добавили их в конфигуратор.
ispserver.ru/dedicated-server



Цена на новые процессоры почти такая же, а производительность выше:
Количество операций в секунду в тесте Sysbench


Индекс производительности в однопоточном и многопоточном тесте Geekbench


новые процессоры поддерживают ECC-память и Hyper-Threading.

Новинка — выделенные серверы на процессорах Xeon E



Intel выпустил новое семейство процессоров — Xeon E.
Это обновлённые Xeon E3: производительнее и за те же деньги.
Мы протестировали все модели Xeon E и выбрали лучшие по цене/качеству:
  • Xeon E 2134: больше частота — 4,5 ГГц от 5593 ₽/мес
  • Xeon E 2136: больше ядер — 6 штук, больше частота — 4,5 ГГц от 5765 ₽/мес
Больше ядер и частота — больше индекс производительности и число запросов в секунду (по результатам тестов Geekbench и Sysbench). Поддерживают ECC-память и Hyper-Threading.

Наши серверы на Xeon E — первое предложение на Российском рынке. И вы можете стать первым, кто переедет на новое железо.


Чтобы получить сервер на тест до 3 дней — обратитесь в отдел продаж через чат на сайте 1dedic.ru или по телефону 8 (800) 775 53 32.

https://1dedic.ru