Windows 10
Dec. 19th, 2015 02:24 pm![[identity profile]](https://www.dreamwidth.org/img/silk/identity/openid.png)
![[community profile]](https://www.dreamwidth.org/img/silk/identity/community.png)
У меня каждый день выскакивает предложение обновиться до Windows 10. Стоит ли заглатывать эту наживку? У меня сейчас стоит Windows 7 - расширенная версия, за которую я платил из собственного кармана. Какие могут быть подвохи?
no subject
Date: 2015-12-23 07:01 pm (UTC)в смысле? полно стартапов в долине которые пытаются что то делать в этой области.
В первом и втором по размере магазинах этого нет, в описываемом вами виде.
>То, чего "нет ни у кого" - это как раз то, что есть. У нас.
"Вы" хотя бы полмиллиарда продаж в долларах сделали за последние праздники, вот эти несколько дней?
И, скажем за год, миллиард набегает?
>Где-то до сотни терабайтов со временем отклика 50 миллисекунд обрабатывать умеем.
это очень интересно. Не расскажете кто это такое умеет и что за технологии используются?
особенно "сотни терабайтов" . А то мне известное - единицы терабайт уже существенная проблема (для компаний размера гугла и майкрософта, точнее их рекламных подразделений).
И 50 миллисекунд - это много. нужно бы меньше 10, иногда - уложиться в 2ms, с учетом всей латенси на трансакцию (и плюс 200 миллисекунд между побережьями, плюс реакция кэшей акамая, плюс отклик серверов и требования площадок). Но все равно очень интересно.
no subject
Date: 2015-12-24 12:21 pm (UTC)Да.
no subject
Date: 2015-12-24 10:40 pm (UTC)no subject
Date: 2015-12-25 11:24 am (UTC)Ну в общих чертах, конечно, разделяй и властвуй и немного статистики. Данные используются неравномерно. Делаем на каждой ноде дисковый кеш размером почти с ОЗУ. Если ОЗУ много, а данных на диске ноды не очень много, мы таким образом поднимаем в ОЗУ все нужные данные. (AFAIK, все поисковики так работают - вся полезная часть индекса всегда в ОЗУ). Как организовать хранение - это другой вопрос. Вы наверное знаете, но на всякий случай в качестве примера - как классические поисковики работают. (Если вдруг каким-то чудом не знаете, книга "Введение в информационный поиск"). Там инвертированный индекс, по каждому слову сортированный список номеров документов с дополнительными индексами для быстрого поиска. Пересечение таких вещей в худшем случае O(n), но в реальных запросах близко к O(1), как у хэш-таблицы. Для других задач алгоритмы отличаются, но тут я уже не знаю, что можно рассказывать, а что нельзя. Дальше нам надо чисто статистически определить, сколько можно хранить на одной машине, не выходя за допустимое время ответа. Обычно это что-то порядка 100 гигабайт.
Ну и дальше понятно - просто наращиваем объем кластера. 1000 машин - 100 терабайт. Ну еще реплики, разумеется, так что реально машин надо раза в три больше. Собрать данные со всех машин можно за логарифмическое время.
У всех таких технологий недостаток один: они не универсальны, под каждую задачу надо все разрабатывать заново. Они очень сильно завязаны на реальную статистику распределения данных, потому что короткое время ответа получается статистически. Основано на том, что у любого реального распределения данных есть длинный хвост, большинство распределений имеют характер Ципфа. Поэтому всегда удается сделать очень эффективное кеширование.
no subject
Date: 2015-12-26 01:06 am (UTC)так что можно ссылку на магазин, или провайдера рекламы, чтоб упростить. Вы не стеснятесь, название компании под nda не подпадает.
no subject
Date: 2015-12-26 12:03 pm (UTC)