[Ответить в тред] Ответить в тред

09/10/16 - Открыта доска /int/ - International, давайте расскажем о ней!
30/09/16 - BREAKING NEWS ШОК АБУ ПРОДАЛСЯ МЭЙЛУ (на самом деле нет)
25/09/16 - Персональное обращение Абу - СБОР ПОЖЕРТВОВАНИЙ НА ДВАЧ



Новые доски: /2d/ - Аниме/Беседка • /wwe/ - WorldWide Wrestling Universe • /ch/ - Чатики и конфочки • /int/ - International • /ruvn/ - Российские визуальные новеллы • /math/ - Математика • Создай свою

[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 7 | 2 | 5
Назад Вниз Каталог Обновить

PostgreSQL Аноним 11/10/16 Втр 20:20:54  854861  
14762064549100.png (43Кб, 555x617)
А есть ли здесь бородатые sql-боги?

У клиента данные пишутся в 4 таблицы Test, Service_test, Device_test и Device.

Все они связаны между собой полем, которое представляет собой уникальную рандомную строку.

Одним из требований клиента является предоставление единого источника, где все эти таблицы связаны.

Я делаю join и кладу это всё в Materialized view. Обновляю этот View раз в день.

То сейчас данных стало порядка 10 миллионов строк (будет гораздо больше) и теперь мне надо это всё дело оптимизировать. Подскажите что делать?
Аноним 11/10/16 Втр 20:24:52  854865
14762066921280.jpg (60Кб, 614x348)
Аноним 11/10/16 Втр 20:51:57  854887
bump
Аноним 11/10/16 Втр 22:26:02  854952
>>854861 (OP)
Ну индекс на этом поле есть, я так понимаю? Просто на всякий случай спросить. EXPLAIN смотрел?
Аноним 11/10/16 Втр 22:34:16  854963
>>854952
Нет. Я большой нуб. Использую postgres как прокладку между DynamoDB и Tableau.

Какой индекс лучше всего строить на строках?
Я вот ещё чего не могу понять: поскольку данные постоянно текут и поле ID уникальное, получается что этот индекс постоянно пересчитывается. Это нормально?
Аноним 14/10/16 Птн 16:19:49  856508
>>854861 (OP)
Да похуй какая у тебя СУБД, решение этих проблем всегда одинаковое — выбираешь те данные, которые уже не будут меняться, препросчитываешь по ним нужную тебе агрегацию, хранишь её отдельно в готовом виде. Часто это предполагает заведение новой таблицы с данными каждый месяц, а старые лежат мёртвым грузом для истории ну и для внепланового-нештатного пересчёта аналитики.

Само по себе кол-во строк это похуй вообще в общем случае. Можно и миллиард строк хранить втупую, разумно расставив индексы, можно и на сотнях тысяч строк без кэша сдохнуть нахуй, если требуются ёбнутые выборки и нет кучи оперативки.
Аноним 15/10/16 Суб 15:08:04  857016
Какой даун додумался произносить SQL как "сиквэл"?
Аноним 15/10/16 Суб 15:33:47  857033
>>857016
много лучше сикуль

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 7 | 2 | 5
Назад Вверх Каталог Обновить

Топ тредов
Избранное