Что приводит к замедлению работы большой вставки и резкому увеличению использования диска?
Вопрос
У меня есть таблица примерно из 3,1 миллиона строк со следующим определением и индексами:
CREATE TABLE digiroad_liikenne_elementti (
ogc_fid serial NOT NULL,
wkb_geometry geometry(Geometry,4258),
tiee_tila numeric(9,0),
vaylatyypp numeric(9,0),
toiminnall numeric(9,0),
eurooppati character varying(254),
kansalline numeric(9,0),
tyyppi numeric(9,0),
liikennevi numeric(9,0),
ens_talo_o numeric(9,0),
talonumero numeric(9,0),
ens_talo_v numeric(9,0),
oik_puol_t character varying(254),
tieosan_ta numeric(9,0),
viim_talo_ numeric(9,0),
viim_tal_1 numeric(9,0),
vas_puol_t character varying(254),
laut_tyypp numeric(9,0),
lautta_lii numeric(9,0),
inv_paalu_ numeric(19,11),
inv_paal_1 numeric(19,11),
liitalue_o numeric(9,0),
ketju_oid numeric(9,0),
tietojoukk numeric(9,0),
ajoratanum numeric(4,0),
viite_guid character varying(254),
"timestamp" date,
tiee_kunta numeric(9,0),
toissij_ti character varying(254),
viite_oid numeric(9,0),
k_elem_id numeric(9,0),
region character varying(40) DEFAULT 'REGION'::character varying,
CONSTRAINT digiroad_liikenne_elementti_pkey PRIMARY KEY (ogc_fid)
);
CREATE INDEX digiroad_liikenne_elementti_wkb_geometry_geom_idx
ON digiroad_liikenne_elementti USING gist (wkb_geometry);
CREATE INDEX dle_k_elem_id_idx
ON digiroad_liikenne_elementti USING btree (k_elem_id);
CREATE INDEX dle_ogc_fid_idx
ON digiroad_liikenne_elementti USING btree (ogc_fid);
CREATE INDEX dle_region_idx
ON digiroad_liikenne_elementti USING btree (region COLLATE pg_catalog."default");
Другая таблица с 8,6 миллионами строк содержит атрибуты для строк первой таблицы, таблицы могут быть объединены с помощью k_elem_id
И region
.
CREATE TABLE digiroad_segmentti (
ogc_fid serial NOT NULL,
wkb_geometry geometry(Geometry,4258),
segm_tila numeric(9,0),
tyyppi numeric(9,0),
loppupiste numeric(19,11),
alkupiste numeric(19,11),
vaikutuska numeric(9,0),
vaikutussu numeric(9,0),
vaikutusai character varying(254),
tieosanume numeric(19,11),
tienumero numeric(9,0),
dyn_arvo numeric(9,0),
dyn_tyyppi numeric(9,0),
omistaja_t numeric(9,0),
pysakki_va numeric(9,0),
pysakki_ty numeric(9,0),
pysakki_su numeric(9,0),
pysakki_ka numeric(9,0),
pysakki_yl character varying(254),
palvelu_pa numeric(9,0),
toissijain numeric(9,0),
siltataitu numeric(9,0),
rdtc_tyypp numeric(9,0),
rdtc_alaty numeric(9,0),
rdtc_paikk numeric(19,11),
rdtc_luokk numeric(9,0),
rdtc_liitt character varying(254),
palvelu_ob numeric(9,0),
ketju_oid numeric(9,0),
tietojoukk numeric(9,0),
ajoratanum numeric(4,0),
viite_guid character varying(254),
"timestamp" date,
sivusiirty numeric(19,11),
toissij_ti character varying(254),
viite_oid numeric(9,0),
k_elem_id numeric(9,0),
region character varying(40) DEFAULT 'REGION'::character varying,
CONSTRAINT digiroad_segmentti_pkey PRIMARY KEY (ogc_fid)
);
CREATE INDEX digiroad_segmentti_wkb_geometry_geom_idx
ON digiroad_segmentti USING gist (wkb_geometry);
CREATE INDEX ds_dyn_arvo_idx
ON digiroad_segmentti USING btree (dyn_arvo);
CREATE INDEX ds_dyn_tyyppi_idx
ON digiroad_segmentti USING btree (dyn_tyyppi);
CREATE INDEX ds_k_elem_id_idx
ON digiroad_segmentti USING btree (k_elem_id);
CREATE INDEX ds_ogc_fid_idx
ON digiroad_segmentti USING btree (ogc_fid);
CREATE INDEX ds_region_idx
ON digiroad_segmentti USING btree (region COLLATE pg_catalog."default");
CREATE INDEX ds_tyyppi_idx
ON digiroad_segmentti USING btree (tyyppi);
Я пытаюсь вставить строки из первой таблицы (с некоторыми изменениями) в новую таблицу:
CREATE TABLE edge_table (
id serial NOT NULL,
geom geometry,
source integer,
target integer,
km double precision,
kmh double precision DEFAULT 60,
kmh_winter double precision DEFAULT 50,
cost double precision,
cost_winter double precision,
reverse_cost double precision,
reverse_cost_winter double precision,
x1 double precision,
y1 double precision,
x2 double precision,
y2 double precision,
k_elem_id integer,
region character varying(40),
CONSTRAINT edge_table_pkey PRIMARY KEY (id)
);
Поскольку выполнение одного оператора insert заняло бы много времени, и я не смог бы увидеть, застрял ли оператор или что-то в этом роде, я решил сделать это меньшими порциями внутри цикла в функции.
Функция выглядит следующим образом:
DROP FUNCTION IF EXISTS insert_function();
CREATE OR REPLACE FUNCTION insert_function()
RETURNS VOID AS
$$
DECLARE
const_type_1 CONSTANT int := 5;
const_type_2 CONSTANT int := 11;
i int := 0;
row_count int;
BEGIN
CREATE TABLE IF NOT EXISTS edge_table (
id serial PRIMARY KEY,
geom geometry,
source integer,
target integer,
km double precision,
kmh double precision DEFAULT 60,
kmh_winter double precision DEFAULT 50,
cost double precision,
cost_winter double precision,
reverse_cost double precision,
reverse_cost_winter double precision,
x1 double precision,
y1 double precision,
x2 double precision,
y2 double precision,
k_elem_id integer,
region varchar(40)
);
batch_size := 1000;
SELECT COUNT(*) FROM digiroad_liikenne_elementti INTO row_count;
WHILE i*batch_size < row_count LOOP
RAISE NOTICE 'insert: % / %', i * batch_size, row_count;
INSERT INTO edge_table (kmh, kmh_winter, k_elem_id, region)
SELECT CASE WHEN DS.dyn_arvo IS NULL THEN 60 ELSE DS.dyn_arvo END,
CASE WHEN DS.dyn_Arvo IS NULL THEN 50 ELSE DS.dyn_arvo END,
DR.k_elem_id,
DR.region
FROM (
SELECT DLE.k_elem_id,
DLE.region,
FROM digiroad_liikenne_elementti DLE
WHERE DLE.ogc_fid >= i * batch_size
AND
DLE.ogc_fid <= i * batch_size + batch_size
) AS DR
LEFT JOIN
digiroad_segmentti DS ON
DS.k_elem_id = DR.k_elem_id
AND
DS.region = DR.region
AND
DS.tyyppi = const_type_1
AND
DS.dyn_tyyppi = const_type_2;
i := i + 1;
END LOOP;
END;
$$
LANGUAGE 'plpgsql' VOLATILE STRICT;
Проблема в том, что он начинает проходить циклы довольно быстро, но затем в какой-то момент замедляется до обхода.Когда это замедляется, в то же время использование диска в моем диспетчере задач Windows 8 возрастает до 99%, поэтому я подозреваю, что это как-то связано с проблемой.
Запуск программы INSERT
оператор сам по себе с некоторым случайным значением i
выполняется очень быстро, поэтому проблема, по-видимому, возникает только при запуске его в цикле внутри функции.Вот этот EXPLAIN (ANALYZE,BUFFERS)
от одного такого единственного выполнения:
Insert on edge_table (cost=0.86..361121.68 rows=1031 width=23) (actual time=3405.101..3405.101 rows=0 loops=1)
Buffers: shared hit=36251 read=3660 dirtied=14
-> Nested Loop Left Join (cost=0.86..361121.68 rows=1031 width=23) (actual time=61.901..3377.609 rows=986 loops=1)
Buffers: shared hit=32279 read=3646
-> Index Scan using dle_ogc_fid_idx on digiroad_liikenne_elementti dle (cost=0.43..85.12 rows=1031 width=19) (actual time=31.918..57.309 rows=986 loops=1)
Index Cond: ((ogc_fid >= 200000) AND (ogc_fid < 201000))
Buffers: shared hit=27 read=58
-> Index Scan using ds_k_elem_id_idx on digiroad_segmentti ds (cost=0.44..350.16 rows=1 width=23) (actual time=2.861..3.337 rows=0 loops=986)
Index Cond: (k_elem_id = dle.k_elem_id)
Filter: ((tyyppi = 5::numeric) AND (dyn_tyyppi = 11::numeric) AND (vaikutussu = 3::numeric) AND ((region)::text = (dle.region)::text))
Rows Removed by Filter: 73
Buffers: shared hit=31266 read=3588
Total runtime: 3405.270 ms
Моя система работает под управлением PostgreSQL 9.3.5 в Windows 8 с 8 ГБ оперативной памяти.
Я экспериментировал с разными размерами пакетов, выполняя запрос по-разному и увеличивая переменные памяти в конфигурации Postgres, но, похоже, ничто на самом деле не решило проблему.
Переменные конфигурации, которые были изменены по сравнению со значениями по умолчанию:
shared_buffers = 2048MB
work_mem = 64MB
effective_cache_size = 6000MB
Я хотел бы выяснить, что является причиной того, что это происходит, и что можно с этим сделать.
Решение
При создании новая таблица избегайте затрат на написание Журнал предварительной записи (WAL) полностью с CREATE TABLE AS
.
Видишь Ответ @Kassandry's для объяснения, как WAL фигурирует в этом.
CREATE OR REPLACE FUNCTION insert_function()
RETURNS void AS
$func$
DECLARE
const_type_1 CONSTANT int := 5;
const_type_2 CONSTANT int := 11;
BEGIN
CREATE SEQUENCE edge_table_id_seq;
CREATE TABLE edge_table AS
SELECT nextval('edge_table_id_seq'::regclass)::int AS id
, NULL::geometry AS geom
, NULL::integer AS source
, target::integer AS target
, NULL::float8 AS km
, COALESCE(DS.dyn_arvo::float8, float8 '60') AS kmh
, COALESCE(DS.dyn_Arvo::float8, float8 '50') AS kmh_winter
, NULL::float8 AS cost
, NULL::float8 AS cost_winter
, NULL::float8 AS reverse_cost
, NULL::float8 AS reverse_cost_winter
, NULL::float8 AS x1
, NULL::float8 AS y1
, NULL::float8 AS x2
, NULL::float8 AS y2
, D.k_elem_id::integer AS k_elem_id
, D.region::varchar(40) AS region
FROM digiroad_liikenne_elementti D
LEFT JOIN digiroad_segmentti DS
ON DS.k_elem_id = D.k_elem_id
AND DS.region = D.region
AND DS.tyyppi = const_type_1
AND DS.dyn_tyyppi = const_type_2;
ALTER TABLE edge_table
ADD CONSTRAINT edge_table_pkey PRIMARY KEY(id)
, ALTER COLUMN id SET NOT NULL
, ALTER COLUMN id SET DEFAULT nextval('edge_table_id_seq'::regclass)
, ALTER COLUMN kmh SET DEFAULT 60
, ALTER COLUMN kmh_winter SET DEFAULT 50;
ALTER SEQUENCE edge_table_id_seq OWNED BY edge_table.id;
END
$func$ LANGUAGE plpgsql;
Помимо сокращения времени, затрачиваемого архиватором или отправителем WAL на обработку данных WAL, выполнение этого фактически ускорит выполнение определенных команд, поскольку они предназначены вообще не для записи WAL, если
wal_level
являетсяminimal
.(Они могут дешевле гарантировать безопасность при столкновении, выполнивfsync
в конце, чем на написание вал.) Это относится к следующим команды:
CREATE TABLE AS SELECT
CREATE INDEX
(и такие варианты, какALTER TABLE ADD PRIMARY KEY
)
ALTER TABLE SET TABLESPACE
CLUSTER
COPY FROM
, когда целевая таблица была создана или усечена ранее в той же транзакции
Также важно
CREATE TABLE AS
делает невозможным использование псевдотипаserial
напрямую.Но поскольку это всего лишь "макро", вы можете сделать все вручную:Создайте последовательность, используйте ее для генерацииid
ценности.Наконец, установите столбец по умолчанию и сделайте столбец владельцем последовательности.Похожие:Оболочка функции plpgsql необязательна (удобна для повторного использования), вы могли бы просто запустить простой SQL в транзакции:
BEGIN; ... COMMIT;
Добавление
PRIMARY KEY
после вставка данных также происходит быстрее, потому что создание (базового) индекса в одном фрагменте происходит быстрее, чем постепенное добавление значений.У тебя был логическая ошибка в вашем разделении:
WHERE DLE.ogc_fid >= i * batch_size AND DLE.ogc_fid <= i * batch_size + batch_size
Последняя строка перекрывалась бы со следующей секцией, строка вставлялась бы повторно, что приводило бы к уникальному нарушению в PK.Использование
<
вместо того, чтобы<=
это можно было бы исправить, но я полностью удалил секционирование.Если вы запустите это несколько раз, появится многоколоночный индекс вкл .
digiroad_segmentti (k_elem_id, tyyppi, dyn_tyyppi, region)
может окупиться, в зависимости от распространения данных.
Незначительные вещи
- Не цитируйте этот язык
plpgsql
имя, это идентификатор. - Было бы бессмысленно помечать функцию без параметров как
STRICT
. VOLATILE
это значение по умолчанию и просто шум.Использование
COALESCE
чтобы указать значение по умолчанию для нулевых значений.Некоторые из ваших
double precision
(float8
) столбцы могли бы работать лучше, посколькуinteger
поскольку у тебя в основном былиnumeric (9,0)
в ваших старых таблицах, которые, вероятно, можно заменить более дешевыми обычнымиinteger
.Колонна
region varchar(40)
выглядит как кандидат на нормализацию (разве что регионы в основном уникальны?) Создайте таблицу регионов и просто используйтеregion_id
как столбец FK в основной таблице.
Другие советы
Если вы изменили только shared_buffers
,work_mem
, и effective_cache_size
config, то вы, вероятно, все еще используете checkpoint_segments=3
.
В этом случае у вас есть только три сегмента WAL, и поэтому вам необходимо постоянно перерабатывать их, каждый раз принудительно записывая файлы данных, что вызывает огромный объем активности ввода-вывода и, безусловно, может замедлить сканирование вашей машины.Вы можете проверить поведение контрольных точек, просмотрев журнал и выполнив поиск по фразе checkpoints are occurring too frequently
.Вы также можете посмотреть, что они делают, включив log_checkpoints=on
в вашем postgresql.conf
Я бы рекомендовал сменить checkpoint_segments
к чему-то большему, например, 40, и checkpoint_completion_target
до 0,9, чтобы попытаться сгладить поведение, которое вы описываете.
Настройки подробно описаны здесь, в документации PostgreSQL для версии 9.3. Журнал записи вперед раздел."="