Я работаю в улье. задача состоит в том, чтобы загрузить данные из одной таблицы в формате текстового файла в другую таблицу в формате orc.
я использую
INSERT INTO TABLE ORDERREQUEST_ORC
PARTITION(DATE)
SELECT
COLUMN1,
COLUMN2,
COLUMN3,
DATE
FROM ORDERREQUEST_TXT;
Когда я контролировал задание через веб-консоль ambari, я увидел, что используемая память YARN составляет 100%.
Не могли бы вы посоветовать, как поддерживать память Healthy Yarn.
средняя нагрузка на все три узла данных;
1. top - 17:37:24 up 50 days, 3:47, 4 users, load average: 15.73, 16.43, 13.52
2. top - 17:38:25 up 50 days, 3:48, 2 users, load average: 16.14, 15.19, 12.50
3. top - 17:39:26 up 50 days, 3:49, 1 user, load average: 11.89, 12.54, 10.49
Это конфигурации пряжи
yarn.scheduler.minimum-allocation-mb=5120
yarn.scheduler.maximum-allocation-mb=46080
yarn.nodemanager.resource.memory-mb=46080
FYI: - Конфигурация моего кластера
Nodes = 4 (1 Master, 3 DN )
memory = 64 GB on each node
Processors = 6 on each node
1 TB on each node (5 Disk * 200 GB)
Как уменьшить память использования пряжи?