Я пытаюсь преобразовать приложение Spark для использования выходного хранилища ORC вместо формата Parquet. После изменения моего кода у меня возникает следующая ошибка при запуске приложения в Windows:
> java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS
> should be writable. Current permissions are: rw-rw-rw- at
> org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:612)
> at
> org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:554)
> at
> org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:508)
> ... 73 more
Во-первых, мне показалось странным, что он не может писать с разрешениями rw-rw-rw-
, но что бы там ни было, я попытался изменить разрешения этого каталога с помощью winutils Hadoop, как описано здесь а> :
winutils.exe chmod -R 777 \tmp
Но все та же ошибка...
Более того, я также пытался удалить каталог, и приложение автоматически перестроило его с разрешениями 733, но все равно говорит, что не может писать...
EDIT: это не дубликат этот вопрос, потому что моя проблема связана с платформой Windows.