-
[Hadoop] 하둡 관련 default 설정 파일Software Development/Big Data 2022. 12. 15. 03:00
하둡 관련 프로그램 설치시 가장 많이 참고하게 되는 사이트가 docs이다.
하둡을 구축하는 환경은 달라, 발생하는 이슈가 다를 수 있지만 default.xml에는 꽤 많은 해결책들이 들어있다.
시간될 때, 어떤 설정들이 있는지 참고하면, 도움이 된다. 큰 맥락에서 비슷한 설정들이 많기 때문에 여러본 보다보니 제법 도움이 된다.
예를 들어, 리소스매니저가 컨테이너 환경에서 실행될 때, 웹 UI접근이 컨테이너 환경 내부에서만 접근가능하고, 호스트에서는 접근이 안되는 문제가 있었다.
해당 문제는 yarn.resourcemanager.bind-host를 0.0.0.0으로 설정하면 해결됐었고, 이는 dfs.namenode.http-bind-host와 기능이 같은 설정이었다.
dfs.namenode.http-bind-yarn 관련: https://hadoop.apache.org/docs/r3.2.3/hadoop-yarn/hadoop-yarn-common/yarn-default.xml
hdfs 관련: https://hadoop.apache.org/docs/r3.2.3/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
'Software Development > Big Data' 카테고리의 다른 글
[Spark] Hive에서 ORC와 Parquet 비교. (0) 2023.01.09 [SPARK] The column number of the existing table doesn't match the data(하이브 테이블에 새로운 컬럼 추가 시 이슈) (0) 2022.12.16 [빅데이터 전문가의 하둡관리] 8. 네임노드의 역할과 HDFS의 동작 방식 (0) 2022.10.30 [빅데이터 전문가의 하둡관리] 7. 스파크 애플리케이션 실행하기 (0) 2022.10.23 [빅데이터 전문가의 하둡관리] 6. 클러스터에서 애플리케이션 실행하기 - 스파크 프레임워크 (0) 2022.10.16