Software Development
-
[MongoDB] Compound Index 생성해도 왜 쿼리가 느리지?Software Development/Database 2022. 5. 31. 20:40
여러개의 field를 가지고 index를 생성할 때 compound index를 이용한다. 생성한 compound index의 field를 포함하는 조건을 가지고 query를 실행해도 느린 경우가 있다. 그 이유는 Query Selectivity과 관련이 있다. eplain('executionStats')로 쿼리플랜을 조회하면, totalKeysExamined, nReturned가 있다. 위 두 값의 차이가 크면 성능이 좋지 못한 것이다. 예를 들어 nReturned가 100이고, totalKeysExamined가 100,000이라면 100개의 문서를 찾는데 100,000개의 키를 스캔하게 되는 것이다. 인덱스를 타서 Collection Scan을 피하긴 했지만, 여전히 스캔하는 데이터의 양이 많은 것이..
-
[kubernetes] 쿠버네티스 시작하기Software Development/기타 2022. 5. 30. 23:00
'시작하세요! 도커/쿠버네티스' 읽고 정리한 내용을 적습니다. 6.1 쿠버네티스를 시작하기 전에 모든 리소스는 오브젝트 형태로 관리 k8s는 대부분의 리소스를 '오브젝트'라고 불리는 형태로 관리. 쿠버네티스는 명령어로도 사용할 수 있지만, YAML 파일을 더 많이 사용 kubetcl이라는 명령어로 k8s를 사용할 수 있음. kubetcl로 대부분의 작업을 실행할 수 있음. YAML파일로 컨테이너뿐만 아니라 모든 리소스 오브젝트들에 사용될 수 있음. 실제 서비스 배포시에 YAML 파일을 정의해 k8s에 적용시키는 방식으로 동작. 6.2 포드(Pod): 컨테이너를 다루는 기본 단위 컨테이너 애플리케이션을 구동하기 위해서는 Pod, replica-set, service, deployment등의 오브젝트가 있는..
-
[스파크 완벽 가이드] 1. 아파치 스파크란Software Development/Big Data 2022. 5. 8. 17:43
1.1 아파치 스파크의 철학 통합 빅데이터 애플리케이션 개발에 필요한 통합 플랫폼을 제공하자. 간단한 데이터 읽기, SQL 처리, ML, 스트림 처리까지 데이터 분석 작업을 같은 연산 엔진과 일관성 있는 API로 수행할 수 있도록 설계. 컴퓨팅 엔진 스파크는 데이터 저장소 시스템의 데이터를 연산하는 역할만 수행할 뿐 영구 저장소 역할은 수해하지 않는다. 데이터 이동은 높은 비용을 유발한다(가장 크게 영향을 받는 자원은 네트워크). 라이브러리 다양한 외부 라이브러리를 지원한다. 1.2 스파크의 등장 배경 하드웨어 성능 향상이 멈췄다(2005년). 애플리케이션 성능 향상을 위해 병렬 처리가 필요했다. 1.3 스파크의 역사 UC버클리에서 2009년 스파크 연구 프로젝트로 시작.
-
데이터베이스 인터널스Software Development/Database 2022. 4. 27. 18:24
Database Internals를 읽고 주요 내용을 요약 정리합니다. 데이터베이스 비교 데이터베이스 시스템 선택은 장기적인 결과를 초래할 수 있다. 마이그레이션 작업은 쉬운 것이 아니기 때문에 개발 초기 단계에 성능, 일관성 문제 운영 문제 등 여러 요소를 고려해야 한다. 최악의 경우 애플리케이션의 많은 부분을 수정해야 한다. 데이터베이스를 비교하기 전에 목표를 명확하게 세우자. 성능과 확장성에 관련된 문제는 시간이 지나거나 사용량이 증가했을 때 나타난다. 운영 환경과 최대한 유사한 환경에서 오랫동안 테스트하는 것이 가장 좋다. 데이터베이스 선택은 장기적인 결정이라 최신 버전에 정확히 무엇이 변경됐고 왜 변경됐는지 파악하고 업그레이드 전략을 세워 두는 것이 좋다. 데이터베이스 개발업체가 지금까지 어떤 ..
-
[엔터프라이즈 데이터 플랫폼 구축] 1. 빅데이터 기술 기초 다지기Software Development/Data Platform 2022. 1. 15. 19:30
엔터프라이즈 데이터 플랫폼 구축을 읽고 요약, 정리 및 개인적인 의견을 담기위해 이 글을 씁니다. 하둡에 영감을 준 구글에서 발행한 논문들의 내용을 보면 이런 시스템을 만들게 된 이유는 순수하게 정말로 필요했기 때문이었다. 당시에는 이런 기술이 아예 존재하지 않았다. 대규모 데이터를 처리하려면 다수의 프로세서와 다수의 메모리를 장학한 소수의 고사양 서버를 도입하고, NAS나 SAN에 저장된 데이터를 고사양 서버에 보내서 처리하고, 결과를 다시 스토리지에 저장하는 방법밖에 없었다. 이 방식은 현실성과 비용 효율성이 떨어지게 되었다. 기존 기술도 다수의 서버에서 실행도리 수 있지만, 분산된 컴포넌트 사이의 커뮤니케이션에 크게 의존해야 했는데, 이런 방식은 임달의 법칙에 따라 병렬성이 증가할수록 효율은 떨어지..
-
[엔터프라이즈 데이터 플랫폼 구축] 0. 들어가며Software Development/Data Platform 2022. 1. 15. 19:07
엔터프라이즈 데이터 플랫폼 구축을 읽고 요약, 정리 및 개인적인 의견을 담기위해 이 글을 씁니다. 여는 글 1960년대부터 분산 스토리지와 연산에 대해 학계와 업계는 연구해왔다. 그러나 실존적이고 실용적이며 유용하고, 대용량 확장성을 지원하면서도 안정적인 시스템은 구글이 인터넷 문제를 직면하면서 등장했다. 당시에는 전체 웹을 수집해서 인덱싱하고 분석하기란 불가능했다. GFS와 MapReduce 프레임워크에 대한 연구가 빅데이터 산업을 만들어냈다. 이는 더그 커팅과 마이크 카파렐라의 오픈 소스 하둡 프로젝트의 발현으로 이어졌다. 이제는 S3 같은 클라우드 스토리지를 비롯해 IoT환경과 데이터 분석을 위한 아파치 쿠두 등이 생겨났다. 들어가며 규모: 모던 데이터 플랫폼에 모든 데이터를 저장하고 나중에 필요할..
-
[MongoDB] collection.count(), collection.countDocuments({})Software Development/Database 2022. 1. 14. 00:48
MongoDB에서 흔히 전체 문서가 얼마나 저장되어 있는지 세기 위해서 db.collection.find({}).count(), db.collection.count()를 실행합니다. 그러나 위의 방법은 권장하지 않습니다. 왜냐하면 find({}) 처럼 쿼리에 조건이 없거나 그냥 count()를 실행할 경우, 메타데이터에서 값을 가져오기 때문입니다. 메타데이터에서 값을 가져오기 때문에 실행하면 굉장히 빠르게 값을 반환하는 것을 볼 수 있습니다. 이런 현상은 몽고디비가 샤딩됐을 때, 고아 문서가 적절히 필터링되지 못하거나 몽고디비가 비정상적으로 종료하게 되면 count가 적절하지 않을 수 있습니다. Wired Tiger storage engine을 쓰는 mongod가 비정상적으로 종료됐을 때 count()가..
-
[데이터 중심 애플리케이션] 스트림 처리Software Development/Database 2022. 1. 9. 16:07
일간 일괄 처리의 문제점은 입력 변화가 하루가 지나야 반영된다는 것인데 성격 급한 사용자가 느끼기에는 너무 느리다. 고정된 시간 조각이라는 개념을 완전히 버리고 단순히 이벤트가 발생할 때마다 처리해야 한다. 이 방법이 스트림 처리의 기본 개념이다. "스트림"은 시간 흐름에 따라 점진적으로 생상된 데이터를 일컫는다. 이 개념은 유닉스의 stdin과 stdout, 자바의 FileInputsStream 같은 파일 시스템 API, TCP 연결, 인터넷 상의 오디오와 비디오 전송 등 많은 곳에서 등장한다. 이벤트 스트림 전송 일괄 처리 환경에서 작업은 입출력이 파일이다. 스트림 처리에서는 입력이 파일일 떄 대개 첫 번째 단계로 파일을 분석해 레코드의 연속으로 바꾸는 처리를 한다. 스트림 처리 문맥에서 레코드는 보..