본문 바로가기

스터디

[Book] 가상 면접 사례로 배우는 대규모 시스템 설계 기초 1장

사용자 수에 따른 규모 확장성

모든 컴포넌트가 단 한대의 서버에서 실행되는 간단한 시스템으로 웹,앱,데이터베이스,캐시 등이 전부 서버 한 대에서 실행된다

 

사용자 요청 처리 흐름

요청은 2가지 종류의 단말로 오는데, 하나는 웹이고 다른 하나는 모바일 앱이다.1. 사용자는 돔인 이름을 이용하여 웹사이트에 접속한다. 이 접속을 위해서는 도메인 이름을 도메인 이름 서비스에 질의하여 IP주소로 변환하는 과정이 필요하다. 2. DNS조회 결과로 IP주소가 반환된다. 여기 예제에서는 그 주소가 15.124.23.214라고 하겠다.3. 해당 IP 주소로 HTTP 요청이 전달된다.4. 요청을 받은웹 서버는 HTML 페이지나 JSON 형태의 응답을 반환한다.

 

사용자가 늘면 서버 하나로는 충분하지 않아서 여러 서버를 두어야 한ㄷ. 하나는 웹/모바일 트래픽 처리 용도고, 다른 하나는 데이터베이스용이다. 웹/모바일 트래픽 서버(웹 계층)와 데이터베이스 서버(데이터 계층)를 분리하면 그 각각을 독릭접으로 확장해 나갈 수 있게 된다.

로그

 #번외) NoSQL 비 관계형 데이터베이스는 네 분류로 나눌수 있는데, 키-값 저장소, 그래프 저장소, 칼럼 저장소, 그리고 문서 저장소로 join연산을 지원하지 않는다.

case1. 아주 낮은 응답 지연시간이 요구됨

case2. 다루는 데이터가 비정형이라 관계형 데이터가 아님

case3. 데이터를 직렬화하거나 역직렬화 할 수 있기만 하면 됨

case4. 아주 많은 양의 데이터를 저장할 필요가 있음

 

수직적 규모 확장 vs 수평적 규모 확장

소위 스케일 업이라고도 하는 수직적 규모 확장 프로세스는 서버에 고사양 자원(CPU,RAM)등을 추가하는 행위를 말한다.

반면 스케일 아웃이라고도 하는 수평적 규모 확장 프로세스는 더 많은 서버를 추가하여 성능을 개선하는 행위를 말한다.

 

로드밸런서

로드밸런서는 웹 서버와 통신하기 위해  사설IP주소로같은 네트워크에 속한 서버 사이의 통신에ㅔ서만 쓰일수 있는 주로를 이용한다. 부하 분산 집항에 또 하나의 웹 서버를 추가하고 나면 장애를 자동복구하지못하는 문제는 해소되며, 웹 계층의 가용성은 향상된다.

a. 서버 1이 다운되면 모든 츠래팩이 서버2로 전송된다. 따라서 웹 사이트 전체가 다운되는 일이 방지된다. 부하를 나누기 위해 새로운 서버를 추가할 수도 있다.

b. 웹 사이트로 유입되는 트래픽이 가파르게 증가하면 두 대의 서버로 트래픽을 감당할 수 없는 시점이 오는데, 로드밸런서가 있으므로 우아하게 대처할 수 있다. 웹 서버 계층에 더 많은 서버를 추가하기만 하면 된다. 그러면 로드밸런스가 자동적으로 트래픽을 분산하기 시작할 것이다.

 

데이터베이스 다중화

보통은 서버 사이에 주-부 관계를 설정하고 데이터 원본은 주 서버에, 사본은 부 서버에 저장하는 방식이다.

쓰기 연산은 마스터에서만 지원한다. 부 데이터베이스는 주 데이터베이스로부터 그 사본을 전달받으며, 읽기 연산만을 지원한다. 데이터베이스를 변경하는 명령어들 가령 insert, delete, update 등은 주 데이터베이스로만 전달되어야 한다. 대부분의 애플리케이션은 읽기 연산의 비중이 쓰기 연산보다 훨씬 높다. 따라서 통상 부 데이터베이스의 수가 주 데이터베이스의 수보다 많다. 주-부 다중화 데이터 모델에서 병렬 처리될 수 있는 질의 수가 늘어나므로, 성능이 좋아진다.

 

Q. 만약 데이터베이스 서버 가운데 하나가 다운되면 무슨 일이 벌어질까?A.1. 부 서버가 한 대 뿐인데 다운된 경우라면, 읽기 연산은 한시적으로 모두 주 데이터베이스로 전달될 것이다, 또한 즉시 새로운 부 데이터베이스 서버가 장애 서버를 대체할 것이다. 부 서버가 여러 대인 경우에 읽기 연간은 나머지 부 데이터베이스 서버들로 분산될 것이며, 새로운 부 데이터베이스 서버가 장애 서비스를 대체할 것이다.A.2.  주 데이터베이스 서버가 다운되면 한 대의 부 데이터베이스만 있는 경우 해당 부 데이터베이스 서버가 새로운 주 서버가 될 것이며, 모든 데이터베이스 연산은 일시적으로 새로운 주 서버상에서 수행될것이다. 그리고 새로운 부 서버가 추가될 것이다. 프로덕션 환경에서 벌어지는 일은 부 서버에 보관된 데이터가최신 상태가 아닐 수 있기 땨문에 더 복잡하다. 없는 데이터는 복구 스크립트를 돌려서 추가해야 한다. 다중 마스터나 원형 다중화 방식을 도입하면 이런 상황에서 도움이 될 수 도 있디만 해당 구성은 많이 복잡하다.

 

데이터베이스의 규모 확장

저장할 데이터가 많이지면 데이터베이스에 대한 부하도 증가한다. 그때가 되면 데이터베이스를 증설할 방법을 찾아야 한다.

데이터베이스의 규모를 확장하는데는 두 가지 접근법이 있다. 하나는 수직적 규모 확장법이고 다른 하나는 수평적 규모 확장법이다. 수직적 규모의 확장법은 고성능의 자원(CPU,RAM,디스크 등)을 증설하는 방법이다.

 

수평적 확장

데이터베이스의 수평적 확장은 샤딩이라고 부루는데, 더 많은 서버를 추가함으로써 성능을 향상시킬 수 있다. 

샤딩은 대규모 데이터베이스를 샤드(shard)라고 부르는 작은 단위로 분할하는 기술을 일컫는다. 모든 샤드는 같은 스키마를 쓰지만 샤드에 보관되는 데이터 사이에는 중복이 없다.

샤드로 분할된 데이터베이스에서 사용자 데이터를 넣는다고 가정하면 user_id%4를 해시 함수로 사용하여 샤드 4개 중 보관되는 샤드를 정한다. 결과 0이면 0번 샤드에,1이면 1번 샤드에 보관하는 방식이다.샤딩 전략을 구현할 때 고려해야 할 가장 중요한 것은 샤딩 키(sharding key)를 어떻게 정하느냐 하는 것이다. 샤딩 키는 파티션 키라고도 부르는데, 데이터가 어떻게 분산될지 정하는 하나 이상의 칼럼으로 구성된다.이는 데이터를 고르게 분할 할 수 있도록 하는게 가장 중요하다. 샤딩 키를 올바른 데이터베이스에 질의를 보내어 데이터 조회나 변경을 처리하므로 효율을 높일 수도 있다.

 

아래는 샤딩을 도입하면서 생기는 문제이다.

  • 데이터의 재샤딩(resharding): 재 샤딩은 (1) 데이터가 너무 많아져서 하나의 샤드로는 더 이상 감당하기 어려울 때 (2)샤드 간 데이터 데이터 분포가 균등하지 못하여 어떤 샤드에 할당된 공간 소모가 다른 샤드에 비해 빨리 진행되는 샤드 소진이라도 부르는 이러한 현상이 발생하면 샤드 키를 계산하는 함수를 변경하고 데이터를 재배치해야 한다.
  • 유명인사 문제; 핫스팟 키 문제라도 부르는데, 특정 샤드에 질의가 집중되어 서버에 과부하가 걸리는 문제다. 가령 유명인사등이 전부 같은 샤드에 저장되는 데이터베이스가 있을 때 결국 해당 샤드에는 read 연산 때문에 과부하가 걸리게 될 것이다.
  • 조인과 비정규화: 일단 하나의 데이터베이스를 여러 샤드 서버로 쪼개고 나면, 여러 샤드에 걸친 데이터를 조인하기가 힘들어진다. 이를 해결하는 한 가지 방법은 데이터베이스를 비정규화하여 하나의 테이블에서 질의가 수행될 수 있도록 하는 것이다

 

응답시간 개선

응답 시간은 캐시를 붙이고 정적 콘텐츠를 전송 네트워크로 옮기면 개선할 수 있다.캐시는 값비싼 연산 결과 또는 자주 참조되는 데이터를 메모리 안에 두고, 뒤이은 요청이 보다 빨리 처리될 수 있도록 하는 저장소다, 웹 페이지를새로고침 할 때마다 표시할 데이터를 가져오기 위해 한 번 이상의 데이터베이스 호출이 발생한다. 애플리케이션 성능은 데이터베이스를 얼마나 자주 호출하느냐에 크게 좌우되는데, 캐시는 그런 문제를 완화할 수 있다.

 

캐시 계층

캐시 계층은 데이터가 잠시 보관되는 곳으로 데이테베이스보다 훨씬 바르다. 별도의 캐시 계층을 두면 성능이 개선될 뿐 아니랄 데이터베이스의 부하를 줄일 수 있고, 캐시 계층의 규모를 독립적으로 확장시키는 것도 가능해진다.

요청 받은 웹 서버는 캐시에 응답이 저장되어 있는지를 본다. 만일 저장되어 있다면 해당 데이터를 클라이언트에 반환한다. 없는 경우에는 데이터베이스 질의를 통해 데이터를 찾아 캐시에 저장한 뒤 클라이언트에 반환한다. 이러한 캐시 전략을 읽기 주도형 캐시 전략이라고 부른다. 이것 이외에도 다양한 전략이 있는데, 캐시할 데이터 종류, 크기, 액세스 패턴에 맞는 캐시 전략을 선택하면 된다. 

 

캐시 사용 시 유의할 점

a, 장애에는 어떻게 대처할 것인가? 캐시 서버를 한 대만 두는 경우 해당 서버는 단일 장애지점SPOF이 되어버릴 가능성이 있다,

b,캐시 메모리는 얼마나 크게 잡을 것인가? 캐시 메모리가 너무 작으면 액세스 패턴에 따라서는 데이터가 너무 자주 캐시에서 밀려나버려(eviction) 캐시의 성능이 떨어지게 된다. 이를 막을 한 가지 방법은 캐시 메모리를 과할당하는 것이다. 이렇게하면 캐시에 보관될데이터가 갑자가 늘어났을 때 생길 문제도 방지할 수 있게 된다.

c, 데이터 방출 적책은 무엇인가? 캐시가 꽉 차버리면 추가로 캐시에 데이터를 넣어야 할 경우 기존 데이터를 내보내야 한다. 이것을 캐시 데이터 방출 정책이라고 하는데, 그 가운데 가장 널리 쓰이는 것은 LRU로 마지막으로 사용된 시점이 가장 오래된 데이터를 내보내는 정책이다. 다른 정책으로는 LFU 사용된 빈도가 가장 낮은 데이터를 내보내는 정책, FIFO 같은  것도 있다.

 

콘텐츠 전송 네트워크CDN

CDN은 정적 콘텐츠를 전송하는데 쓰이는, 지리적으로 분산된 서버의 네트워크이다. 이미지, 비디오, CSS, JavaScript 파일 등을 캐시할 수 있다. 반면 동적 콘텐츠 캐싱은 요청 경로, 질의 문자열, 쿠키, 요청 헤더 등의 정보에 기반하여 HTML 페이지를 캐시하는 것이다.CDN은 어떤 사용자가 웹사이트를 방문하면, 그 사용자에게 가장 가까운 CDN 서버가 정적 콘텐츠를 전달하게 된다. 직관적으로도 당연하겠지만, 사용자가 CDN 서버로부터 멀면 멀수록 웹사이트는 천천히 로드될 것이다. 예를 들어, CDN 서버가 샌프란시스코에 있다면 LA에 있는 사용자는 유럽 사용자보다 빠른 웹 사이트를 보게 될 것이다. 1. 사용자 A가 이미지 URL을 이용해 image.png에 접근한다. URL의 도메인은 CDN 서비스 사업자가 제공한 것이다. 2. CDN 서버의 캐시에 해당 이미지가 없는 경우, 서버는 원본 서버에 요청하여 파일을 가져온다. 원본 서버는 웹 서버일 수도 있고 아마존 S3같은 온라인 저장소일 수도 있다.3. 원본 서버가 파일을 CDN 서버에 반환한다. 응답의 HTTP 헤더에는 해당 파일이 얼마나 오래 캐시될 수 있는지를 설명하는 TTL 값이 들어있다.4. CDN 서버는 파일을 캐시하고 사용자 A에게 반환한다. 이미지는 TTL에 명시된 시간이 끝날 때까지 캐시된다.5. 사용자 B가 같은 이미지에 대한 요청을 CDN서버에 전송한다.6. 만료되지 않은 이미지에 대한 요청은 캐시를 통해 처리된다.

 

참고, CDN 사용 시 고려해야 할 사항비용: CDN은 보통 제3사업자에 의해 운영되며, CDN으로 들어가고 나가는데 데이터 전송 양에 따라 요금을 내게 된다. 적절한 만료 시한 설정: 시의성이 중요한 콘텐츠의 경우 만료 시점을 잘 정해야 한다. 너무 길지도 않고 짦지도 않아야 하는데, 너무 길면 콘텐츠 신선도가 떨어질 것이고, 너무 짧으면 원본 서버에 빈번히 접속하게 되어서 좋지 않다.콘텐츠 무효화 방법: 아직 만료되지 않은 콘텐츠라 하더라도 몇 개의 방법으로 CDN에서 제거할 수 있다.- CDN 서비스 사업자가 제공하는 API를 이용하여 콘텐츠 무효화- 콘텐프의 다른 버전을 서비스하도록 오브젝트 버저닝 이용하여 콘텐츠의 새로운 버전을 지정하기 위해서는 URL 마지막에 버전 번호를 인자로 주면 된다. 예를 들어, image.png?v=2와 같은 식이다.

 

무상태(stateless) 웹 계층

이제 웹 계층을 수평적으로 확장하는 방법우로 상태 정보(사용자 세션 데이터와 같은)를 웹 계층에서 제거해야 한다. 바람직한 전략은 상태 정보를 관계형 데이터베이스나 NoSQL 같은 지속성 저장소에 보관하고, 필요할 때 가져오도록 하는 것이다. 이렇게 구성된 웹 계층을 무상태 웹 계층이라고 부른다.

 

상태 정보 의존적인 아키텍처

상태 정보를 보관하는 서버와 그렇지 않은 서버 사이에는 몇 가지 중요한 차이가 있다. 상태 정보를 보관하는 서버는 클라이언트 정보, 즉 상태를 유지하여 요청들 사이에 공유되도록 한다. 무상태 서버에는 이런 장치가 없다. 같은클라이언크로부터의 요청은 항상 같은 서버로 전송되어야 한다는 것이다. 대부분의 로드밸런서가 이를 지원하기 위해 고정 세션이라는 기능을 제공하고 있는데, 이는 로드밸런서 부담을 준다. 게다가 로드밸런서 뒷단에 서버를 추가하거나 제거하기도 까다로워진다.

 

무상태 아키텍처

사용자로부터의 HTTP 요청은 어떤 웹 서버로도 전달될 수 있다. 웹 서버는 상태 정보가 필요한 경우 공유 저장소로부터 데이터를 가져온다. 따라서 상태 정보는 웹 서버로부터 물리적으로 분리되어 있다. 

 

메시지 큐

메시지 큐는 메시지의 무손실(즉 메시지 큐에 일단 보관된 메시지는 소비자가 꺼낼 때까지 안전히 보관된다는 특성)을 보장하는, 비동기 통신을 지원하는 컴포넌트다. 메시지의 버퍼 역할을 하며, 비동기적으로 전송한다. 메시지 큐를 이용하면 서비스 또는 서버 간 결합이 느슨해져서, 규모 확장성이 보장되어야 하는 안정적 애츨리케이션을 구성하기 좋다.

메시지 큐의 기본 아키텍처는 생산자 도는 발행자라고 불리는 입력 서비스가 메시지를 만들어 메시지 큐에 발행한다. 큐에는 보통 소비자 혹은 구족자라 불리는 서비스  혹은 서버가 연결되어 있는데, 메시지를 받아 그에 맞는 동작을 수행하는 역할을 한다. 생산자는 소비자 프로세스가 다운되어 있어도 메시지를 발행할 수 있고, 소비자는 생산자 서비스다 가용한 상태가 아니더라도 메시지를 수신할 수 있다.

사용 예로는 이미지의 크로핑,샤프닝,블러링 등을 지원하는 사진 보정 애플리케이션을 만든다고 해보자. 이러한 보정은 시간이 오래 걸릴 수 있는 프로세스이므로 비동기적으로 처리하면 편리하다. 웹 서버는 사진 보정 작업(job)을 매시지 큐에 넣는다. 사진 보정 작업(worker) 프로세스들은 이 작업을 메시지 큐에서 꺼내어 비동기적으로 완료한다. 이렇게 하면 생산자와 소비자 서비스의 규모는 각기 독립적으로 확장될 수 있다.

큐의 크가가 커지면 더 많은 처리기 프로세스를 추가해야 처리 시간을 줄일 수 있다. 하지만 큐가 거의 비어 있는 상태라면, 처리기 프로세스의 수는 줄일 수 있을 것이다.

 

로그,메트릭 그리고 자동화

에러 로그를 모니터링 하는 것은 중요하다. 시스템의 오류와 문제들을 보다 쉽게 찾아낼 수 있도록 하기 때문이다. 에러 로그는 서버 단위로 모니터링 할 수도 있지만, 로그를 단일 서비스로 모아주는 도구를 활용하면 더 편리하게 검색하고 조회할 수 있다.

메트릭을 잘 수집하면 사업 현황에 관한 유용한 정보를 얻을 수 도 있고, 시스템의 현재 상태를 손쉽게 파악할 수도 있다. 

- 호스트 단위 메트릭: CPU,메모리, 디스트I/O에 관한 메트릭

- 종합(aggregated)  메트릭: 데이터베이스 계층의 성능, 캐시 계층의 성능

-핵심 비즈니스 메트릭: 일별 능동 사용자(daily active user), 수익(revenue), 재방문(retention)