English ∙ 日本語 ∙ 简体中文 ∙ 繁體中文 | العَرَبِيَّة ∙ বাংলা ∙ Português do Brasil ∙ Deutsch ∙ ελληνικά ∙ עברית ∙ Italiano ∙ 韓國語 ∙ فارسی ∙ Polski ∙ русский язык ∙ Español ∙ ภาษาไทย ∙ Türkçe ∙ tiếng Việt ∙ Français | Add Translation
大規模システムのシステム設計を学ぶ
システム設計面接課題に備える
スケーラブルなシステムのシステム設計を学ぶことは、より良いエンジニアになることに資するでしょう。
システム設計はとても広範なトピックを含みます。システム設計原理については インターネット上には膨大な量の文献が散らばっています。
このリポジトリは大規模システム構築に必要な知識を学ぶことができる 文献リストを体系的にまとめたもの です。
このプロジェクトは、これからもずっと更新されていくオープンソースプロジェクトの初期段階にすぎません。
Contributions は大歓迎です!
コード技術面接に加えて、システム設計に関する知識は、多くのテック企業における 技術採用面接プロセス で 必要不可欠な要素 です。
システム設計面接での頻出質問に備え、自分の解答と模範解答:ディスカッション、コードそして図表などを比較して学びましょう。
面接準備に役立つその他のトピック:
このAnki用フラッシュカードデッキ は、間隔反復を活用して、システム設計のキーコンセプトの学習を支援します。
外出先や移動中の勉強に役立つでしょう。
コード技術面接用の問題を探している場合はこちら
姉妹リポジトリの Interactive Coding Challengesも見てみてください。追加の暗記デッキカードも入っています。
コミュニティから学ぶ
プルリクエスト等の貢献は積極的にお願いします:
- エラー修正
- セクション内容改善
- 新規セクション追加
- 翻訳する
現在、内容の改善が必要な作業中のコンテンツはこちらです。
コントリビュートの前にContributing Guidelinesを読みましょう。
賛否も含めた様々なシステム設計の各トピックの概要。 全てはトレードオフの関係にあります。
それぞれのセクションはより学びを深めるような他の文献へのリンクが貼られています。
- システム設計トピック: まずはここから
- パフォーマンス vs スケーラビリティ
- レイテンシー vs スループット
- 可用性 vs 一貫性
- 一貫性 パターン
- 可用性 パターン
- ドメインネームシステム(DNS)
- コンテンツデリバリーネットワーク(CDN)
- ロードバランサー
- リバースプロキシ (WEBサーバー)
- アプリケーションレイヤー
- データベース
- キャッシュ
- 非同期処理
- 通信
- セキュリティ
- 補遺
- 作業中
- クレジット
- 連絡情報
- ライセンス
学習スパンに応じてみるべきトピックス (short, medium, long)
Q: 面接のためには、ここにあるものすべてをやらないといけないのでしょうか?
A: いえ、ここにあるすべてをやる必要はありません。
面接で何を聞かれるかは以下の条件によって変わってきます:
- どれだけの技術経験があるか
- あなたの技術背景が何であるか
- どのポジションのために面接を受けているか
- どの企業の面接を受けているか
- 運
より経験のある候補者は一般的にシステム設計についてより深い知識を有していることを要求されるでしょう。システムアーキテクトやチームリーダーは各メンバーの持つような知識よりは深い見識を持っているべきでしょう。一流テック企業では複数回の設計面接を課されることが多いです。
まずは広く始めて、そこからいくつかの分野に絞って深めていくのがいいでしょう。様々なシステム設計のトピックについて少しずつ知っておくことはいいことです。以下の学習ガイドを自分の学習に当てられる時間、技術経験、どの職位、どの会社に応募しているかなどを加味して自分用に調整して使うといいでしょう。
- 短期間 - 幅広く システム設計トピックを学ぶ。いくつかの 面接課題を解くことで対策する。
- 中期間 - 幅広く そして それなりに深くシステム設計トピックを学ぶ。多くの 面接課題を解くことで対策する。
- 長期間 - 幅広く そして もっと深くシステム設計トピックを学ぶ。ほぼ全ての 面接課題を解くことで対策する。
短期間 | 中期間 | 長期間 | |
---|---|---|---|
システム設計トピック を読み、システム動作機序について広く知る | 👍 | 👍 | 👍 |
次のリンク先のいくつかのページを読んで 各企業のエンジニアリングブログ 応募する会社について知る | 👍 | 👍 | 👍 |
次のリンク先のいくつかのページを読む 実世界でのアーキテクチャ | 👍 | 👍 | 👍 |
復習する システム設計面接課題にどのように準備するか | 👍 | 👍 | 👍 |
とりあえず一周する システム設計課題例 | Some | Many | Most |
とりあえず一周する オブジェクト指向設計問題と解答 | Some | Many | Most |
復習する その他システム設計面接での質問例 | Some | Many | Most |
システム設計面接試験問題にどのように取り組むか
システム設計面接は open-ended conversation(Yes/Noでは答えられない口頭質問)です。 自分で会話を組み立てることを求められます。
以下のステップに従って議論を組み立てることができるでしょう。この過程を確かなものにするために、次のセクションシステム設計課題例とその解答 を以下の指針に従って読み込むといいでしょう。
システム仕様の要求事項を聞き出し、問題箇所を特定しましょう。使用例と制約を明確にするための質問を投げかけましょう。要求する推計値についても議論しておきましょう。
- 誰がそのサービスを使うのか?
- どのように使うのか?
- 何人のユーザーがいるのか?
- システムはどのような機能を果たすのか?
- システムへの入力と出力は?
- どれだけの容量のデータを捌く必要があるのか?
- 一秒間に何リクエストの送信が想定されるか?
- 読み書き比率の推定値はいくら程度か?
重要なコンポーネントを全て考慮した高レベルのシステム設計概要を組み立てる。
- 主要なコンポーネントと接続をスケッチして書き出す
- 考えの裏付けをする
それぞれの主要なコンポーネントについての詳細を学ぶ。例えば、url短縮サービスの設計を問われた際には次のようにするといいでしょう:
- 元のURLのハッシュ化したものを作り、それを保存する
- ハッシュ化されたURLを元のURLに再翻訳する
- データベース参照
- API & オブジェクト指向の設計
与えられた制約条件からボトルネックとなりそうなところを割り出し、明確化する。 例えば、スケーラビリティの問題解決のために以下の要素を考慮する必要があるだろうか?
- ロードバランサー
- 水平スケーリング
- キャッシング
- データベースシャーディング
取りうる解決策とそのトレードオフについて議論をしよう。全てのことはトレードオフの関係にある。ボトルネックについてはスケーラブルなシステム設計の原理を読むといいでしょう。
ちょっとした推計値を手計算ですることを求められることもあるかもしれません。補遺の以下の項目が役に立つでしょう:
以下のリンク先ページを見てどのような質問を投げかけられるか概要を頭に入れておきましょう:
頻出のシステム設計面接課題と参考解答、コード及びダイアグラム
解答は
solutions/
フォルダ以下にリンクが貼られている
問題 | |
---|---|
Pastebin.com (もしくは Bit.ly) を設計する | 解答 |
Twitterタイムライン (もしくはFacebookフィード)を設計する Twitter検索(もしくはFacebook検索)機能を設計する |
解答 |
ウェブクローラーを設計する | 解答 |
Mint.comを設計する | 解答 |
SNSサービスのデータ構造を設計する | 解答 |
検索エンジンのキー/バリュー構造を設計する | 解答 |
Amazonのカテゴリ毎の売り上げランキングを設計する | 解答 |
AWS上で100万人規模のユーザーを捌くサービスを設計する | 解答 |
システム設計問題を追加する | Contribute |
頻出のオブジェクト指向システム設計面接課題と参考解答、コード及びダイアグラム
解答は
solutions/
フォルダ以下にリンクが貼られている
備考: このセクションは作業中です
問題 | |
---|---|
ハッシュマップの設計 | 解答 |
LRUキャッシュの設計 | 解答 |
コールセンターの設計 | 解答 |
カードのデッキの設計 | 解答 |
駐車場の設計 | 解答 |
チャットサーバーの設計 | 解答 |
円形配列の設計 | Contribute |
オブジェクト指向システム設計問題を追加する | Contribute |
システム設計の勉強は初めて?
まず初めに、よく使われる設計原理について、それらが何であるか、どのように用いられるか、長所短所について基本的な知識を得る必要があります
- ここで触れられているトピックス:
- 垂直スケーリング
- 水平スケーリング
- キャッシング
- ロードバランシング
- データベースレプリケーション
- データベースパーティション
次に、ハイレベルでのトレードオフについてみていく:
- パフォーマンス vs スケーラビリティ
- レイテンシ vs スループット
- 可用性 vs 一貫性
全てはトレードオフの関係にあるというのを肝に命じておきましょう。
それから、より深い内容、DNSやCDNそしてロードバランサーなどについて学習を進めていきましょう。
リソースが追加されるのにつれて パフォーマンス が向上する場合そのサービスは スケーラブル であると言えるでしょう。一般的に、パフォーマンスを向上させるというのはすなわち計算処理を増やすことを意味しますが、データセットが増えた時などより大きな処理を捌けるようになることでもあります。1
パフォーマンスvsスケーラビリティをとらえる他の考え方:
- パフォーマンス での問題を抱えている時、あなたのシステムは一人のユーザーにとって遅いと言えるでしょう。
- スケーラビリティ での問題を抱えているとき、一人のユーザーにとっては速いですが、多くのリクエストがある時には遅くなってしまうでしょう。
レイテンシー とはなにがしかの動作を行う、もしくは結果を算出するのに要する時間
スループット とはそのような動作や結果算出が単位時間に行われる回数
一般的に、 最大限のスループット を 許容範囲内のレイテンシー で実現することを目指すのが普通だ。
分散型コンピュータシステムにおいては下の三つのうち二つまでしか同時に保証することはできない。:
- 一貫性 - 全ての読み込みは最新の書き込みもしくはエラーを受け取る
- 可用性 - 受け取る情報が最新のものだという保証はないが、全てのリクエストはレスポンスを必ず受け取る
- 分断耐性 - ネットワーク問題によって順不同の分断が起きてもシステムが動作を続ける
ネットワークは信頼できないので、分断耐性は必ず保証しなければなりません。つまりソフトウェアシステムとしてのトレードオフは、一貫性を取るか、可用性を取るかを考えなければなりません。
分断されたノードからのレスポンスを待ち続けているとタイムアウトエラーに陥る可能性があります。CPはあなたのサービスがアトミックな読み書き(不可分操作)を必要とする際にはいい選択肢でしょう。
レスポンスはノード上にあるデータで最新のものを返します。つまり、最新版のデータが返されるとは限りません。分断が解消された後も、書き込みが反映されるのには時間がかかります。
結果整合性 を求めるサービスの際にはAPを採用するのがいいでしょう。もしくは、外部エラーに関わらずシステムが稼働する必要がある際にも同様です。
同じデータの複製が複数ある状態では、クライアントが一貫したデータ表示を受け取るために、どのようにそれらを同期すればいいのかという課題があります。 CAP 理論 における一貫性の定義を思い出してみましょう。全ての読み取りは最新の書き込みデータもしくはエラーを受け取るはずです。
書き込み後の読み取りでは、その最新の書き込みを読めたり読めなかったりする。ベストエフォート型のアプローチに基づく。
このアプローチはmemcachedなどのシステムに見られます。弱い一貫性はリアルタイム性が必要なユースケース、例えばVoIP、ビデオチャット、リアルタイムマルチプレイヤーゲームなどと相性がいいでしょう。例えば、電話に出ているときに数秒間音声が受け取れなくなったとしたら、その後に接続が回復してもその接続が切断されていた間に話されていたことは聞き取れないというような感じです。
書き込みの後、読み取りは最終的にはその結果を読み取ることができる(ミリ秒ほど遅れてというのが一般的です)。データは非同期的に複製されます。
このアプローチはDNSやメールシステムなどに採用されています。結果整合性は多くのリクエストを捌くサービスと相性がいいでしょう。
書き込みの後、読み取りはそれを必ず読むことができます。データは同期的に複製されます。
このアプローチはファイルシステムやRDBMSなどで採用されています。トランザクションを扱うサービスでは強い一貫性が必要でしょう。
高い可用性を担保するには主に次の二つのパターンがあります: フェイルオーバー と レプリケーション です。
アクティブ・パッシブフェイルオーバーにおいては、周期信号はアクティブもしくはスタンバイ中のパッシブなサーバーに送られます。周期信号が中断された時には、パッシブだったサーバーがアクティブサーバーのIPアドレスを引き継いでサービスを再開します。
起動までのダウンタイムはパッシブサーバーが「ホット」なスタンバイ状態にあるか、「コールド」なスタンバイ状態にあるかで変わります。アクティブなサーバーのみがトラフィックを捌きます。
アクティブ・パッシブフェイルオーバーはマスター・スレーブフェイルオーバーと呼ばれることもあります。
アクティブアクティブ構成では両方のサーバーがトラフィックを捌くことで負荷を分散します。
これらのサーバーがパブリックなものの場合、DNSは両方のサーバーのパブリックIPを知っている必要があります。もし、プライベートなものな場合、アプリケーションロジックが両方のサーバーの情報について知っている必要があります。
アクティブ・アクティブなフェイルオーバーはマスター・マスターフェイルオーバーと呼ばれることもあります。
- フェイルオーバーではより多くのハードウェアを要し、複雑さが増します。
- 最新の書き込みがパッシブサーバーに複製される前にアクティブが落ちると、データ欠損が起きる潜在可能性があります。
このトピックは データベース セクションにおいてより詳細に解説されています:
Source: DNS security presentation
ドメインネームシステム (DNS) は www.example.com などのドメインネームをIPアドレスへと翻訳します。
DNSは少数のオーソライズされたサーバーが上位に位置する階層的構造です。あなたのルーターもしくはISPは検索をする際にどのDNSサーバーに接続するかという情報を提供します。低い階層のDNSサーバーはその経路マップをキャッシュします。ただ、この情報は伝搬遅延によって陳腐化する可能性があります。DNSの結果はあなたのブラウザもしくはOSに一定期間(time to live (TTL)に設定された期間)キャッシュされます。
- NS record (name server) - あなたのドメイン・サブドメインでのDNSサーバーを特定します。
- MX record (mail exchange) - メッセージを受け取るメールサーバーを特定します。
- A record (address) - IPアドレスに名前をつけます。
- CNAME (canonical) - 他の名前もしくは
CNAME
(example.com を www.example.com) もしくはA
recordへと名前を指し示す。
CloudFlare や Route 53 などのサービスはマネージドDNSサービスを提供しています。いくつかのDNSサービスでは様々な手法を使ってトラフィックを捌くことができます:
- 加重ラウンドロビン
- トラフィックがメンテナンス中のサーバーに行くのを防ぎます
- 様々なクラスターサイズに応じて調整します
- A/B テスト
- レイテンシーベース
- 地理ベース
- 上記で示されているようなキャッシングによって緩和されているとはいえ、DNSサーバーへの接続には少し遅延が生じる。
- DNSサーバーは、政府、ISP企業,そして大企業に管理されているが、それらの管理は複雑である。
- DNSサービスはDDoS attackの例で、IPアドレスなしにユーザーがTwitterなどにアクセスできなくなったように、攻撃を受ける可能性がある。
コンテンツデリバリーネットワーク(CDN)は世界中に配置されたプロキシサーバーのネットワークがユーザーに一番地理的に近いサーバーからコンテンツを配信するシステムのことです。AmazonのCloudFrontなどは例外的にダイナミックなコンテンツも配信しますが、一般的に、HTML/CSS/JS、写真、そして動画などの静的ファイルがCDNを通じて配信されます。そのサイトのDNSがクライアントにどのサーバーと交信するかという情報を伝えます。
CDNを用いてコンテンツを配信することで以下の二つの理由でパフォーマンスが劇的に向上します:
- ユーザーは近くにあるデータセンターから受信できる
- バックエンドサーバーはCDNが処理してくれるリクエストに関しては処理する必要がなくなります
プッシュCDNではサーバーデータに更新があった時には必ず、新しいコンテンツを受け取る方式です。コンテンツを用意し、CDNに直接アップロードし、URLをCDNを指すように指定するところまで、全て自分で責任を負う形です。コンテンツがいつ期限切れになるのか更新されるのかを設定することができます。コンテンツは新規作成時、更新時のみアップロードされることでトラフィックは最小化される一方、ストレージは最大限消費されてしまいます。
トラフィックの少ない、もしくは頻繁にはコンテンツが更新されないサイトの場合にはプッシュCDNと相性がいいでしょう。コンテンツは定期的に再びプルされるのではなく、CDNに一度のみ配置されます。
プルCDNでは一人目のユーザーがリクエストした時に、新しいコンテンツをサービスのサーバーから取得します。コンテンツは自分のサーバーに保存して、CDNを指すURLを書き換えます。結果として、CDNにコンテンツがキャッシュされるまではリクエスト処理が遅くなります。
time-to-live (TTL) はコンテンツがどれだけの期間キャッシュされるかを規定します。プルCDNはCDN 上でのストレージスペースを最小化しますが、有効期限が切れたファイルが更新前にプルされてしまうことで冗長なトラフィックに繋がってしまう可能性があります。
大規模なトラフィックのあるサイトではプルCDNが相性がいいでしょう。というのも、トラフィックの大部分は最近リクエストされ、CDNに残っているコンテンツにアクセスするものであることが多いからです。
- CDNのコストはトラフィック量によって変わります。もちろん、CDNを使わない場合のコストと比較するべきでしょう。
- TTLが切れる前にコンテンツが更新されると陳腐化する恐れがあります。
- CDNでは静的コンテンツがCDNを指すようにURLを更新する必要があります。
Source: Scalable system design patterns
ロードバランサーは入力されるクライアントのリクエストをアプリケーションサーバーやデータベースへと分散させる。どのケースでもロードバランサーはサーバー等計算リソースからのレスポンスを適切なクライアントに返す。ロードバランサーは以下のことに効果的です:
- リクエストが状態の良くないサーバーに行くのを防ぐ
- リクエストを過剰に送るのを防ぐ
- 特定箇所の欠陥でサービスが落ちることを防ぐ
ロードバランサーは (費用の高い) ハードウェアもしくはHAProxyなどのソフトウェアで実現できる。
他の利点としては:
- SSL termination - 入力されるリクエストを解読する、また、サーバーレスポンスを暗号化することでバックエンドのサーバーがこのコストが高くつきがちな処理を請け負わなくていいように肩代わりします。
- X.509 certificates をそれぞれのサーバーにインストールする必要をなくします
- セッション管理 - クッキーを取り扱うウェブアプリがセッション情報を保持していない時などに、特定のクライアントのリクエストを同じインスタンスへと流します。
障害に対応するために、アクティブ・パッシブ もしくは アクティブ・アクティブ モードのどちらにおいても、複数のロードバランサーを配置するのが一般的です。
ロードバランサーは以下のような種々のメトリックを用いてトラフィックルーティングを行うことができます:
- ランダム
- Least loaded
- セッション/クッキー
- ラウンドロビンもしくは加重ラウンドロビン
- Layer 4
- Layer 7
Layer 4 ロードバランサーは トランスポートレイヤー を参照してどのようにリクエストを配分するか判断します。一般的に、トランスポートレイヤーとしては、ソース、送信先IPアドレス、ヘッダーに記述されたポート番号が含まれますが、パケットの中身のコンテンツは含みません。 Layer 4 ロードバランサーはネットワークパケットを上流サーバーへ届け、上流サーバーから配信することでネットワークアドレス変換 Network Address Translation (NAT) を実現します。
Layer 7 ロードバランサーは アプリケーションレイヤー を参照してどのようにリクエストを配分するか判断します。ヘッダー、メッセージ、クッキーなどのコンテンツのことです。Layer 7 ロードバランサーはネットワークトラフィックの終端を受け持ち メッセージを読み込み、ロードバランシングの判断をし、選択したサーバーとの接続を繋ぎます。例えば layer 7 ロードバランサーは動画のトラフィックを直接、そのデータをホストしているサーバーにつなぐと同時に、決済処理などのより繊細なトラフィックをセキュリティ強化されたサーバーに流すということもできる。
柔軟性とのトレードオフになりますが、 layer 4 ロードバランサーではLayer 7ロードバランサーよりも所要時間、計算リソースを少なく済ませることができます。ただし、昨今の汎用ハードウェアではパフォーマンスは最小限のみしか発揮できないでしょう。
ロードバランサーでは水平スケーリングによってパフォーマンスと可用性を向上させることができます。手頃な汎用マシンを追加することによってスケールアウトさせる方が、一つのサーバーをより高価なマシンにスケールアップする(垂直スケーリング)より費用対効果も高くなり、結果的に可用性も高くなります。また、汎用ハードウェアを扱える人材を雇う方が、特化型の商用ハードウェアを扱える人材を雇うよりも簡単でしょう。
- 水平的にスケーリングしていくと、複雑さが増す上に、サーバーのクローニングが必要になる。
- キャッシュやデータベースなどの下流サーバーは上流サーバーがスケールアウトするにつれてより多くの同時接続を保たなければなりません。
- ロードバランサーはリソースが不足していたり、設定が適切でない場合、システム全体のボトルネックになる可能性があります。
- 単一障害点を除こうとしてロードバランサーを導入した結果、複雑さが増してしまうことになります。
- ロードバランサーが一つだけだとそこが単一障害点になってしまいます。一方で、ロードバランサーを複数にすると、さらに複雑さが増してしまいます。
- NGINX アーキテクチャ
- HAProxy アーキテクチャガイド
- スケーラビリティ
- Wikipedia
- Layer 4 ロードバランシング
- Layer 7 ロードバランシング
- ELB listener config
リバースプロキシサーバーは内部サービスをまとめて外部に統一されたインターフェースを提供するウェブサーバーです。クライアントからのリクエストはそれに対応するサーバーに送られて、その後レスポンスをリバースプロキシがクライアントに返します。
他には以下のような利点があります:
- より堅牢なセキュリティ - バックエンドサーバーの情報を隠したり、IPアドレスをブラックリスト化したり、クライアントごとの接続数を制限したりできます。
- スケーラビリティや柔軟性が増します - クライアントはリバースプロキシのIPしか見ないので、裏でサーバーをスケールしたり、設定を変えやすくなります。
- SSL termination - 入力されるリクエストを解読し、サーバーのレスポンスを暗号化することでサーバーがこのコストのかかりうる処理をしなくて済むようになります。
- X.509 証明書 を各サーバーにインストールする必要がなくなります。
- 圧縮 - サーバーレスポンスを圧縮できます
- キャッシング - キャッシュされたリクエストに対して、レスポンスを返します
- 静的コンテンツ - 静的コンテンツを直接送信することができます。
- HTML/CSS/JS
- 写真
- 動画
- などなど
- 複数のサーバーがある時にはロードバランサーをデプロイすると役に立つでしょう。 しばしば、ロードバランサーは同じ機能を果たすサーバー群へのトラフィックを捌きます。
- リバースプロキシでは、上記に述べたような利点を、単一のウェブサーバーやアプリケーションレイヤーに対しても示すことができます。
- NGINX や HAProxy などの技術はlayer 7 リバースプロキシとロードバランサーの両方をサポートします。
- リバースプロキシを導入するとシステムの複雑性が増します。
- 単一のリバースプロキシは単一障害点になりえます。一方で、複数のリバースプロキシを導入すると(例: フェイルオーバー) 複雑性はより増します。
Source: Intro to architecting systems for scale
ウェブレイヤーをアプリケーション層 (プラットフォーム層とも言われる) と分離することでそれぞれの層を独立にスケール、設定することができるようになります。新しいAPIをアプリケーション層に追加する際に、不必要にウェブサーバーを追加する必要がなくなります。
単一責任の原則 では、小さい自律的なサービスが協調して動くように提唱しています。小さいサービスの小さいチームが急成長のためにより積極的な計画を立てられるようにするためです。
アプリケーション層は非同期処理もサポートします。
独立してデプロイできる、小規模なモジュール様式であるマイクロサービスもこの議論に関係してくる技術でしょう。それぞれのサービスは独自のプロセスを処理し、明確で軽量なメカニズムで通信して、その目的とする機能を実現します。1
例えばPinterestでは以下のようなマイクロサービスに分かれています。ユーザープロフィール、フォロワー、フィード、検索、写真アップロードなどです。
Consul、 Etcd、 Zookeeper などのシステムでは、登録されているサービスの名前、アドレス、ポートの情報を監視することで、サービス同士が互いを見つけやすくしています。サービスの完全性の確認には Health checks が便利で、これには HTTP エンドポイントがよく使われます。 Consul と Etcd のいずれも組み込みの key-value store を持っており、設定データや共有データなどのデータを保存しておくことに使われます。
- アーキテクチャ、運用、そしてプロセスを考慮すると、緩く結び付けられたアプリケーション層を追加するには、モノリシックなシステムとは異なるアプローチが必要です。
- マイクロサービスはデプロイと運用の点から見ると複雑性が増すことになります。
- スケールするシステムアーキテクチャを設計するためのイントロ
- システム設計インタビューを紐解く
- サービス指向アーキテクチャ
- Zookeeperのイントロダクション
- マイクロサービスを作るために知っておきたいこと
Source: Scaling up to your first 10 million users
SQLなどのリレーショナルデータベースはテーブルに整理されたデータの集合である。
ACID はリレーショナルデータベースにおけるトランザクションのプロパティの集合である
- 不可分性 - それぞれのトランザクションはあるかないかのいずれかである
- 一貫性 - どんなトランザクションもデータベースをある確かな状態から次の状態に遷移させる。
- 独立性 - 同時にトランザクションを処理することは、連続的にトランザクションを処理するのと同じ結果をもたらす。
- 永続性 - トランザクションが処理されたら、そのように保存される
リレーショナルデータベースをスケールさせるためにはたくさんの技術がある: マスター・スレーブ レプリケーション、 マスター・マスター レプリケーション、 federation、 シャーディング、 非正規化、 そして SQL チューニング
マスターデータベースが読み取りと書き込みを処理し、書き込みを一つ以上のスレーブデータベースに複製します。スレーブデータベースは読み取りのみを処理します。スレーブデータベースは木構造のように追加のスレーブにデータを複製することもできます。マスターデータベースがオフラインになった場合には、いずれかのスレーブがマスターに昇格するか、新しいマスターデータベースが追加されるまでは読み取り専用モードで稼働します。
Source: Scalability, availability, stability, patterns
- スレーブをマスターに昇格させるには追加のロジックが必要になる。
- マスタースレーブ レプリケーション、マスターマスター レプリケーションの 両方 の欠点は欠点: レプリケーションを参照
いずれのマスターも読み取り書き込みの両方に対応する。書き込みに関してはそれぞれ協調する。いずれかのマスターが落ちても、システム全体としては読み書き両方に対応したまま運用できる。
Source: Scalability, availability, stability, patterns
- ロードバランサーを導入するか、アプリケーションロジックを変更することでどこに書き込むかを指定しなければならない。
- 大体のマスターマスターシステムは、一貫性が緩い(ACID原理を守っていない)もしくは、同期する時間がかかるために書き込みのレイテンシーが増加してしまっている。
- 書き込みノードが追加され、レイテンシーが増加するにつれ書き込みの衝突の可能性が増える。
- マスタースレーブ レプリケーション、マスターマスター レプリケーションの 両方 の欠点は欠点: レプリケーション を参照
- 新しいデータ書き込みを複製する前にマスターが落ちた場合にはそのデータが失われてしまう可能性がある。
- 書き込みは読み取りレプリカにおいてリプレイされる。書き込みが多い場合、複製ノードが書き込みの処理のみで行き詰まって、読み取りの処理を満足に行えない可能性がある。
- 読み取りスレーブノードの数が多ければ多いほど、複製しなければならない数も増え、複製時間が伸びてしまいます。
- システムによっては、マスターへの書き込みはマルチスレッドで並列処理できる一方、スレーブへの複製は単一スレッドで連続的に処理しなければならない場合があります。
- レプリケーションでは追加のハードウェアが必要になり、複雑性も増します。
Source: Scaling up to your first 10 million users
フェデレーション (もしくは機能分割化とも言う) はデータベースを機能ごとに分割する。例えば、モノリシックな単一データベースの代わりに、データベースを フォーラム、 ユーザー、 プロダクト のように三つにすることで、データベース一つあたりの書き込み・読み取りのトラフィックが減り、その結果レプリケーションのラグも短くなります。データベースが小さくなることで、メモリーに収まるデータが増えます。キャッシュの局所性が高まるため、キャッシュヒット率も上がります。単一の中央マスターで書き込みを直列化したりしないため、並列で書き込みを処理することができ、スループットの向上が期待できます。
- 大規模な処理やテーブルを要するスキーマの場合、フェデレーションは効果的とは言えないでしょう。
- どのデータベースに読み書きをするのかを指定するアプリケーションロジックを更新しなければなりません。
- server linkで二つのデータベースからのデータを連結するのはより複雑になるでしょう。
- フェデレーションでは追加のハードウェアが必要になり、複雑性も増します。
Source: Scalability, availability, stability, patterns
シャーディングでは異なるデータベースにそれぞれがデータのサブセット断片のみを持つようにデータを分割します。ユーザーデータベースを例にとると、ユーザー数が増えるにつれてクラスターにはより多くの断片が加えられることになります。
federationの利点に似ていて、シャーディングでは読み書きのトラフィックを減らし、レプリケーションを減らし、キャッシュヒットを増やすことができます。インデックスサイズも減らすことができます。一般的にはインデックスサイズを減らすと、パフォーマンスが向上しクエリ速度が速くなります。なにがしかのデータを複製する機能がなければデータロスにつながりますが、もし、一つのシャードが落ちても、他のシャードが動いていることになります。フェデレーションと同じく、単一の中央マスターが書き込みの処理をしなくても、並列で書き込みを処理することができ、スループットの向上が期待できます。
ユーザーテーブルをシャードする一般的な方法は、ユーザーのラストネームイニシャルでシャードするか、ユーザーの地理的配置でシャードするなどです。
- シャードに対応するようにアプリケーションロジックを変更しなければなりません。結果としてSQLクエリが複雑になります。
- シャードではデータ配分がいびつになってしまう可能性があります。例えば、標準ユーザーの集合を持つシャードがある場合、そのシャードが他のシャードよりも重い負荷を負うことになります。
- リバランシングをすると複雑性がより増します。consistent hashing に基づいたシャーディングでは、通信データを削減することもできます。
- 複数のシャードからのデータを連結するのはより複雑です。
- シャーディングでは追加のハードウェアが必要になり、複雑性も増します。
非正規化では、書き込みのパフォーマンスをいくらか犠牲にして読み込みのパフォーマンスを向上させようとします。計算的に重いテーブルの結合などをせずに、複数のテーブルに冗長なデータのコピーが書き込まれるのを許容します。いくつかのRDBMS例えば、PostgreSQL やOracleはこの冗長な情報を取り扱い、一貫性を保つためのmaterialized views という機能をサポートしています。
フェデレーション や シャーディングなどのテクニックによってそれぞれのデータセンターに分配されたデータを合一させることはとても複雑な作業です。非正規化によってそのような複雑な処理をしなくて済むようになります。
多くのシステムで、100対1あるいは1000対1くらいになるくらい読み取りの方が、書き込みのトラフィックよりも多いことでしょう。読み込みを行うために、複雑なデータベースのジョイン処理が含まれるものは計算的に高価につきますし、ディスクの処理時間で膨大な時間を費消してしまうことになります。
- データが複製される。
- 冗長なデータの複製が同期されるように制約が存在し、そのことでデータベース全体の設計が複雑化する。
- 非正規化されたデータベースは過大な書き込みを処理しなければならない場合、正規化されているそれよりもパフォーマンスにおいて劣る可能性がある。
SQLチューニングは広範な知識を必要とする分野で多くの 本 が書かれています。
ボトルネックを明らかにし、シミュレートする上で、 ベンチマーク を定め、 プロファイル することはとても重要です。
- ベンチマーク - abなどのツールを用いて、高負荷の状況をシミュレーションしてみましょう。
- プロファイル - slow query log などのツールを用いて、パフォーマンス状況の確認をしましょう。
ベンチマークとプロファイルをとることで以下のような効率化の選択肢をとることになるでしょう。
- MySQLはアクセス速度向上のため、ディスク上の連続したブロックへデータを格納しています。
- 長さの決まったフィールドに対しては
VARCHAR
よりもCHAR
を使うようにしましょう。CHAR
の方が効率的に速くランダムにデータにアクセスできます。 一方、VARCHAR
では次のデータに移る前にデータの末尾を検知しなければならないために速度が犠牲になります。
- ブログの投稿など、大きなテキストには TEXT を使いましょう。 TEXT ではブーリアン型の検索も可能です。 TEXT フィールドには、テキストブロックが配置されている、ディスク上の場所へのポインターが保存されます。
- 2の32乗や40億以下を超えない程度の大きな数には INT を使いましょう。
- 通貨に関しては小数点表示上のエラーを避けるために
DECIMAL
を使いましょう。 - 大きな
BLOBS
を保存するのは避けましょう。どこからそのオブジェクトを取ってくることができるかの情報を保存しましょう。 VARCHAR(255)
は8ビットで数えられる最大の文字数です。一部のDBMSでは、1バイトの利用効率を最大化するためにこの文字数がよく使われます。- 検索性能向上のため 、可能であれば
NOT NULL
制約を設定しましょう。
- クエリ(
SELECT
、GROUP BY
、ORDER BY
、JOIN
) の対象となる列にインデックスを使うことで速度を向上できるかもしれません。 - インデックスは通常、平衡探索木であるB木の形で表されます。B木によりデータは常にソートされた状態になります。また検索、順次アクセス、挿入、削除を対数時間で行えます。
- インデックスを配置することはデータをメモリーに残すことにつながりより容量を必要とします。
- インデックスの更新も必要になるため書き込みも遅くなります。
- 大量のデータをロードする際には、インデックスを切ってからデータをロードして再びインデックスをビルドした方が速いことがあります。
- パフォーマンス上必要なところには非正規化を適用する
- テーブルを分割し、ホットスポットを独立したテーブルに分離してメモリーに乗せられるようにする。
NoSQL は key-value store、 document-store、 wide column store、 もしくは graph databaseによって表現されるデータアイテムの集合です。データは一般的に正規化されておらず、アプリケーション側でジョインが行われます。大部分のNoSQLは真のACIDトランザクションを持たず、 結果整合性 的な振る舞いの方を好みます。
BASE はしばしばNoSQLデータベースのプロパティを説明するために用いられます。CAP Theorem と対照的に、BASEは一貫性よりも可用性を優先します。
- Basically available - システムは可用性を保証します。
- Soft state - システムの状態は入力がなくても時間経過とともに変化する可能性があります。
- 結果整合性 - システム全体は時間経過とともにその間に入力がないという前提のもと、一貫性が達成されます。
SQLか?NoSQLか? を選択するのに加えて、どのタイプのNoSQLがどの使用例に最も適するかを理解するのはとても有益です。このセクションでは キーバリューストア、 ドキュメントストア、 ワイドカラムストア、 と グラフデータベース について触れていきます。
概要: ハッシュテーブル
キーバリューストアでは一般的にO(1)の読み書きができ、それらはメモリないしSSDで裏付けられています。データストアはキーを 辞書的順序 で保持することでキーの効率的な取得を可能にしています。キーバリューストアではメタデータを値とともに保持することが可能です。
キーバリューストアはハイパフォーマンスな挙動が可能で、単純なデータモデルやインメモリーキャッシュレイヤーなどのデータが急速に変わる場合などに使われます。単純な処理のみに機能が制限されているので、追加の処理機能が必要な場合にはその複雑性はアプリケーション層に載せることになります。
キーバリューストアはもっと複雑なドキュメントストアや、グラフデータベースなどの基本です。
概要: ドキュメントがバリューとして保存されたキーバリューストア
ドキュメントストアはオブジェクトに関する全ての情報を持つドキュメント(XML、 JSON、 binaryなど)を中心に据えたシステムです。ドキュメントストアでは、ドキュメント自身の内部構造に基づいた、APIもしくはクエリ言語を提供します。 メモ:多くのキーバリューストアでは、値のメタデータを扱う機能を含んでいますが、そのことによって二つドキュメントストアとの境界線が曖昧になってしまっています。
以上のことを実現するために、ドキュメントはコレクション、タグ、メタデータやディレクトリなどとして整理されています。ドキュメント同士はまとめてグループにできるものの、それぞれで全く異なるフィールドを持つ可能性があります。
MongoDB や CouchDB などのドキュメントストアも、複雑なクエリを処理するためのSQLのような言語を提供しています。DynamoDB はキーバリューとドキュメントの両方をサポートしています。
ドキュメントストアは高い柔軟性を担保するので、頻繁に変化するデータを扱う時に用いられます。
Source: SQL & NoSQL, a brief history
概要: ネストされたマップ
カラムファミリー<行キー、 カラム<ColKey、 Value、 Timestamp>>
ワイドカラムストアのデータの基本単位はカラム(ネーム・バリューのペア)です。それぞれのカラムはカラムファミリーとして(SQLテーブルのように)グループ化することができます。スーパーカラムファミリーはカラムファミリーの集合です。それぞれのカラムには行キーでアクセスすることができます。同じ行キーを持つカラムは同じ行として認識されます。それぞれの値は、バージョン管理とコンフリクトが起きた時のために、タイムスタンプを含みます。
GoogleはBigtableを初のワイドカラムストアとして発表しました。それがオープンソースでHadoopなどでよく使われるHBase やFacebookによるCassandra などのプロジェクトに影響を与えました。BigTable、HBaseやCassandraなどのストアはキーを辞書形式で保持することで選択したキーレンジでのデータ取得を効率的にします。
ワイドカラムストアは高い可用性とスケーラビリティを担保します。これらはとても大規模なデータセットを扱うことによく使われます。
概要: グラフ
グラフデータベースでは、それぞれのノードがレコードで、それぞれのアークは二つのノードを繋ぐ関係性として定義されます。グラフデータベースは多数の外部キーや多対多などの複雑な関係性を表すのに最適です。
グラフデータベースはSNSなどのサービスの複雑な関係性モデルなどについて高いパフォーマンスを発揮します。比較的新しく、まだ一般的には用いられていないので、開発ツールやリソースを探すのが他の方法に比べて難しいかもしれません。多くのグラフはREST APIsを通じてのみアクセスできます。
Source: Transitioning from RDBMS to NoSQL
SQL を選ぶ理由:
- 構造化されたデータ
- 厳格なスキーマ
- リレーショナルデータ
- 複雑なジョインをする必要性
- トランザクション
- スケールする際のパターンが明確なとき
- 開発者の数、コミュニティ、コード等がより充実している
- インデックスによるデータ探索はとても速い
NoSQL を選ぶ理由:
- 準構造化されたデータ
- ダイナミックないし、フレキシブルなスキーマ
- ノンリレーショナルなデータ
- 複雑なジョインをする必要がない
- データの多くのTB (もしくは PB) を保存する
- 集中的、大規模なデータ負荷に耐えられる
- IOPSについては極めて高いスループットを示す
NoSQLに適するサンプルデータ:
- 急激なクリックストリームやログデータの収集
- リーダーボードやスコアリングデータ
- ショッピングカートなどの一時的情報
- 頻繁にアクセスされる ('ホットな') テーブル
- メタデータやルックアップテーブル
Source: Scalable system design patterns
キャッシュはページの読み込み時間を削減し、サーバーやデータベースへの負荷を低減することができます。このモデルでは、実際の処理を保存するために、ディスパッチャーがまず以前にリクエストが送信されたかどうかを確認し、直前の結果を受け取ります。
データベースはそのパーティションに渡って統合された読み取り書き込みの分配を要求しますが、人気アイテムはその分配を歪めてシステム全体のボトルネックになってしまうことがあります。データベースの前にキャッシュを差し込むことでこのように、均一でない負荷やトラフィックの急激な増加を吸収することができます。
キャッシュはOSやブラウザーなどのクライアントサイド、サーバーサイド もしくは独立のキャッシュレイヤーに設置することができます。
CDN もキャッシュの一つとして考えることができます。
リバースプロキシ や Varnish などのキャッシュは静的そして動的なコンテンツを直接配信することができます。 webサーバーもリクエストをキャッシュしてアプリケーションサーバーに接続することなしにレスポンスを返すことができます。
データベースは普通、一般的な使用状況に適するようなキャッシングの設定を初期状態で持っています。この設定を特定の仕様に合わせて調整することでパフォーマンスを向上させることができます。
メムキャッシュなどのIn-memoryキャッシュやRedisはアプリケーションとデータストレージの間のキーバリューストアです。データはRAMで保持されるため、データがディスクで保存される一般的なデータベースよりもだいぶ速いです。RAM容量はディスクよりも限られているので、least recently used (LRU)などのcache invalidation アルゴリズムが 'コールド' なエントリを弾き、'ホット' なデータをRAMに保存します。
Redisはさらに以下のような機能を備えています:
- パージステンス設定
- ソート済みセット、リストなどの組み込みデータ構造
キャッシュには様々なレベルのものがありますが、いずれも大きく二つのカテゴリーのいずれかに分類することができます: データベースクエリ と オブジェクト です:
- 行レベル
- クエリレベル
- Fully-formed serializable objects
- Fully-rendered HTML
一般的に、ファイルベースキャッシングはクローンを作り出してオートスケーリングを難しくしてしまうので避けるべきです。
データベースをクエリする際には必ずクエリをキーとしてハッシュして結果をキャッシュに保存しましょう。この手法はキャッシュ期限切れ問題に悩むことになります:
- 複雑なクエリによりキャッシュされた結果を削除することが困難
- テーブルセルなどのデータ断片が変化した時に、その変化したセルを含むかもしれない全てのキャッシュされたクエリを削除する必要がある。
データをアプリケーションコードでそうするように、オブジェクトとして捉えてみましょう。アプリケーションに、データベースからのデータセットをクラスインスタンスやデータ構造として組み立てさせます。:
- そのデータが変更されたら、オブジェクトをキャッシュから削除すること
- 非同期処理を許容します: ワーカーがキャッシュされたオブジェクトの中で最新のものを集めてきます
何をキャッシュするか:
- ユーザーのセッション
- 完全にレンダーされたウェブページ
- アクテビティストリーム
- ユーザーグラフデータ
キャッシュに保存できる容量は限られているため、自分のケースではどのキャッシュ手法が一番いいかは検討する必要があります。
Source: From cache to in-memory data grid
アプリケーションはストレージへの読み書きの処理をします。キャッシュはストレージとは直接やりとりをしません。アプリケーションは以下のことをします:
- キャッシュの中のエントリを参照しますが、結果としてキャッシュミスになります
- データベースからエントリを取得します
- エントリをキャッシュに追加します
- エントリを返します
def get_user(self, user_id):
user = cache.get("user.{0}", user_id)
if user is None:
user = db.query("SELECT * FROM users WHERE user_id = {0}", user_id)
if user is not None:
key = "user.{0}".format(user_id)
cache.set(key, json.dumps(user))
return user
Memcached は通常このように使われる。
その後のキャッシュデータ読み込みは速いです。キャッシュアサイドはレージーローディングであるとも言われます。リクエストされたデータのみがキャッシュされ、リクエストされていないデータでキャッシュが溢れるのを防止します。
- 各キャッシュミスは三つのトリップを呼び出すことになり、体感できるほどの遅延が起きてしまいます。
- データベースのデータが更新されるとキャッシュデータは古いものになってしまいます。time-to-live (TTL)を設定することでキャッシュエントリの更新を強制的に行う、もしくはライトスルーを採用することでこの問題は緩和できます。
- ノードが落ちると、新規の空のノードで代替されることでレイテンシーが増加することになります。
Source: Scalability, availability, stability, patterns
アプリケーションはキャッシュをメインのデータストアとして使い、そこにデータの読み書きを行います。一方、キャッシュはデータベースへの読み書きを担当します。
- アプリケーションはキャッシュにあるエントリを追加・更新します
- キャッシュは同期的にデータストアに書き込みを行います
- エントリを返します
アプリケーションコード:
set_user(12345, {"foo":"bar"})
キャッシュコード:
def set_user(user_id, values):
user = db.query("UPDATE Users WHERE id = {0}", user_id, values)
cache.set(user_id, user)
ライトスルーは書き込み処理のせいで全体としては遅いオペレーションですが、書き込まれたばかりのデータに関する読み込みは速いです。ユーザー側は一般的にデータ更新時の方が読み込み時よりもレイテンシーに許容的です。キャッシュ内のデータは最新版で保たれます。
- ノードが落ちたこと、もしくはスケーリングによって新しいノードが作成された時に、新しいノードはデータベース内のエントリーが更新されるまではエントリーをキャッシュしません。キャッシュアサイドとライトスルーを併用することでこの問題を緩和できます。
- 書き込まれたデータの大部分は一度も読み込まれることはありません。このデータはTTLによって圧縮することができます。
Source: Scalability, availability, stability, patterns
ライトビハインドではアプリケーションは以下のことをします:
- キャッシュのエントリーを追加・更新します
- データストアへの書き込みを非同期的に行うことで、書き込みパフォーマンスを向上させます。
- キャッシュがデータストア内のコンテンツにヒットする前にキャッシュが落ちるとデータ欠損が起きる可能性があります。
- キャッシュアサイドやライトスルーよりも実装が複雑になります。
Source: From cache to in-memory data grid
期限切れよりも前に、直近でアクセスされた全てのキャッシュエントリを自動的に更新するように設定することができます。
もしどのアイテムが将来必要になるのかを正確に予測することができるのならば、リードスルーよりもレイテンシーを削減することができます。
- どのアイテムが必要になるかの予測が正確でない場合にはリフレッシュアヘッドがない方がレイテンシーは良いという結果になってしまいます。
- cache invalidationなどを用いて、データベースなどの真のデータとキャッシュの間の一貫性を保つ必要があります。
- Redisやmemcachedを追加することでアプリケーション構成を変更する必要があります。
- Cache invalidationも難しいですがそれに加えて、いつキャッシュを更新するかという複雑な問題にも悩まされることになります。
- From cache to in-memory data grid
- スケーラブルなシステムデザインパターン
- スケールできるシステムを設計するためのイントロダクション
- スケーラビリティ、可用性、安定性、パターン
- スケーラビリティ
- AWS ElastiCacheのストラテジー
- Wikipedia
Source: Intro to architecting systems for scale
非同期のワークフローはもし、連続的に行われるとリクエスト時間を圧迫してしまうような重い処理を別で処理する手法です。また、定期的にデータを集合させるなどの時間がかかるような処理を前もって処理しておくことにも役立ちます。
メッセージキューはメッセージを受け取り、保存し、配信します。もし、処理がインラインで行うには遅すぎる場合、以下のようなワークフローでメッセージキューを用いるといいでしょう:
- アプリケーションはジョブをキューに配信し、ユーザーにジョブステータスを伝えます。
- ワーカーがジョブキューから受け取って、処理を行い、終了したらそのシグナルを返します。
ユーザーの処理が止まることはなく、ジョブはバックグラウンドで処理されます。この間に、クライアントはオプションとして、タスクが完了したかのように見せるために小規模の処理を行います。例えば、ツイートを投稿するときに、ツイートはすぐにあなたのタイムラインに反映されたように見えますが、そのツイートが実際に全てのフォロワーに配信されるまでにはもう少し時間がかかっているでしょう。
Redis はシンプルなメッセージ仲介としてはいいですが、メッセージが失われてしまう可能性があります。
RabbitMQ はよく使われていますが、'AMQP'プロトコルに対応して、自前のノードを立てる必要があります。
Amazon SQS という選択肢もありますが、レイテンシーが高く、メッセージが重複して配信されてしまう可能性があります。
タスクキューはタスクとその関連するデータを受け取り、処理した上でその結果を返します。スケジュール管理をできるほか、バックグラウンドでとても重いジョブをこなすこともできます。
Celery はスケジューリングとpythonのサポートがあります。
もし、キューが拡大しすぎると、メモリーよりもキューの方が大きくなりキャッシュミスが起こり、ディスク読み出しにつながり、パフォーマンスが低下することにつながります。バックプレッシャーはキューサイズを制限することで回避することができ、高いスループットを確保しキューにすでにあるジョブについてのレスポンス時間を短縮できます。キューがいっぱいになると、クライアントはサーバービジーもしくはHTTP 503をレスポンスとして受け取りまた後で時間をおいてアクセスするようにメッセージを受け取ります。クライアントはexponential backoffなどによって後ほど再度時間を置いてリクエストすることができます。
- キューを用いることで遅延が起こり、複雑さも増すため、あまり重くない計算処理やリアルタイムワークフローにおいては同期処理の方がいいでしょう。
HTTP はクライアントとサーバー間でのデータをエンコードして転送するための手法です。リクエスト・レスポンスに関わるプロトコルです。クライアントがリクエストをサーバーに投げ、サーバーがリクエストに関係するコンテンツと完了ステータス情報をレスポンスとして返します。HTTPは自己完結するので、間にロードバランサー、キャッシュ、エンクリプション、圧縮などのどんな中間ルーターが入っても動くようにできています。
基本的なHTTPリクエストはHTTP動詞(メソッド)とリソース(エンドポイント)で成り立っています。以下がよくあるHTTP動詞です。:
動詞 | 詳細 | 冪等性* | セーフ | キャッシュできるか |
---|---|---|---|---|
GET | リソースを読み取る | Yes | Yes | Yes |
POST | リソースを作成するもしくはデータを処理するトリガー | No | No | Yes レスポンスが新しい情報を含む場合 |
PUT | リソースを作成もしくは入れ替える | Yes | No | No |
PATCH | リソースを部分的に更新する | No | No | Yes レスポンスが新しい情報を含む場合 |
DELETE | リソースを削除する | Yes | No | No |
何度呼んでも同じ結果が返ってくること
HTTPはTCP や UDP などの低級プロトコルに依存しているアプリケーションレイヤーのプロトコルである。
Source: How to make a multiplayer game
TCPはIP networkの上で成り立つ接続プロトコルです。接続はhandshakeによって開始、解除されます。全ての送信されたパケットは欠損なしで送信先に送信された順番で到達するように以下の方法で保証されています:
- シーケンス番号とchecksum fieldsが全てのパケットに用意されている
- Acknowledgementパケットと自動再送信
もし送信者が正しいレスポンスを受け取らなかったとき、パケットを再送信します。複数のタイムアウトがあったとき、接続は解除されます。TCP はフロー制御 と 輻輳制御も実装しています。これらの機能によって速度は低下し、一般的にUDPよりも非効率な転送手段になっています。
ハイスループットを実現するために、ウェブサーバーはかなり大きな数のTCP接続を開いておくことがあり、そのことでメモリー使用が圧迫されます。ウェブサーバスレッドと例えばmemcached サーバーの間で多数のコネクションを保っておくことは高くつくかもしれません。可能なところではUDPに切り替えるだけでなくコネクションプーリングなども役立つかもしれません。
TCPは高い依存性を要し、時間制約が厳しくないものに適しているでしょう。ウェブサーバー、データベース情報、SMTP、FTPやSSHなどの例に適用されます。
以下の時にUDPよりもTCPを使うといいでしょう:
- 全てのデータが欠損することなしに届いてほしい
- ネットワークスループットの最適な自動推測をしてオペレーションしたい
Source: How to make a multiplayer game
UDPはコネクションレスです。データグラム(パケットのようなもの)はデータグラムレベルでの保証しかされません。データグラムは順不同で受け取り先に到着したりそもそも着かなかったりします。UDPは輻輳制御をサポートしません。TCPにおいてはサポートされているこれらの保証がないため、UDPは一般的に、TCPよりも効率的です。
UDPはサブネット上のすべての機器にデータグラムを送信することができます。これはDHCP において役に立ちます。というのも、クライアントはまだIPアドレスを取得していないので、IPアドレスを必要とするTCPによるストリームができないからです。
UDPは信頼性の面では劣りますが、VoIP、ビデオチャット、ストリーミングや同時通信マルチプレイヤーゲームなどのリアルタイム性が重視される時にはとても効果的です。
TCPよりもUDPを使うのは:
- レイテンシーを最低限に抑えたい時
- データ欠損よりも、データ遅延を重視するとき
- エラー修正を自前で実装したいとき
- ゲームプログラミングのためのネットワーク
- TCP と UDP プロトコルの主な違い
- TCP と UDPの違い
- Transmission control protocol
- User datagram protocol
- Facebookのメムキャッシュスケーリング
Source: Crack the system design interview
RPCではクライアントがリモートサーバーなどの異なるアドレス空間でプロシージャーが処理されるようにします。プロシージャーはローカルでのコールのように、クライアントからサーバーにどのように通信するかという詳細を省いた状態でコードが書かれます。リモートのコールは普通、ローカルのコールよりも遅く、信頼性に欠けるため、RPCコールをローカルコールと区別させておくことが好ましいでしょう。人気のRPCフレームワークは以下です。Protobuf、 Thrift、Avro
RPC は リクエストレスポンスプロトコル:
- クライアントプログラム - クライアントスタブプロシージャーを呼び出します。パラメータはローカルでのプロシージャーコールのようにスタックへとプッシュされていきます。
- クライアントスタブプロシージャー - プロシージャIDとアーギュメントをパックしてリクエストメッセージにします。
- クライアント通信モジュール - OSがクライアントからサーバーへとメッセージを送ります。
- サーバー通信モジュール - OSが受け取ったパケットをサーバースタブプロシージャーに受け渡します。
- サーバースタブプロシージャー - 結果を展開し、プロシージャーIDにマッチするサーバープロシージャーを呼び出し、結果を返します。
- サーバーレスポンスは上記のステップを逆順で繰り返します。
Sample RPC calls:
GET /someoperation?data=anId
POST /anotheroperation
{
"data":"anId";
"anotherdata": "another value"
}
RPCは振る舞いを公開することに焦点を当てています。RPCは内部通信パフォーマンスを理由として使われることが多いです。というのも、使用する状況に合わせてネイティブコールを自作することができるからです。
ネイティブライブラリー (aka SDK) を呼ぶのは以下の時:
- ターゲットのプラットフォームを知っている時
- ロジックがどのようにアクセスされるのかを管理したいとき
- ライブラリー外でエラーがどのようにコントロールされるかを管理したい時
- パフォーマンスとエンドユーザーエクスペリエンスが最優先の時
REST プロトコルに従うHTTP APIはパブリックAPIにおいてよく用いられます。
- RPCクライアントとはサービス実装により厳密に左右されることになります。
- 新しいオペレーション、使用例があるたびに新しくAPIが定義されなければなりません。
- RPCをデバッグするのは難しい可能性があります。
- 既存のテクノロジーをそのまま使ってサービスを構築することはできないかもしれません。例えば、SquidなどのサーバーにRPCコールが正しくキャッシュ されるように追加で骨を折る必要があるかもしれません。
RESTは、クライアントがサーバーによってマネージされるリソースに対して処理を行うクライアント・サーバーモデルを支持するアーキテキチャスタイルです。サーバーは操作できるもしくは新しいリソースレプレゼンテーションを受け取ることができるようなリソースやアクションのレプレゼンテーションを提供します。すべての通信はステートレスでキャッシュ可能でなければなりません。
RESTful なインターフェースには次の四つの特徴があります:
- 特徴的なリソース (URI in HTTP) - どのオペレーションであっても同じURIを使う。
- HTTP動詞によって変わる (Verbs in HTTP) - 動詞、ヘッダー、ボディを使う
- 自己説明的なエラーメッセージ (status response in HTTP) - ステータスコードを使い、新しく作ったりしないこと。
- HATEOAS (HTML interface for HTTP) - 自分のwebサービスがブラウザで完全にアクセスできること。
サンプル REST コール:
GET /someresources/anId
PUT /someresources/anId
{"anotherdata": "another value"}
RESTはデータを公開することに焦点を当てています。クライアントとサーバーのカップリングを最小限にするもので、パブリックAPIなどによく用いられます。RESTはURI、 representation through headers、そして、GET、POST、PUT、 DELETE、PATCHなどのHTTP動詞等のよりジェネリックで統一されたメソッドを用います。ステートレスであるのでRESTは水平スケーリングやパーティショニングに最適です。
- RESTはデータ公開に焦点を当てているので、リソースが自然に整理されていなかったり、シンプルなヒエラルキーで表せられない時にはよい選択肢とは言えないかもしれません。例えば、とあるイベントのセットにマッチするすべての更新情報を返すと言った処理は簡単にはパスで表現することができません。RESTでは、URIパス、クエリパラメータ、そして場合によってはリクエストボディなどによって実装されることが多いでしょう。
- RESTは少数の動詞に依存しています(GET、POST、PUT、DELETE、そして PATCH) が時には使いたい事例に合わないことがあります。例えば、期限の切れたドキュメントをアーカイブに移したい場合などはこれらの動詞の中には綺麗にはフィットしません。
- ネストされたヒエラルキーの中にあるリソースをとってくるのはシングルビューを描画するのにクライアントとサーバー間で数回やりとりしなければなりません。例として、ブログエントリーのコンテンツとそれに対するコメントを表示する場合などです。様々なネットワーク環境で動作する可能性が考えられるモバイルアプリケーションにおいてはこのような複数のやり取りは好ましくありません。
- 時が経つにつれて、APIレスポンスにより多くのフィールドが与えられて、古いクライアントはすでにいらないものも含めてすべてのデータフィールドを受け取ることになります。そのことで、ペイロードが大きくなりすぎて、レイテンシーも拡大することになります。
Operation | RPC | REST |
---|---|---|
サインアップ | POST /signup | POST /persons |
リザイン | POST /resign { "personid": "1234" } |
DELETE /persons/1234 |
Person読み込み | GET /readPerson?personid=1234 | GET /persons/1234 |
Personのアイテムリスト読み込み | GET /readUsersItemsList?personid=1234 | GET /persons/1234/items |
Personのアイテムへのアイテム追加 | POST /addItemToUsersItemsList { "personid": "1234"; "itemid": "456" } |
POST /persons/1234/items { "itemid": "456" } |
アイテム更新 | POST /modifyItem { "itemid": "456"; "key": "value" } |
PUT /items/456 { "key": "value" } |
アイテム削除 | POST /removeItem { "itemid": "456" } |
DELETE /items/456 |
Source: Do you really know why you prefer REST over RPC
- Do you really know why you prefer REST over RPC
- When are RPC-ish approaches more appropriate than REST?
- REST vs JSON-RPC
- Debunking the myths of RPC and REST
- What are the drawbacks of using REST
- Crack the system design interview
- Thrift
- Why REST for internal use and not RPC
このセクションは更新が必要です。contributingしてください!
セキュリティは幅広いトピックです。十分な経験、セキュリティ分野のバックグラウンドがなくても、セキュリティの知識を要する職に応募するのでない限り、基本以上のことを知る必要はないでしょう。
- 情報伝達、保存における暗号化
- XSS や SQL injectionを防ぐために、全てのユーザー入力もしくはユーザーに露出される入力パラメーターをサニタイズする
- SQL injectionを防ぐためにパラメータ化されたクエリを用いる。
- least privilegeの原理を用いる
暗算で、推計値を求める必要があることも時にはあります。例えば、ディスクから100枚イメージ分のサムネイルを作る時間を求めたり、その時にどれだけディスクメモリーが消費されるかなどの値です。2の乗数表 と 全てのプログラマーが知るべきレイテンシー値 は良い参考になるでしょう。
乗数 厳密な値 約 Bytes
---------------------------------------------------------------
7 128
8 256
10 1024 1 thousand 1 KB
16 65,536 64 KB
20 1,048,576 1 million 1 MB
30 1,073,741,824 1 billion 1 GB
32 4,294,967,296 4 GB
40 1,099,511,627,776 1 trillion 1 TB
Latency Comparison Numbers
--------------------------
L1 cache reference 0.5 ns
Branch mispredict 5 ns
L2 cache reference 7 ns 14x L1 cache
Mutex lock/unlock 25 ns
Main memory reference 100 ns 20x L2 cache, 200x L1 cache
Compress 1K bytes with Zippy 10,000 ns 10 us
Send 1 KB bytes over 1 Gbps network 10,000 ns 10 us
Read 4 KB randomly from SSD* 150,000 ns 150 us ~1GB/sec SSD
Read 1 MB sequentially from memory 250,000 ns 250 us
Round trip within same datacenter 500,000 ns 500 us
Read 1 MB sequentially from SSD* 1,000,000 ns 1,000 us 1 ms ~1GB/sec SSD, 4X memory
Disk seek 10,000,000 ns 10,000 us 10 ms 20x datacenter roundtrip
Read 1 MB sequentially from 1 Gbps 10,000,000 ns 10,000 us 10 ms 40x memory, 10X SSD
Read 1 MB sequentially from disk 30,000,000 ns 30,000 us 30 ms 120x memory, 30X SSD
Send packet CA->Netherlands->CA 150,000,000 ns 150,000 us 150 ms
Notes
-----
1 ns = 10^-9 seconds
1 us = 10^-6 seconds = 1,000 ns
1 ms = 10^-3 seconds = 1,000 us = 1,000,000 ns
上記表に基づいた役に立つ数値:
- ディスクからの連続読み取り速度 30 MB/s
- 1 Gbps Ethernetからの連続読み取り速度 100 MB/s
- SSDからの連続読み取り速度 1 GB/s
- main memoryからの連続読み取り速度 4 GB/s
- 1秒で地球6-7周できる
- 1秒でデータセンターと2000周やりとりできる
- 全てのプログラマーが知るべきレイテンシー値 - 1
- 全てのプログラマーが知るべきレイテンシー値 - 2
- Designs, lessons, and advice from building large distributed systems
- Software Engineering Advice from Building Large-Scale Distributed Systems
頻出のシステム設計面接課題とその解答へのリンク
世の中のシステムがどのように設計されているかについての記事
Source: Twitter timelines at scale
以下の記事の重箱の隅をつつくような細かい詳細にこだわらないこと。むしろ
- 共通の原理、技術、パターンを探ること
- それぞれのコンポーネントでどんな問題が解決され、コンポーネントはどこでうまく使えもしくは使えないかを知ること
- 学んだことを復習すること
種類 | システム | 参考ページ |
---|---|---|
データ処理 | MapReduce - Googleの分散データ処理システム | research.google.com |
データ処理 | Spark - Databricksの分散データ処理システム | slideshare.net |
データ処理 | Storm - Twitterの分散データ処理システム | slideshare.net |
データストア | Bigtable - Googleのカラム指向分散データベース | harvard.edu |
データストア | HBase - Bigtableのオープンソース実装 | slideshare.net |
データストア | Cassandra - Facebookのカラム指向分散データベース | slideshare.net |
データストア | DynamoDB - Amazonのドキュメント指向分散データベース | harvard.edu |
データストア | MongoDB - ドキュメント指向分散データベース | slideshare.net |
データストア | Spanner - Googleのグローバル分散データベース | research.google.com |
データストア | Memcached - 分散メモリーキャッシングシステム | slideshare.net |
データストア | Redis - 永続性とバリュータイプを兼ね備えた分散メモリーキャッシングシステム | slideshare.net |
ファイルシステム | Google File System (GFS) - 分散ファイルシステム | research.google.com |
ファイルシステム | Hadoop File System (HDFS) - GFSのオープンソース実装 | apache.org |
Misc | Chubby - 疎結合の分散システムをロックするGoogleのサービス | research.google.com |
Misc | Dapper - 分散システムを追跡するインフラ | research.google.com |
Misc | Kafka - LinkedInによるPub/subメッセージキュー | slideshare.net |
Misc | Zookeeper - 同期を可能にする中央集権インフラとサービス | slideshare.net |
アーキテクチャを追加する | Contribute |
面接を受ける企業のアーキテクチャ
投げられる質問は同じ分野から来ることもあるでしょう
- Airbnb Engineering
- Atlassian Developers
- Autodesk Engineering
- AWS Blog
- Bitly Engineering Blog
- Box Blogs
- Cloudera Developer Blog
- Dropbox Tech Blog
- Engineering at Quora
- Ebay Tech Blog
- Evernote Tech Blog
- Etsy Code as Craft
- Facebook Engineering
- Flickr Code
- Foursquare Engineering Blog
- GitHub Engineering Blog
- Google Research Blog
- Groupon Engineering Blog
- Heroku Engineering Blog
- Hubspot Engineering Blog
- High Scalability
- Instagram Engineering
- Intel Software Blog
- Jane Street Tech Blog
- LinkedIn Engineering
- Microsoft Engineering
- Microsoft Python Engineering
- Netflix Tech Blog
- Paypal Developer Blog
- Pinterest Engineering Blog
- Quora Engineering
- Reddit Blog
- Salesforce Engineering Blog
- Slack Engineering Blog
- Spotify Labs
- Twilio Engineering Blog
- Twitter Engineering
- Uber Engineering Blog
- Yahoo Engineering Blog
- Yelp Engineering Blog
- Zynga Engineering Blog
ここにあるリストは比較的小規模なものにとどめ、kilimchoi/engineering-blogsにより詳細に記すことで重複しないようにしておくことにする。エンジニアブログへのリンクを追加する場合はここではなく、engineering-blogsレボジトリに追加することを検討してください。
セクションの追加や、進行中の作業を手伝っていただける場合はこちら!
- MapReduceによる分散コンピューティング
- Consistent hashing
- Scatter gather
- Contribute
クレジット及び、参照ページは適時このリポジトリ内に記載してあります
Special thanks to:
- Hired in tech
- Cracking the coding interview
- High scalability
- checkcheckzz/system-design-interview
- shashank88/system_design
- mmcgrana/services-engineering
- System design cheat sheet
- A distributed systems reading list
- Cracking the system design interview
Feel free to contact me to discuss any issues, questions, or comments.
My contact info can be found on my GitHub page.
I am providing code and resources in this repository to you under an open source license. Because this is my personal repository, the license you receive to my code and resources is from me and not my employer (Facebook).
Copyright 2017 Donne Martin
Creative Commons Attribution 4.0 International License (CC BY 4.0)
http://creativecommons.org/licenses/by/4.0/