【ネット時評 : 荒野高志(インテック・ネットコア)】
インターネットはクラウド社会のインフラになりうるか?(前編)

arano2.jpg
 
 ほんの十数年前のことだが、インターネットは結構止まったものだった。インターネットサービスプロバイダー(ISP)の運用担当者の一存で装置のバージョンアップを行ったり、リセットボタンを押すこともあったのだ。それでもユーザー数/トラフィックが増えてくるにつれ、またNTTやKDDIなど昔からの堅実な通信事業者がISP事業に参入するにつれ、各プロバイダーは手堅い運用、極力システムを落とさない運用をするようになった。体制を組んで設定の確認をしつつ作業するというような運用の仕組みも整えられたし、サービスプロバイダー間の相互接続部分でもお互いのトラブルがなるべく伝播しないよう運用技術面も工夫されるようになった。
 

イノベーションの基盤としてのインターネット

 同時に、インターネットの社会インフラ化は急激に進んでいる。十数年前は電話やISDNの上にインターネットを通す、いわゆるダイヤルアップという方式がエンドユーザーをネットにつなぐための通常の方法だった。今は逆である。インターネットの上に電話が乗っている。

 インターネットは、そのフラットで安価なネットワークの上に、イノベーションを数多く生み出した。電子メールに始まり、情報検索、ファイルシェア、SNSなど。そうしてインターネットは人と人とのコラボレーションのあり方を大きく変えるツールとして位置づけられてきている。ミッション・クリティカルな(重要性が高く、止まることが許されない)応用も続々インターネット上に乗りつつある。


クラウドコンピューティングの大前提

 ここ最近のキーワードとしては「クラウドコンピューティング」があるだろう。インターネット上の「どこか」にあるコンピューティングリソースを、ユーザーが自由に組み合わせて使える時代になった。クラウドコンピューティングについては、米国の著名なジャーナリストであるニコラス・カー氏がその著書「クラウド化する世界」で面白い考察をしている。

 カー氏によれば、クラウドコンピューティングの動きは電力利用の歴史にもなぞらえることができるという。エジソンが電力のシステムを作ったときには、伝送距離の短い直流のシステムだったこともあり、工場など大多数の電力需要者は自分の手元で発電機を購入し、いわゆる自家発電を行っていた。その後、伝送距離がきわめて長い交流システムが開発された。そのポイントは、大容量の電力を集中的に発電する方がコスト面で圧倒的に有利だという点である。個々に設置されていた発電機はすべて電力線に置き換わり、以来、現在に至るまで、データセンターのバックアップ電源など一部の特殊用途を除いて、集中発電システムが電力利用の一般的な形態となっている。

 カー氏は、コンピューティングにおいてもリソース集中型の方が圧倒的にコスト優位であり、同様のシナリオになっていくだろうと予測する。技術者としての私の限られた経験からすれば、技術は集中・分散を繰り返していくような気がしているが、その安易な思い込みは少なくとも電力について言えばこの100年は当てはまっていないわけだ。確かにコンピューティングリソースも、分散したときの無駄は多く(手元のPCにはCPUとかストレージに相当な余裕があるはず)、また運用コストも高い(運用するのにスキルと知識がいる)ことを考えると、このシナリオにはうなずけるものもある。

 ただし、このクラウドコンピューティングにはひとつ暗黙の前提がある。インターネットで、任意の2地点がそれなりの性能で、安定してつながるということだ。これができてはじめて、クラウド上のリソースが自由に結合し、協調動作することができる。逆にいえばインターネットがその要求を満たすことができなくなったら、クラウドビジネスは成り立たないかもしれないのだ。

 さて前振りが長くなったが、本稿は、クラウドビジネスをはじめとして、インターネットをベースに発展しつつある産業がさらに発展していくために、インターネットが課題すべき問題の一部を解説することにある。セキュリティー上の諸脅威についてはすでに記事も多いので、本稿では特に、内容が専門的ゆえあまり解説される機会のない話題、ルーティングとアドレスの話を2回に分けて進めてみようと思う。


ルーティングに起因する最近の大規模障害

 まず事例を紹介する前に、技術者ではない読者のために、多少大雑把ではあるがごく簡単にルーティングという技術を紹介しておこう。

 インターネット上では多くのサービスプロバイダー(技術的にはAS:Autonomous Systemと呼ぶ)が相互接続している。2009年現在、約3万個のASがインターネット上に存在している。これらはすべてが直接接続しているわけではない。あるASは他のAS間の通信を仲介してあげるような構造となっている。ワールドワイドウェブのウェブは「クモの巣」の意味だが、まさにそのイメージである。このクモの巣をつたって、通信パケットを配送するための通信制御の方式がルーティングである。

090314_zu1.jpg

 図1を見ていただきたい。ルーティングではお互いのASが自分自身と自分が仲介してあげるASの番号を、そのお隣に通知してやることになっている。この通知される内容のことを経路または経路情報という。通知された側では多方面から送られてくる経路情報をもとに計算を行い、宛先と次の配送方向を記した表(経路表)を作成する。各ASはその表をもとに通信パケットを送れば、きちんと目的地まで通信パケットは到達するわけだ。

では最近の障害の事例をみていこう。

【障害事例1 2009年2月17日発生】
 チェコのプロバイダーがシステムの想定外の経路をインターネット上に通知。これをきちんと処理できない装置が世界各地に散らばっていて、それが誤動作を繰り返し、そうでない装置も含め、全世界に波及した。1時間にわたって通信が断たれ、あるいは不安定な状態が続いたという。原因はチェコのプロバイダーの運用者が「想定外の設定」を試してみた結果だとも言われている。

 米国のある技術系企業のウェブサイトでは、その被害の伝播状況を世界地図上にまとめている。これを見るとほぼ全世界に被害が及んでいることがひと目で分かる。

【障害事例2 2008年2月24日発生】
 アジアを中心に世界の多くの地域で、YouTubeが40分にわたってアクセスできなくなる。原因はパキスタン政府がYouTubeの視聴をパキスタン内で禁止しようとした際に、パキスタンテレコムが(悪意なしと報道はされているが)YouTubeのアドレスを詐称した経路情報を流したためと言われている。図1を再度参照していただければわかるとおりに、「到達するにはこちら」という経路情報自体が間違ったものが流れると、誤った方向へ通信パケットが送付され、本来の目的地への通信ができなくなる。

 そもそもインターネットは、米国国防総省の研究ネットワークとして、どこかのサイトがダウンしても全体が動作するようにという狙いのもと、超自律分散型ネットワークシステムとして構築されてきたはずである。ここでひとつの疑問がわくかもしれない。なぜフォールトトレラント(無停止型)に作ったシステムなのにこういうぜい弱性がまだ残っているのか?この答えをもって前編を締めくくることとしよう。これには3つの答え方がありそうだ。実際にはこの3つの要因がからまっていると思える。


1.技術的な課題がまだ残っている

 障害事例1はいわゆる装置のバグにも近いものだ。昔の電話交換機は、異常状態や準正常状態(異常ではないが通常の処理でない状態、たとえば話中処理など)の処理について、装置設計時に何度もレビューを繰り返し、徹底的に「場合分け」を尽くしたものだ。そういう場合分けにそって、正常系とはケタ違いの量のプログラムを記述し、何があっても装置自体がダウンするのを最小限としてきた。一方、インターネット上の装置(ルーターという)は所詮はコンピューターと同じクオリティーのものなのである。だから一台当たりの値段も安く、インターネットサービスの料金も安くなるのであるが、装置自体としてぜい弱であることは否めない。

 そういう実装技術以外の問題が障害事例2にも表れている。少しでもIT一般に詳しい人であるならば、経路情報を受ける側がその情報の正当性をチェックせずに信じ込んでしまうことに疑問を持つだろう。その通りである。現状の仕掛けでは、誰でも他人の経路を詐称して通信を妨害することができてしまう。この問題の解決に向けて、日本でもIPアドレス配布組織である日本ネットワークインフォメーションセンター(JPNIC)や通信事業者の業界団体であるテレコム・アイザックなどが世界の組織やベンダーなどとも連携し、経路認証や正当経路登録データベースの整備などに取り組んでいる。この取り組みは一部では効果があがっているものの、インターネット全体で問題を解決するにはまだ時間がかかりそうだ。


2.サイト数が莫大になった

 インターネット黎明期と現在とで大きく異なるのは、その規模である。経路情報の数は現在も日に日に増加しており、回線断などの要因で世界のどこかでこの経路に変化があるたびに(すべてではないが)多くの装置のCPUの上で、経路表を作成するための計算が走る。ひとつの装置で計算が終わるたびに隣の装置にこの計算結果を新たな経路情報として伝えていく仕組みであるため、この計算途中で経路に再度変更が起こったとすると、計算が追い付かなくなり、一部がメルトダウンする危険がある。障害事例1はその例だ。装置のCPUも高速化しているものの、ルーティング処理の負荷はピーク時では限界に近いという声もある。要するにサイト数の膨大さが、問題を起こしやすく、かつ短時間での回復を困難にしているのだ。


3.実はインターネットは当初の意図通り動作している

 3つめの答えは それでも全体としてはまさに当初の意図通り動いているというものだ。障害事例1にしても2にしても、全体が動かなくなったわけではない。単に一部分が一時的に動作しなくなっただけなのだ。言い換えると、インターネットはそもそも全体が常にきちんと動作するというよりは、そういう緩い要求条件のシステムなのだということができるかもしれない。

 しかし、インターネットをさらに応用しようとする世の中からの要求は今後も厳しくなっていく一方であろう。緩い思想で設計されたインフラと、条件の厳しい応用という、ある意味相性の悪い組み合わせに限界が来るのか、あるいはインターネット側が残された課題を解決し、厳しい要求に応えていくことができるのか。後者のシナリオを実現すべく、インターネットの技術陣は努力を続けている。

<筆者紹介>荒野 高志(あらの たかし)
インテック・ネットコア社長
1986年東京大学理学部情報科学修士過程終了後、日本電信電話入社。OCNの立ち上げ時よりネットワーク設計、構築、運用を担当。その後、日本および世界のIPアドレス管理ポリシー策定のため、JPNIC IP-WG主査や、99年より国際的なインターネットガバナンス組織であるICANNのアドレス評議委員を務める。また、日本インタネット協会Y2KCC/JP代表としてインターネットY2K問題対応を現場(大手町)で陣頭指揮し、JANOG(日本ネットワークオペレーターズグループ:会員2500人、業界横通しの技術交流・議論の場)を組織した。最近では社内外で、次世代ネットワークプロトコルであるIPv6の実現・普及啓蒙活動に従事しており、現在、IPv6 Forumのボードメンバやインタネット協会IPv6デプロイメント委員会議長などを務める。

トラックバック

このエントリーのトラックバックURL
http://www.nikkeidigitalcore.jp/cgi-bin/mt/mt-tb.cgi/310

コメント一覧

メニュー