NEWS
IBM i の誕生を探る IBMのオフコンはいかにして生き残ったのか? IBM i の誕生を探る IBMのオフコンはいかにして生き残ったのか?
2016.12.21

【第4回】ITトレンドの中のIBM i サバイバル

【第4回】ITトレンドの中のIBM i サバイバル
これまでAS/400が1988年に誕生するまでの経緯を主に述べてきましたが、今回はその後どのように成長してきたのかその軌跡を概観することが目的です。この記事を書いている時点で28年と半年近くもの歴史を積み重ねてきたわけですが、変化の激しいIT業界の中ですから単なる成長というよりもサバイバル、と表現した方が適切かも知れません。読者の中にも、「物心」ついてからの時代の内容がカバーされるので、ご存知の機能も多いでしょう。歴史年表的に事項を列記するだけでは面白くありませんので、ここでは敢えて視点を高く構えて、IT業界全体とIBM i といった観点から俯瞰してみます。

集中型と分散型を巡る歴史

ITトレンドを概観するにあたって、コンピューティング需要が集中型と分散型サーバーのいずれによって充足されるのか、といった点を重点的に考察してみます。あるワークロードを処理するのにあたって、集中型、すなわち一台ないし少数のマシンでまかなうのか、分散型、すなわち多数のマシンを用意するのか、といった視点です。前者において求められるマシン要件はスケールアップ型、後者はスケールアウト型、になるわけです。今でこそこのような技術的な選択肢がありますが、おおよそ1990年代よりも前は、少なくとも企業のシステムにおいて分散型が視野に入ることはまずありませんでした。 ENIACやEDSACが登場した黎明期(当カラムの第一回目「戦時中に産声をあげたコンピュータの原風景」を参照)から1980年代まで、コンピュータは非常に高価なマシンでした。例えばシステム370シリーズの中で、1970年に最初に発表されたモデル155のサンプル構成の販売価格は2,248,550ドル(注:リンク先英文)、当時の換算レートである1ドル360円を適用すると、日本円にして何と8億円を超えていました。一方で当時はPCサーバーもUNIX機も存在しない時代でしたから、分散型などという発想はなく、一台ないし限られた数のマシンをいかにして使い切るか、という点に腐心していました。

冷戦の副産物として生まれたARPANETとTCP/IPプロトコル

AT&Tの子会社であったベル研究所(現在はノキアの子会社)からUNIXが登場したのは1969年ですが、当時はPDP-7というDEC社製ミニ・コンピュータのアセンブリ言語で開発された、研究目的のオペレーティング・システムに過ぎませんでした。ハードウェアへの依存性が高い言語で記述されていたので、他のマシンへの移植性はありません。その後C言語で書き直されることによってハードウェア間の移植性が高まり、さらに1977年にはTCP/IPを標準搭載したBSD版(Berkeley Software Distribution)が登場するに至って世間に広まっていきました。ARPANETというインターネットの前進となるネットワークがあって、BSD版UNIXには通信プロトコルが標準搭載されるので、皆が使っていて相互に接続できて便利そうだから、自分も同じものを使うとメリットがあるだろう、という発想です。 ARPANETやTCP/IPプロトコルは、米国防総省DARPA (Defense Advanced Research Projects Agency)から、カリフォルニア州立大学バークレー校(UCB: University of California, Berkeley)が受託したプロジェクトの産物と言われています。当時のアメリカはソビエト連邦(今のロシアとそのいくつかの周辺国がまとまったもの)と冷戦状態にありました。冷戦とは直接的な武力衝突はないものの、公然の敵対関係を言います。いつ実際の戦争になってもおかしくないという緊張感の中で、万が一、米本土がICBM(大陸間弾道弾)により損害を被ったとしても、迂回路を経由するなどして、国防のために継続して維持できる通信ネットワークを開発しよう、という狙いがありました。それまでのツリー状のネットワークだと、幹の部分に打撃を受ければ全体が機能不全に陥ってしまいます。ここで開発されたネットワークがARPANET、そのプロトコルがTCP/IPというわけです。暗号解読や弾道計算、さらには軍隊指揮系統の維持など、コンピュータの発展の裏には軍事の陰が見え隠れしますね。

1990年を前後してサーバー用のテクノロジーが進化

一方PCサーバーの方は何をもって発祥としたらよいのか迷います。Novell社のネットワークOSであるNetwareは1983年に登場しましたが、「ノベルの歴史」によるとファイルや各種デバイス類の共有が主な目的だったに過ぎず、現代のアプリケーション・サーバーやデータベース・サーバーとは少々趣が異なっていたようです。マイクロソフト社の最初のサーバー用OSであるWindows NTバージョン3.1の登場がそうだとしたら、1993年ということになります。ハードウェア・タイマーによって複数タスク間の切り替えを行う方式(Preemptive Multitasking: プリエンプティブ・マルチタスク)を採用したことから、サーバーとして必須の安定性を実現したと言われています。Intel社プロセッサの観点では、1985年に登場したIntel386が同時に複数のソフトウェアを稼動できたとしています。これもやはりサーバーとして必要なテクノロジーです。これらを総合的に見て、1990年代になって実用に耐えうるPCサーバーが登場・普及したと言って良さそうです。

初期導入コストの観点からオフコンの牙城が揺らぎ始める

さてこのようなテクノロジーを背景に、1990年代になると、それまで汎用機ないしビジネス用途に特化したオフコン(オフィス・コンピュータ)の牙城であった企業向けシステム市場に、UNIXサーバーやPCサーバーが進出してきます。新規参入であるがゆえに、実績、能力、信頼性の面において不利だったはずなのですが、企業のITのあり方を大きく変える転機となりました。その最大の理由は初期導入コストにあります。億円単位の汎用機やそれに準じたオフコンに比べると、これらサーバーの初期コストは非常に低く、ユーザーにとって魅力的に映ったのは間違いありません。それまでの大きなシステムを、機能または能力によって分割し、小さく廉価なサーバーを複数台並べて旧来機を置き換える、というダウンサイジングの波が業界を襲います。そして複数のマシンが協調処理を行うためには、互いに繋がり連携することが重要になります。他のサーバーとも繋げられることから「オープン性」が尊ばれ、そのような特質を備えた新興勢力とも言うべきシステムを「オープン・システム」と呼ぶようになりました。そしてこれらサーバー群はTCP/IPは搭載していても、インターネットはまだ業務用途に使うには熟していなかったため、狭い範囲内でのネットワーク(LAN: Local Area Network)を前提に導入されました。逆に旧来システムはオープンではないシステム、下手をするとクローズなシステムだ、という烙印を押されてしまうこともありました。

オープン性を実現するための機能が次々と搭載されていったIBM i

大袈裟に言うと、ここに善と悪、改革派と守旧派、といった具合に、物事を単純に対立構造でとらえる心理が働いているように感じるのは筆者だけでしょうか。1990年代に「クローズ」だったはずの、汎用機やオフコンは現代においても生き残っています。確かに市場から消滅してしまった製品も数多くありましたが、IBM i やIBM製汎用機のz System は未だに健在です。理由は簡単で、オープン性を実現するための各種機能を搭載し、過去のソフトウェア資産を継承しながら、オープンな世界においてもその拡張性や信頼性などといった特徴を発揮することができたからです。特にIBM i はソフトウェア的にマシンが定義されているという特性、機能強化における柔軟性を生かしながら、TCP/IPやODBCなどといったオープンな機能をマシンとして次々に標準搭載してゆきました。それまでオフコン市場の中で他社に後れをとることが多かったIBM i ですが、新機能搭載の迅速性ゆえに、徐々にその風向きを変えるようになります。独自のアーキテクチャーを持ったシステムではあっても、オープンなテクノロジーを積極的に取り組んでゆく製品戦略を、明確に意識し始めたのはこの頃です。

TCOの観点で再び集中型にフォーカスが当たり始める

さて、初期コストの優位性を発揮して、「オープン・システム」が市場を席巻するのも時間の問題と思われましたが、スケールアウトであるがゆえの特性が、逆に不利になるような状況が生じ始めます。それまでコストと言えばハードウェアやソフトウェアの初期コストを意味していましたが、保守費、設備費や人件費も加味したTCO(Total Cost of Ownership)、すなわち総所有コストという概念で見ていこうという考え方が生まれてきます。これはハードウェアやソフトウェアなど初期導入コストを形成する要因となっている製品価格があまねく下落傾向にあったことと、システムを運用・保守する人件費は下がらないか、むしろ上昇する傾向にあったことが理由です。人件費の比重が相対的に重くなってきたわけです。そうなると多くのマシンを持つということは、保守・運用のための人件費という多大な負荷をも抱え込むことを意味するようになります。一旦分散化に舵を切りつつあったIT業界の中に、再度集中化に舵を切り直そうという動きが見え始めます。集中型サーバーの復権だとも言えます。

インターネットの登場が大きなうねりを引き起こした

いくつかの革新的なテクノロジーが、サーバーの集中化を後押しします。その一つはインターネットの浸透です。汎用機全盛期の集中型コンピューティングの時代においては、企業毎の高価な、そして必ずしも高速とは言えない専用回線が使われていました。それが高速・広域で実質的に無償のネットワークが利用可能になります。そして仮想化機能、もしくはサーバー統合化機能です。物理的には一台のマシン上で、実質的には複数のマシンが別個に稼動しているかのように見せかけます。それまで分散していたサーバー群をまとめるのに、アプリケーションの作り直しをするのは非常に手間がかかります。分散型サーバーのイメージはそのままに、物理的に一台にまとめてしまえば良いわけです。この裏ではハイパーバイザというテクノロジーが活用されます。 ちなみに仮想化とサーバー統合とは同義とされることも多いようですが、仮想化とは極めて広い概念の言葉であり、サーバー統合はいくつかある仮想化機能の一つに過ぎません。例えばディスクの一部をメモリの拡張部分に見せかけるのは仮想メモリ、一台しかないプリンタなのにユーザー毎に個人専用のプリンタを持っているかのように見せかけるのは仮想プリンタ、というわけです。 さらに話が脇にそれますが、「仮想」という言葉は何だかわかったようなわからないような、今一つピンと来ない単語だと感じたことはないでしょうか?「仮想の」という形容詞は、英語のVirtualの訳語として広く知られていますが、英和辞典などで日本語訳を見ると最初に登場するのは、おそらく「実質的な」です。本当はディスクなのだけれども実質的にはメモリ、本当は全部で一台しかないのだけれども実質的に一人に一台のプリンタ、本当は一台しかないのに実質的には複数台存在するように見えるマシン、こういう表現の方がしっくりくるような気がします。でも「実質的マシン」では何となく冴えないので、「仮想マシン」と表現した方が引き締まります。言葉に対する感覚は不思議なものです。聞いたところによると、Virtualに「仮想の」という訳語を当てたのは、システム370登場期の日本IBMなのだそうです。このシステムには従来にはなかった画期的な機能、すなわち「Virtual ナントカ」、といった機能が多数搭載されました。この時に捻り出された先人の知恵が生きており、そしてとうとう英和辞典に堂々と、「実質的な」の次に「仮想の」という訳語が登場するようになったのです。 二度目の集中化の波が本格化したのは2000年代になってからと言えると思いますが、1990年代に登場した、分散型サーバーを指す「オープン・システム」という言葉は、何故か亡霊のように生き続けます。実態はともかく、開放的で明るいイメージがあったからでしょうか。ですが、その内容や背景にあるテクノロジーは大きく変化しています。特にそれまでの局所的なLANに加えて、高速・広域的なネットワークであるインターネットがビジネスの世界においても利用されるようになります。そのためにサーバーの集中化・統合化は遠隔地をも巻き込んだ規模に拡大し、その後さらにはクラウドが浸透するにつれ、サーバーのあり方には多様性が出てきます。そして「オープン・システム」は当初はオープン性を備えたシステムという字義通りの意味合いを持っていたのですが、いつの間にか本来の趣旨から乖離して、ごく単純にUNIX、Windows、Linuxが稼動するシステムを意味するように変化していきました。

Power SystemsとIBM iとして領域を分けてそれぞれ進化を重ねていく

かつてのAS/400とその後継機は独自のシリーズを形成していましたが、徐々にRS/6000との統合が進んでいました。1995年にPowerPC ASと呼ばれる64ビットRISCプロセッサが登場し、それまでの48ビットCISCを置き換えます。これはRS/6000搭載のPOWERプロセッサをベースに、Apple、Motorolaと共同開発されたPowerPCから派生した一連のプロセッサ群です。商用すなわち業務アプリケーション用途であることを意識して、いくつかのチューニングが施されています。例えば、浮動小数点演算よりも整数演算、ループ(繰り返し演算)よりも条件分岐重視、などといった特徴がありました。その後周囲のハードウェア部品の共通化が進み、2008年にはAS/400系列とRS/6000系列のそれぞれのハードウェアが、Power Systemsという名の下に統合されます。それまでIBM i として独自に機能強化の道を歩んできましたが、仮想化やクラウド対応といった領域はPower SystemsとしてAIXやLinux環境と共通に、アプリケーションを支えるテクノロジーはIBM i として、その後の機能強化を継続しています。 次回は最終回として、アプリケーション・テクノロジーの観点から、IBM i の歴史を眺める予定です。
report005
著者プロフィール 安井 賢克(やすい まさかつ) 日本アイ・ビー・エム株式会社にて、パワーシステムの製品企画を担当。エバンジェリストとして、IBM i ないしパワーシステムの優位性や特徴を、お客様やビジネス・パートナー様に理解いただく活動を日々続けています。また、大学非常勤講師として、100人近い学生に向けてITとビジネスの関わり合いについて述べる講座も担当しています。
<バックナンバー> 【第1回】 戦時中に産声をあげたコンピュータの原風景 【第2回】究極のビジネスマシン開発のために考え抜かれた「哲学」 【第3回】TIMIはどのようにして生まれ、その効果を発揮しているのか?
いいねと思ったらシェア
twitter
facebook
hatena
IBM i の誕生を探る IBMのオフコンはいかにして生き残ったのか? 目次を見る

この連載は…

IBM i の誕生を探る IBMのオフコンはいかにして生き残ったのか?
あなたにオススメの連載
できるIBM i 7.4解剖
14記事
できるIBM i 7.4解剖
IBM i の”新”必須言語 〜FFRPG入門〜
14記事
IBM i の”新”必須言語 〜FFRPG入門〜
Windows10待ったなし!どうする5250徹底検証
4記事
Windows10待ったなし!どうする5250徹底検証
PAGE TOP