日本IT史伝

コンピュータの成り立ちや情報化/デジタル化の歴史秘話を綴ります

分散処理は1970年代のSBC/オフコンから始まった

この節に登場する人物

 ジョン・エレンビー ダグラス・エンゲルバート マックス・パレスキー バトラー・ランプソン チャック・サッカー アラン・ケイ 渡辺和 小暮仁

 1970年代後半から1980年代初頭にかけての情報システムのトレンドを記しておきたい。それは分散処理の流れというものである。ただしこんにちいうところの分散処理とは質的に違いがあるので、やや細かく書く。

 実際はもうちょっと複雑で流れは錯綜するのだが、理解を進めるうえで、本書においては「分散処理は2つの段階で進んだ」と整理しておく。

 第1の段階はインテリジェント端末である。この場合、「分散処理型ネットワーク」と呼ぶのが適切かもしれない。

 第2の段階は、日本では「オフィス・コンピュータ」(オフコン)と呼ばれ、海外では「スモール・ビジネス・コンピュータ」(SBC)と呼ばれた超小型機の登場によって進展した。

 日本経営史研究所が編纂した『情報処理産業年表』(1988)は、1976年の解説事項として「集中処理から分散処理へ」を掲げ、次のように記している。

 コンピューターの導入の初期には、各部門が個別にコンピューターを導入し利用していたが、オンライン・システムの普及や「コンピューターの性能は価格の二乗に比例する」というグロシュの法則などによって大型機を中央に置く集中処理方式が普及した。しかし、一九七〇年代に入ると、過度の集中による事故時の影響の大きさや、通信費用の増加、現場に密着した事務処理の困難などから、集中処理の見直しの傾向が強まり、オフィス・コンピュー ターや端末機の性能向上、通信手段の開発を通して分散処理方式が注目されるようになった。

 この記事の下に図解が載っている。

 まず情報システムの基本形を

(a)バッチ処理」(センターマシンに複数の入出力装置がダイレクトに接続する形)

(b)「集中処理」(センターマシンに複数の端末機がデータ伝送ケーブルで接続する形)

 の二つに分け、さらに発展形として

第一ステップ」(複数のコンピューターがデータ伝送ケーブルで相互に接続し、個々のコンピューターに端末機が接続する形)

「第二ステップ」(通信回線網に複数のコンピューターと端末機が接続する形)

 を想定した。

 それは社会の発展形態とよく似ている。

 最初、生活をともにする人々が日当たりのいい水辺や山間に集落を作る。村長がいて、集団全体にかかわることがらの判断や指示は、すべて個人の力に拠っている。

 やがて岸の向こう、山の向こうに別の集落があることを知って往来が始まり、地域共同体的な原始国家が形成されていく。ここでも一人の村長が判断と指示を行うが、「伝令」の存在によって複数の集落が動く。「伝令」は通信回線に相当するであろう。

 発展形①「第1ステップ」は、そうした原始国家が複数集まって連合体を成す。『三国志』魏書が「使譯通所三十國」と書く「卑弥呼邪馬台国」がそれに相当する。

 然れば「第2ステップ」は、大和王家によって統治されたとされる6世紀の日本列島西半の状況であろう。武蔵、尾張、越、吉備、出雲、筑紫といった各地に古来からの王家が割拠し、大和王家の内部は大王家を中心に葛城、平群、巨勢、物部といった諸家がときに協力しときに牽制しあいつつ、一定のまとまりを作っていた。

 いや、以上の喩えが馴染みにくければ、東京の電車網を思い描けばいい。環状の山手線のターミナル駅からJR・私鉄の鉄道が伸び、あるいは地下鉄と交差する。あるいは地方分権の概念を想起すればいい――のだが、1970年代後半のIT技術では、第2ステップに到達するにはいましばらくの時間が必要だった。

 1970年代に一般的だったオンライン・システムは、ポーリング方式とコンテンション方式だった。

 ポーリング方式というのは、ざっくり言えばセンターのコンピュータから端末をキックしてデータを送りつける。表現はよくないが「親方日の丸の垂れ流し」方式ないし「上位下達」方式だった。

 一方のコンテンション方式は、データが発生する現場あるいは情報システムを利用する最終ユーザーが通信回線でセンターのコンピュータと対話しつつ、何らかの処理を行う形だった。ポーリング方式よりちょっと高度だったが、その分だけ複雑な手順を要した。

 データが発生する現場あるいは情報システムを利用する最終ユーザーは、まずテレタイプのキーボードを打って紙テープに穴を穿っていく。打ち込まれるのは売り上げのデータである場合もあれば、プログラムであるかもしれない。

 紙テープには最大で1列に8つの穴を穿つことができた。穴が穿たれていれば「1」、なければ「0」である。これで8ビットを表現した。

 次にセンターの電話番号をダイヤルし、つながったところで受話器を音響カプラーに固定する。音響カプラーから最初に発せられるのは、「これからデータを送る」という宣言である。

 センターのコンピューターが「了解」すると、手許のテレタイプに「READY(準備完了)」の文字が打ち出される。そこで紙テープを読取装置にセットし「ENTER」(実行)キーを押す。あとは機械任せで、送信が終了すると再びセンターから「READY」の返事がくる。

 めでたしめでたし。

 1970年代後半、新しいオンライン端末が登場した。

 キーボードでデータやプログラムを打ち込む作業は変わらないが、紙テープに代わってブラウン管方式のディスプレー・モニターにコマンドが表示されるようになった。だけでなく、電話をかけ、音響カプラーをセットし、紙テープを読取装置にかけるという煩雑な手順が自動化した。マイクロプロセッサーが搭載されていたのである。

 ブラウン管が高価だったため、それを使うことができたのは大手企業に限られたが、ともあれ端末がインテリジェント機能を持つようになった。現場のユーザーはキーボードでコマンドを入力してセンターマシンのアプリケーションを動かし、データファイルを指定して処理結果をディスプレーに表示することができる。

 データ処理を実行するのはセンターマシンだが、現場のユーザーがダイレクトにデータを加工できることを意味していた。電電公社が1973年からサービスを開始したDEMOS(Denden Multi-access Online System)、DRESS(Denden Realtime Sales-management System)がその典型だった。

 むろんそれは理論的な意味で「できる」ということであって、実際の業務に適用するのは容易ではなかった。それでも都市銀行はキャッシュ・ディスペンサー(CD)を店舗に展開し、他業への資金移動を実現し、国鉄日本航空は座席予約システムを運用した。

 データが発生し、データを利用する現場がコンピュータ・システムの主役になろうとしていた。 センター型ないし集中処理型の汎用コンピュータは、しかしその価値を失わなかった。「グロシュの法則」は、分散処理型ネットワークの拡大でも正しさが証明されたのだ。

 接続されるインテリジェント端末の台数が増えれば増えるほど、ネットワークを行き来するトラフィックが増え、センターシステムはより大きな処理能力が必要になった。IBM社ばかりでなく、当時のコンピュータ・メーカーにとって、グロシュの法則は”錦の御旗”だった。ユーザーの投資をより高価な汎用コンピュータに誘導できたのだから。メーカーは大型機を作り、その上を行く超大型機の開発で競った。

 大艦巨砲主義である。

 太平洋戦争のとき、大和、武蔵、信濃といった超弩級戦艦を主力とした日本に対して、アメリカ海軍はエンタープライズ、ヨークタウンなど大型空母を中心とする巡洋艦駆逐艦の機動部隊で形勢を逆転した。1970年代におけるコンピュータ・メーカーは、IBM社を機軸にしていたこともあって、自ずから機動部隊型の戦略を立てた。

 大型艦船を汎用コンピュータとすれば、巡洋艦は中・小型コンピュータ、駆逐艦はスモール・ビジネス・コンピュータ(SBC)ということになる。

 SBCの概念を形成したのが誰(もしくは何某社)であったかは明確でない。筆者が思うには、海外においてその概念を最初に形にしたのは、ゼロックス社のパロアルト・リサーチ・センター(PARC)に所属していたジョン・エレンビーという研究者であろうけれど、彼が想定したのはのちにいうエンジニアリング・ワークステーションだった。

 PARCは1970年、スタンフォード大学にほど近いスタンフォード工業団地のコヨーテ・ヒルロードにゼロックス社が設立した。ジョン・エレンビーはそこのコンピュータ科学研究室(CSL)に勤務する50人の研究者の1人だった。

 やや迂遠ながらジョン・エレンビーが最初のSBCを作りあげたのには、スタンフォード・リサーチ・インスティチュート(SRI)のダグラス・エンゲルバートという研究者から語らなければならない。 ダグラス・エンゲルバート - Wikipedia

 1960年代末から1970年代初期の初原的なインテリジェント端末は、モニターに25行を表示した。ところがユーザーが自由に使えたのは最後の1行で、エンターキーを押した瞬間に後戻りできなかった。

 そこでエンゲルバートはタイプライタと同じように、画面に表示される文字列を上下に動かし、修正したいところを容易に指定する方法はないかと考えた。然して彼は、数千個のドットで構成されるモニター画面を上下にスクロールできるスクリーン制御技術を、ディジタルイクイップメント社のPDP―10で開発した。

 この技術をエンゲルバートは「ページ・メタファ」と呼び、のちに「ビットマップ」と呼ばれ、あるいは「ページ・エディター」と称される。ちなみにこのとき「マウス」も同時に作られた。

 CSLの研究者たちはエンゲルバートの成果を耳にして、自分たちが使っているコンピュータにページ・メタファを移植しようと考えた。彼らが使っていたコンピュータは、ゼロックス社が出資しているサイエンティフィック・データ・システムズ社(カリフォルニア州エル・セグンド)の「シグマ」というミニコンだった。

 しかし「シグマ」でエンゲルバートのソフトウェアを動かそうとすると、たいへんな時間と手間がかかった。

 ――それよりPDP-10のコピーを作ったほうが手っ取り早い。

 と彼らは考えた。

 マルチアクセス・ゼロックス・コンピュータ、略して「MAXC」がこうして開発された。その名前は彼らの尊敬すべき先輩であり、サイエンティフィック・データ・システムズ社の創業者マックス・パレスキーの名にちなんでいた。

 MAXCは動くには動いたが、CSLの研究者たちを満足させなかった。興味を惹かれる何かが目の前に示されたとき、それを越えようとする挑戦心を抱くのが研究者というものだし、彼らにはもっと素晴らしいコンピュータを作る自信があった。

 その中のバトラー・ランプソンとチャック・サッカー、そしてアラン・ケイの3人は1972年から1973年にかけて、「ALTO」というコンピュータを設計した。ネットワーク機能、白い画面に文字が黒く表示されるビットマップ・ディスプレー、マウス、ハードディスクを装備していた。

バトラー・ランプソン - Wikipedia

チャック・サッカー - Wikipedia

アラン・ケイ - Wikipedia

 ジョン・エレンビーはさらに改良を加え、ARTOの大きさを机の下に何とか収まるようにした。彼は勝手に「Gzunda」という名前をつけて、他の研究者たちに自慢して見せた。Gzundaの原意は「it goes under the desk」の「goes under」である。

 だがそれを組み立てるには部品代だけで1万ドルが必要だったし、ゼロックス社は複写機だけで莫大な利益をあげていたので製品化することをしなかった。それにPARCは「20年先に実用化される(かもしれない)技術」を研究するのが目的なのである。

gigazine.net

jp.techcrunch.com

              *

 日本の「オフコン」の概念を作ったのは渡辺和である。

 それまでコンピュータは大企業のものだったが、NEAC-1240が”国民機”として新しい時代を切り開いたことはすでに述べた。

 1973年8月20日、東京のヒルトンホテル(現在のキャピトル東急)でその後継機として発表された「NEACシステム100」は本体が真紅と白に塗り開けられたジャスト・デスクサイズだった。

 業務処理用に伝票発行やデータ更新が容易にできる簡易言語「BEST」(Beginner's Efficient & Simple Translator)、販売管理や財務管理など必須のアプリケーションをパッケージ化した「APLIKA」(Application Library by Kit Assembling)が用意されていた。

 当時、日本電気コンピュータサイエンス研究部長だった渡辺和が

 「ユーザーが午前中講習を受けたら午後には使えるコンピューター」

 というコンセプトを作った。

 価格は5年リースで最小構成システムが月額約9万円(買取で370万円)、最大構成システムが月額約100万円(同3000万円)だった。

f:id:itkisyakai:20180602174152j:plain

NEACシステム100-コンピュータ博物館

 オイルショックによる景気後退にもかかわらず、このマシンは最初の1か月で360台を売り、1976年に西ドイツのハノーバーで開かれた総合事務機器ショウ「ハーノーバ・メッセ」に出展され、最初は周辺機器の扱いを受けた。

 1977年になると日本電気は16ビットプロセッサ「μCOM-16」と対話型の専用OS「ITOS」(Interactive Tutorial Operating System)を搭載するようになり、併せて全国をカバーする販売代理店網が形成されていく。

 日刊の産業紙や雑誌にコンピュータの広告宣伝が載る時代がやってきた。 これに対応して日本電子工業振興協会は、「オフコン」を次のように定義した。

 ①基本構成の価格が一千五百万円以下の超小型コンピューター。

 ②事務処理用で直接オペレーターがデータを入力することを基本とするもの。

 ③事務所に設置できるもので、一般に空調設備や特別の電源を必要としないもの。

 「オフコン」という言葉とともに、「ターンキー・システム」という言葉が生まれた。オフコンは会計処理や在庫管理といったアプリケーション・プログラムを内蔵するのが一般的だった。オペレーターがマシンの電源を入れるだけで業務処理ができることを、キーを回せば駆動する自動車のエンジンに喩えたのである。

 業界紙「日本情報産業新聞」の1979年7月発行分から「オフコン」に関連する記事を拾うと次のようになる。

 7月2日号 分散処理機に注力/「DS990」シリーズ完成:TIアジア

       ソフト14種を発売/「MSパッケージⅠ」など:日本NCR

 7月9日号 オフィスコン拡販へ代理店網拡充/業種別専門店を強化:JBC

       ターミナル七台接続できる/オフコンの新機種発売:ミロク経理

       【連載】オフィスコン販売最前線を行く:黒沢商店

 7月16日号 日本ユニバックと三菱電機/小型電算機で業務提携

 7月23日号 オフコン代理店販売に本腰:富士通

       オフコン月間受注150台突破:内田洋行

       オフコン300台受注/来年四月までに納入:JBC

       【連載】オフィスコン販売最前線を行く:パックシステム

 7月30日号 韓国に技術供与/オフィスコン生産で:日立

       【連載】オフィスコン販売最前線を行く:オービック

 オフコンは中堅・中小企業のセンターマシンとして脚光を浴びた。一方、大企業は支社や事業部門の専用コンピュータとして採用し、これをセンターの汎用コンピュータと結ぶネットワークを構築するようになった。

 このことが海外で報道された。

 同じような需要はアメリカにあったし、アンチ・アメリカの意気込みが強かったヨーロッパ諸国のコンピュータ・メーカーは快哉の声をあげた。ハノーバ・メッセに「スモール・ビジネス・コンピューター」のコーナーが設けられたのはこの前後である。

 明けて1980年2月20日大阪市オフコンと周辺機器の専門展示会が開かれた。日本経営協会と日本データ・プロセシング協会が主催したもので、一斉に最新鋭モデルが発表された。

 「OKITACシステム9」(沖電気工業)、「NEACシステム50Ⅱ」「同100Ⅱ」「同150Ⅱ」(日本電気)、「FACOMシステム80」(富士通)、「HITAC L―330」(日立製作所)、「TOSBACシステム15」(東芝)、「B90」(バロース)、「USACシステム7」(内田洋行)、「WANG」(伊藤忠データシステム)、「NIXDORF8800」(兼松ニクスドルフ)、「SiSYCOR350」(東洋オフィスメーション)、「ミロクエース・モデル100」(ミロクシステム販売)、「DPS8」(日本ハネウェル・インフォメーション・システムズ)、「Canoac MA70」「同70」「同350」(キヤノン)、「JBCシステム1」(日本ビジネスコンピューター)、「BASIC/FOUR」(バフォ・コンピュータ)、「ⅰBEX7000」(ロジック・システムズ・インターナショナル)、「Olivetti2030」「同3030」(日本オリベッティ)、「DS990」(テキサス・インスツルメンツ)、「DBS M200」(ソード電算機システム)など、コンピュータ・メーカー、事務機メーカー、外資メーカーが出展し、まさに百花繚乱のさまを呈していた。

 分散処理が提示したのは、実は情報システムに関する問題ではなかった。本質は消費の構造ないし、社会のフレーム、さらにいえばパラダイムの変化ということにあった。

 その変化に敏感に反応したのは、消費者と直接向かい合っているサービス業や小売業だった。こうした業種や業務にかかわる人々は、それぞれの現場でより自在にデータを加工し編集して、情報として活用したいと考えるようになった。

 机の大きさにまで小さくなり、特殊な冷房設備やプログラミング言語を必要としないコンピューターと、ポケットの中の電卓との間を埋める道具を求めたのは当然といっていい。乗り合いバスと自転車ばかりでなく、休みの日にどこかへ行こうかと思い立ったとき自家用車があれば便利ではないか。

 消費構造が大口から小口に移行し、さらに消費者の選好が一律性から多様性に変化するのに合わせて、ビジネスの多くはスケールメリットを追求するだけでは成立しなくなっていく。 結果としてマイクロプロセッサーはこの流れの上に乗った。

 1970年代の末、コンピュータに対する価値観は依然としてグロシュの法則が基盤だった。この法則は1980年代に入っても、十分に価値を持っていた。金融機関や製造業はビジネスモデルの質的変化もあって、大艦巨砲主義でシステムを構築せざるを得なかった。航空・運輸、電力・ガスなどエネルギー、交通制御や中央官庁なども同様だった。

 業務や部門単位で分散処理型ネットワークを構築し、こんにちいうところの部門サーバーを設置してデータベースとアプリケーション・プログラムの分散を図ったにしても、全体の情報管理とコントロールは集中処理であるべきだった。

 この原稿を書いている2005年現在、世の中では汎用コンピュータによる集中処理システムを「レガシー」と呼び、柔軟性がない金食い虫の悪玉であるかのごとくに扱い、その価値を認めようとしない。

 そういう一面があるのは事実だが、「レガシー」であるがゆえに否定する単純な発想は、社会資源の最適配置という観点から見たとき考え直したほうがいい。

 ところが半導体の高集積化、メモリーの高密度化、プロセッサーの高性能化は、まだ顕在化していなかったが、着実に進行し、緩やかに地殻変動を起こしつつあった。皮肉なことに汎用コンピュータそのものが、グロシュの法則を改定する役割を果たした。なぜなら汎用コンピュータも半導体技術の成果だったからである。

 汎用コンピュータの性能が一定のレベルに到達したと多くのユーザーが判断したのは、IBMシステム/370-158、FACOM M-190が世に出たときだった。以後の価値観は「コンピュータの性能は価格の2乗に比例する」ではなく、「コンピュータの性能は5年おきに2倍になる」に変わった。

 オフコンないしSBCも同じ道をたどった。

 インテル社の創業者の一人であるゴードン・ムーアは1965年、

 「半導体の集積密度は18か月から24か月で倍増する」

 と言った。それは彼の経験が言わせた言葉だった。

 机の下に収まったコンピュータはやがて机の上に乗り、現在はバッグの中に入っている。ばかりか、何がしかの情報処理とデータ通信を行う道具という意味であれば、手のひらに収まり、親指でキーボードを操作することができるまでに簡素化した。

 半導体の世界でムーアの法則はいまだに顕在だが、コンピュータに限れば「価格性能比は半年で倍になる」という「アキバの法則」のほうが適切かもしれない。

 またさらにいえば「ネットワークのスピードは9か月で2倍になる」というギルダーの法則もある。

 オフコンが登場してから30年を経たこんにち、面白いのは再び集中処理への回帰が起こっていることだ。ダウンサイジングによって数多くのサーバーが様々な場所に設置され、パソコンの価格性能比が飛躍的に向上し、インターネットが普及した。汎用コンピュータはレガシーだから「ペケ」なのだが、サーバーごとにお守り役が必要だし、サーバーとパソコンをLANで結ぶオフィスシステムの運営にかかる総コストは、それらを購入する代金の数倍に相当する。

 メインフレームよさようなら。LANです。クライアント・サーバです。管理費が高くつきますね。ではイントラネットにしましょう。回線も安くなったことだから、サーバを利用部門に置くよりも、集中したほうが管理が容易です。情報システム部門はサーバだらけになりましたね。これでは場所ふさぎですから、一台の筐体にまとめましょう。……あれ? これはいつかやってた方式ですね。

(日経ストラテジー・小暮仁の「情報化の法則」:経営情報におけるマーフィーの法則http://www.kogures.com/hitoshi/opinion/itpro-er/4.txt