(最新の情報は英語版をごらんくださいませ。)
井手剛が関与している(関与した)プロジェクトの紹介ページです。機械学習(machine learning)を中核とする最先端の数理解析技術を使ってビジネス上の諸問題を解決する、というのが私の仕事です。
最先端の研究成果をビジネスに応用する、という時のイメージは、これまでは、たとえば半導体工学がそうであるように、いわばビジネスのバックエンドで、自社製品への組み込みを意図して開発を行う、というものだったと思います。つまり研究の外部に産業があり、研究所はいわば「外から」事業部に貢献するわけです。
しかし時代は変わりました。実問題を解くためには、その実問題自身を把握し、機械学習の諸技術と結合させることが必要です。そしてその中から、それまでは思いもつかなかった研究課題が生まれることもあります。つまり研究と実応用はもはや不可分であり、刺激的な研究をするためにお客様の問題を解く、という動機が生まれます。
研究部門の管理職としての私の貢献は、研究とビジネスの統合を高い次元で達成する運営モデルをある程度確立したことだと思っています。東京での先駆的な研究活動を世界標準にすべく、現在ニューヨークのIBMワトソン研究所で多くの活動に関与しています。
現在のプロジェクト
2014年から引き続き IBM T. J. Watson Research CenterのMath Science部門にて、機械学習および最適化の諸技術の産業応用の研究をしています。STSM(Senior Technical Staff Member)という立場で、多くのプロジェクトに助言を与える役割を期待されています。主な研究分野としては次のようなものがあります。
- センサーデータからの機械学習
- 分散環境での協同学習(collaborative learning)および反協同学習(adversarial learning)
- 高次構造データからの機械学習
たとえば、下記、ニューヨーク州立大における講演資料はセンサーデータ解析のプロジェクトの概要紹介になっています。
“Recent advances in sensor data analytics,” Department Seminar, Department of Computer Science (January 10, 2018), University at Albany, State University of New York, Albany, USA [slides].
過去のプロジェクト
ITサービスデリバリの高度化 (2013-2014)
2013年に米国ニューヨークにある IBM T. J. Watson Research Centerで Service Delivery & Risk Analytics というチームのマネジャーに任ぜられました。私のチームのゴールは、高度なデータ解析技術を駆使してITサービス管理の最適化を実現することでした。私のチームはIT Services Management という組織に属しており、これは、Cloud InnovationおよびBusiness Service Research と並ぶIBM研究部門のサービス・リサーチの3つの柱のうちのひとつでした。
このチームでは大きく分けて二つのプロジェクトをリードしました。ひとつはITシステム構築プロジェクトのリスクの予測、もうひとつはITシステムの安定稼動のためのトラブルチケット解析です。前者においては、質問票データの解析を機械学習の新しい問題設定として一般化し、項目応答理論という計量心理学の理論を駆使してプロジェクトレビュー時の評価者のバイアスを取り除く手法を開発しました。
- Tsuyoshi Ide and Amit Dhurandhar, “Informative Prediction based on Ordinal Questionnaire Data,” Proceedings of 2015 IEEE International Conference on Data Mining (ICDM 15), Nov. 14-17, 2015, pp.191-200 [slides].
- Tsuyoshi Ide and Amit Dhurandhar, “Supervised Item Response Models for Informative Prediction,” Knowledge and Information Systems, p.1-23, 2016 [link].
数理科学 (2010-2013)
2010年から2013年まで、IBM東京基礎研究所の数理科学担当として、管理職としてグループの戦略を決める立場にありました。そのWebページにあるように、このチームは、最適化、アルゴリズム、機械学習、シミュレーション等の専門家を10数名擁し、それぞれが独立して研究を行う能力を持つことを期待されています。私が定めたチームの戦略的研究分野は次の2つです。
- Analysis of Stochastic Interacting Systems
- Analysis of Industrial Dynamic Systems
応用分野としては、前者については、Smarter Planetの実現に必要な複雑系の解析技術の開発を、後者については、センサーデータ解析や生産最適化など、日本の非常に質の高い製造業等を支援するための技術の開発を想定していました。
前者は新しい分野ですが、とりわけ、シミュレーションモデルの同定問題は、いわゆる「逆問題」のカテゴリに入るものであり、これまでは解くのが非常に困難とされてきました。これを、最近発展してきた大規模計算の技術と、機械学習および最適化の技術を用いて解決することを想定していました。この分野は、全世界のIBM研究部門において、私のチームがリードすることになっていました。
在職中に新たに始めたプロジェクトとしては、アフリカでのFrugalなITS(下記)、Unicaチームと共同で研究開発を進めている大規模マーケティング解析、 人間行動データからのディープナレッジ発見技術などがあり、前身を含めれば長い歴史を持つ東京基礎研究所の数理科学チームの歴史の中で、おそらく最もアクティブな活動を展開したと自負しています。
- T. Ide, T. Katsuki, T. Morimura, and R. Morris, “City-Wide Traffic Flow Estimation from Limited Number of Low Quality Cameras” IEEE Transactions on Intelligent Transportation Systems, 18 (2017) 950-959 [link, slides for related paper].
センサーデータ解析 (2005-2013)
自律型コンピューティングのプロジェクトが終了した後、IBM東京基礎研究所には、データマイニングや機械学習を主たる専門分野とするグループはありませんでした。私自身、専門家と言えるには程遠い状況でした。しかし2005年末頃に私は、主として製造業の分野で豊富に取得されつつあった物理センサーからのデータの解析技術の持つ技術的・ビジネス的可能性に着目し、センサーデータ解析のプロジェクトを立ち上げました。いわば会社員としては勝負に出たわけですが、実はそれが、現在活発に活動しているIBM東京基礎研究所のデータ解析チームの始まりです。言うまでもなく、これは、その後のAI技術によるIoT(Internet-of-Things)の高度化の流れを10年以上も前に先取りしたものです。
プロジェクト提案当時は、データの活用というのは、標準的なソフトウェア工学的手法によるデータ・トレーサビリティの確保とほぼ同義でしたが、今ではSmarter Planetキャンペーンや、その具体的実装であるBusiness Analytics and Optimization (BAO) などに明らかなように、解析技術そのものがビジネスモデルを左右する破壊力を持っているという事実が認知されつつあります。
このプロジェクトでのひとつの成果は、相関異常の検知およびスコアリング技術の基礎を確立したことです。上記SDM論文では、Graphical Gaussian Modelに基づいて、システムの異常度を、個々の変数まで分解して算出する枠組みを提案しました。これはそれまでの統計学的な外れ値検出技術を実問題に適用する際に必要だった技術的空白領域を埋めたものとして非常に重要なものでした。 この技術は現在、IBM Anomaly Analyzer for Correlational Data (ANACONDA) としてアセット化され、 多くの実プロジェクトに適用されています。
Tsuyoshi Ide et al., “Proximity-Based Anomaly Detection using Sparse Structure Learning,” Proceedings of 2009 SIAM International Conference on Data Mining (SDM 09), pp.97-108 [ppt].
Automated Analysis Initiative (AAI; 2003-2004)
伝統的なデータベースソフトウェアのアーキテクチャは、売上データのような、表形式になじむデータを暗黙の前提にしており、物理センサーからのデータのような、典型的には実数値時系列となるデータに対しての親和性は必ずしも高いとは言えませんでした。このプロジェクトでは、 IBM DB2の周りにいわばラッパーとして機能するデータアクセスのためのユーティリティ群を実装することで、具体的には自動車の障害解析時に有用なソフトウェアフレームワークを提供することを目的にしました。これは Parametric Analysis Center と名づけられ、IBMの重要なサービスオファリングのひとつとなりました。
自律型コンピューティング同様、私はデータ解析ないしデータマイニングの観点からこのプロジェクトに参加し、データ解析ライブラリのいくつかを開発・実装しました。たとえば、変化点相関の方法(下記SDM論文)はこのプロジェクトの中で研究されたものです。
Ide & Inoue, “Knowledge Discovery from Heterogeneous Dynamic Systems using Change-Point Correlations,” Proceedings of 2005 SIAM International Conference on Data Mining (SDM 2005), pp.571-576.
自律型コンピューティング(2002-2003)
定型業務の自動化という文脈で2000年代初頭から急速に普及した社内情報システムですが、システムが大規模になると、障害の発生を事前に予期し、迅速に解決することがだんだん困難になってきました。そこでIBMは、情報システムの未来像が、「自律型」の計算システムにあると考え、社内外に大きなキャンペーンを張りました。本プロジェクトはそれに呼応したものです(当時のグループリーダーは現IBM東京基礎研究所所長の福田剛志さん)。
私は、データマイニングの観点から本プロジェクトに参画しました。情報科学分野での私のデビュー作はこのプロジェクトの中で書かれました。これは複数のサーバーが絡み合って動作しているシステムにおける異常検知の手法を提案したものです。この論文は、いわゆるSubspace methodsに基づく異常検知の手法の最初期の仕事のひとつであり、かつ、方向統計量(directional statistics)を異常度のスコアリングに活用したものとしても初めての仕事のひとつです。
Tsuyoshi Ide and Hisashi Kashima, “Eigenspace-based Anomaly Detection in Computer Systems,” Proceedings of the Tenth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD 2004), pp. 440-449.
集光バックライト(2000-2001)
「集光バックライト」プロジェクトは、ハイエンドノートPC用の高精細液晶ディスプレイを開発することを目標に、IBMのディスプレイ事業部(DBU)が推進したプロジェクトでした。
ノートPC用にUXGA(1600×1200)という高精細を実現した製品は当時市場には存在しませんでした。ノートPCではバックライトの配置や消費電力の制約が厳しく、UXGAという高精細で、実用に耐える輝度のディスプレイを製作することは当時の技術では困難でした。DBUではこの困難を、プリズムシートを導光板に一体化して光透過率を極限まで高めた特殊なバックライトで乗り越えることを検討していましたが、TFT(thin film transistor)アレイと導光板下面の光学散乱体との間に光学的干渉が起こり、パネルに輝度ムラが発生するという深刻な技術的課題がありました。
2000年にIBM東京基礎研究所に加わった私は、「ディスプレイ・テクノロジー」という部門に研究員として配属されました。2000年末からこの課題に取り組み、同プロジェクトのリーダーであった平洋一STSM (Senior Technical Staff Member) の助言の下、このモアレ縞による輝度ムラの問題を解決する技術を開発しました。詳細はひとつのエッセイにまとめてありますので、どうぞご覧ください。
T. Ide et al., “Dot pattern generation technique using molecular dynamics,”Journal of the Optical Society of America, A, 20 (2003) 242-255.