【データビジネス】データはビッグでなくてもいい 日立に見る小規模データの活用

材料開発、AIで革新 捨てるデータに宝の芽(日本経済新聞)

これまで捨てていた実験データを人工知能(AI)に学ばせ、材料開発に生かす研究が進んでいる。少ないデータでもAIは学習して賢くなり、化学合成のカギを握る高性能の触媒の開発につながる成果も出始めた。目指すのは研究者の経験と勘に頼っていた従来型の材料開発からの脱却だ。

(中略)

産業技術総合研究所の永田賢二主任研究員らは、わずか14件の実験データから触媒の性能を予測するAIを開発した。少ないデータから欲しい情報を引き出せる「スパースモデリング」と呼ぶ解析手法を使った。化学品の合成効率などがわかり、高性能の触媒を見つけやすくなる。

(引用ここまで)

日本経済新聞

本日の日経新聞の記事2件目。材料開発の際の研究データをAIに学習させ、効率的な開発につなげているという日立の事例が掲載されています。

個人的に、この記事の中で重要なのは、上記引用の下側にある部分。「わずか14件の…」という部分だと思います。これまで、データ解析やAIというと「ビッグデータ」を使うものという考えが多かったように感じます。もちろんどのような結果を求めるかということによって使うべきデータが変わってくることは当たり前なのですが、何でもかんでも「ビッグデータ」である必要はないという理解がもっと広まってほしいと思っています。もちろん、研究者やデータサイエンティストにとっては当たり前のことだと思いますが、経営層、特にデータなどに疎い層にとっては、バズワードばかり耳に入り、データ分析と言えばビッグデータと思っている人も多い現状です。

残念ながら中間管理職などの現場に近い方々も、この辺を理解している人は少ないように思うので、なかなか少数のデータだけで成果がでる「かもしれない」という考えには至りにくい。結果、一般社員クラスが自分で何かトライをしてその成果の片りんを見せないと見向きもしてもらえない。とてももったいないことだと思います。この辺を、それなりの立場にある人が主導的に進められれば、企業(特に大手)のデータ活用はもっと進むと思うのですが、なかなか難しいですかね。

引用した記事にも下記のようなくだりがあります。

AIの学習には膨大なデータが必要とされる。右田研究員はデータ解析の手法を駆使、数十件のデータでも十分なことを証明した。しかも、わざと実験に失敗させたデータも使う。常識はずれのやり方だったため、初めのころはいぶかられた。成果を積み重ねると、周囲の目は変わった。「今では現場から実験データを使って解析してほしいと提案がくる」という。

(引用ここまで)

日本経済新聞

記事では「いぶかられた」だけの記述ですが、実態はどうだったのでしょう。新しいことをやろうとする人に対する風当たりが強い組織だと、「いぶかられた」では済まず「無駄だからやめろ」になってつぶされていたのかもしれません。このようにネガティブに考えると、日立の組織風土はそれほど悪いものではないのかもしれませんね(あるいはこの研究員が、周囲の意見に押しつぶされない強いメンタルを持っていただけかもしれませんが)。