非プログラマーのためのインフォマティクス入門。(仮)

非プログラマーがインフォマティクスについて勉強したことを記録します。主にKNIMEというソフトを使用しています。

非プログラマーのためのインフォマティクス入門。(仮)

InfocomさんがKNIME関連のページを更新したよ!

もうすぐ9月もおしまいですね。

上半期の終わりということで、何かと慌ただしい時期かと思いますが頑張っていきましょう!

 

さて、今回はKNIMEの使い方に関する内容ではありません。期待していた方、申し訳有りません(1人でもいて欲しい…)。

で、何を書きたいかというと

 

まず1つ目

コメントをいただきましたーーーー!

とてもとても嬉しいです。

 

chemoinfoのノードも充実しているのでKnimeいいですね!(iwatobipenさん)

 そうなんです。私のようにコーディングもできず、ナスの底をガリガリするくらいしか能のない人間でも、KNIMEのおかげで、そこそこの量のデータ(化合物情報を含む)を扱うことができます。 

 

最近knimeを使い始めました。記事楽しみにしています。(あさん)

 泣ける。社交辞令でも楽しみにしてもらえるなんて!触りはじめるきっかけになっているのなら、もっと泣ける。ブログを書くのも今回が初めてですし、うまく内容をまとめられているか不安はありますが、今後も頑張りますね!

 

続きを読む

KNIMEで化合物をクラスタリング&可視化してみよう

みなさん、こんにちは。

私は急な気温の変化と、ブタクサ?花粉で体調がイマイチです。

心はあまり元気でないので、せめて体は元気で過ごしたいものです。

 

 さて、今回は何について書こうかなーと考えていたのですが、前回、ChEMBLからとってきた情報を使ってクラスタリングでもしてみようかなと思います。

f:id:sumtat:20170917232938p:plain

 上記のように、前回はNS5Bポリメラーゼ阻害剤関する1697化合物ついて、文献名と活性値を持つテーブルを作成しました。これを構造ベースでクラスタリングしていきます。結果をわかりやすくするために、記載されている化合物数が多い文献上位5件に関して作業をしていきます。

 

全体のフローとしてはこんな感じです↓

f:id:sumtat:20170917233759p:plain

それではスタートです!

続きを読む

KNIMEを使ってChEMBLから情報をとってくるンゴ

なんだか、最近巷ではなんJ民が溢れているそうですね!

headlines.yahoo.co.jp

おさぼりおじさんが、日中よく読んでいる*1というyahooニュースで取り上げられているくらいなので、間違い無いですね。驚きですね。

 

 

さて、毒吐きから始めてしまいましたが、今回はKNIMEを使ってChEMBLから情報を取ってくる例を紹介しようと思います。

 

最初にポイントを2点!

  1. ChEMBL db Connectorというお手軽簡単ノードがKNIMEにはあるよ⭐︎
  2. ChEMBLもREST APIに対応しているので、いろいろ工夫して情報が取れるよ!

という内容について紹介します。

 

例としてはNS5Bポリメラーゼ阻害剤について情報収集してみようと思います。

ソバルディのやつです。

f:id:sumtat:20170910155127p:plain

 

TargetのIDとしてCHEMBL5375(uniprot : Q8JXU8)が割り当てられいます。*2 *3

 今回は"CHEMBL5375(uniprot : Q8JXU8)"を出発時に入力情報とする、次のようなフローについて順に紹介します。過去記事とかぶる内容もあるので、該当箇所はリンク等を活用することにして、解説は軽めにします。

f:id:sumtat:20170910182454p:plain

*1:息抜きレベルを超えて、がっつりと芸能ニュースを読んでいるのをみると、正直ムカつきますね

*2:ソホスブビル:CHEMBL1259059のターゲットとしては、CHEMBL379(Hepatitis C virus)、CHEMBL395(HepG2)、CHEMBL382(CCRF-CEM)、CHEMBL612545(Unchecked)の4種が紐付いています。キャプチャでは【Approved Drugsとしてのソホスブビル】のメカニズムとしてCHEMBL5375が紐付いているため、今回のCHEMBL5375を基準とする検索ではソホスブビルはhitしてきません。自分の知りたい内容がちゃんと含まれるか否か、よく確認する必要があるので、お手軽簡単ほほいのほい!で済ませすぎるのはあまりお勧めはできません。

*3:chemblの作りに興味のある方がいるかもなので、chembl_23の構成図を載せておきますね。化合物情報を仲介役としてターゲット情報と上市薬情報は繋がっていますが、ターゲット情報と上市薬情報は直接繋がってはいないことがわかると思います。

f:id:sumtat:20170910160647p:plain

続きを読む

KNIMEで明日の天気を調べよう! 〜REST APIの活用〜

今回はKNIMEを使って、明日の天気予報を調べてみようと思います。

…このこと自体に大して意味はありません。

ポイントは

KNIMEはweb上の情報も取得することができる

という点です。

 

 色んな方法があるのですが、今回はわりと分かりやすい「REST API」を活用した方法を紹介しようと思います*1

例として取り上げる題材は、無料&内容が分かりやすいLivedoor天気情報を利用させていただくことにします。

weather.livedoor.com

 

上リンクの内容を確認していただくと次のような記述があります。

(例)「福岡県・久留米の天気」を取得する場合

下記URLにアクセスしてJSONデータを取得します。
基本URL + 久留米のID(400040)

 REST APIという方法の正確な解説は私にはちょっと難しいですが、ざっくりと言うと

Livedoorさん!(http://weather.livedoor.com/***/)、JSONという形式で(json/v1/)、久留米(?city=400040)のお天気情報を教えてください」

という呪文を詠唱すると、希望通りの情報を召喚できるというものです。

 

呪文の唱え方としては、例えばwebブラウザのアドレスバーににhttp://*****/400040を入力してgoすると次のように久留米のお天気情報が返ってきます。

f:id:sumtat:20170902095152p:plain

文字コードの関係で、ちょっと見苦しいキャプチャですが、こんな感じです。一見汚そうに見えますが、これはJSONという形式で書かれた綺麗な情報です(後述)!この中から、必要な情報をKNIMEを使って抜き取れば良いということです。

 

ということで、全国分の明日のお天気をKNIMEを使ってgetしてみようと思います。

フローの全体像としては次の通りです。

f:id:sumtat:20170902100233p:plain

 

上下の2つに分岐していますが、やっていることは同じです。両方とも紹介します。

それでは最初から順を追って解説していきます。

*1:webページのhtmlをそのまま取ってきたり、SPARQLのEndpointに繋いだり、できることはたくさんありますよ!

続きを読む

Neural Network Consoleで活性値予測をしてみた

SONYからNeural Network Consoleというのが公開されましたね(以下NNC)。

dl.sony.com

 これの良し悪しを議論できるほどの知識は私にはないです。でもGUIツールということで、とりあえず使ってよう!という試みです。セットアップの方法などは公式に書かれていますので、そちらを参考にしてください。

 

 さて、なにをやってみようかなと考えたのですが、私は仕事柄、画像認識をあまり活用できる身近な内容があまり思いつかなかったので、数値(阻害活性値)の予測をしてみることにしました*1

 

 チュートリアルには画像の分類(MNIST)が書かれているのですが、画像以外の形式を入力にする例はあまり紹介されていません。私はこの記事を参考にしました。

arakan-pgm-ai.hatenablog.com

この内容に従えば、とりあえず動きます。ざっくりというと、

の2つがあればいい。という内容です。

 

データのcsv

f:id:sumtat:20170826162614p:plain

 

今回の場合は、ただの0,1が1024列並んだcsvが化合物ごとに必要ということです。上記はcompound-0についてのもの。これが1つの場所にたくさんある状態が必要です。

f:id:sumtat:20170826162938p:plain

 

これ、誰でも簡単に用意できるものなのでしょうか?

KNIMEを使えば、結構簡単ですよ。過去記事の内容ですべて網羅できますので、あとでちょっと解説します。

 

データセットcsv

これは何を指すかというと

f:id:sumtat:20170826163326p:plain

データのcsvの場所+それのラベルがまとまったcsvです。

 ラベルとは、今回の場合「正解の数値」ですし、分類をしたいならred, blue, greenなどの「正解の種別」に該当するものです。今回は活性値(-1~1にして欲しいみないなので、pIC50を10で割りました)。このリストを作る時もKNIMEで簡単に作れます。

 

ここまでで紹介した2種の準備物を作成するフローをキャプチャしました。

f:id:sumtat:20170826163916p:plain

 

ちょっと細かいですね。

過去記事のリンクを活用しながら、ざっくりと解説します。

 

fingerprint関連

f:id:sumtat:20170826164347p:plain

sdfを読んだ後です。化合物のIDとpIC50が入ってます。構造も入ってますが、自分のデータなので見えないようにしてあります。*2

これにFingerprintsというノードを繋げます。

f:id:sumtat:20170826165058p:plain

 設定画面はこんな感じです。特に意味はありませんが、Circular-ECFP4を今回は選びました。これを実行した後にExpand Bit Vectorというノードをつなげると0,1のビットが1024個、個別のカラムに分割されます。

f:id:sumtat:20170826165540p:plain

 

この内容のpIC50をnormalizeします。

f:id:sumtat:20170826165733p:plain

normalizerの設定画面です。乱暴かなと思いましたが、単純に小数化しました(キャプチャ左下)。

続くColumn RenameでpIC50というカラム名をpIC50_normalに変更し、Column Filterで構造式のカラムを捨てました(fingerprintを出したので、もういらない)。

 

データファイル作成

f:id:sumtat:20170826170607p:plain

Loopを使って1行ずつ読み込み、csvに書き出します。分岐上側では、変数化された化合物のIDを「所望の場所+化合物のID+拡張子」になるようにしています。分岐下側では化合物IDとpIC50_mormalを捨てて、fingerprintのみ(学習に使う入力値のみ)になるようにfilterしています。

f:id:sumtat:20170826171747p:plain

上側分岐からきた変数をファイル名として、csvファイルを書き出します。書き出し時には、カラムヘッダは入れません。また、クオートもつけないように指定しました。文字コードUTF-8としました。各種タブにて設定可能です。

ここまでで、冒頭のファイルいっぱい状態が出来上がりです。

 

データセット作成

f:id:sumtat:20170826172054p:plain

データをたくさん格納した場所をList Filesで指定します。続けてURL to File Pathを繋ぎます。するとFile nameというカラムができますが、これは今回の例では化合物のIDとして作成してあります。ですので、元のデータの化合物IDとfile nameでアノテーション(joiner)したあとに、いらない項目を除けばおおむね完成です。

f:id:sumtat:20170826172653p:plain

データの場所と、活性値(正解の値)だけのテーブルができています。NNCのお作法に従ってカラム名

  • ファイルの場所→【x:data】
  • 正解値→【y:label】

に変更します。このtableを学習用と評価用に分割すれば準備完了です。partitioningノードでは様々な方法でデータを分割できます。今回はランダムに80:20に分割しました。この分け方とかも、deeplearningには重要なんだと思いますが、今回はあまり気にしていません。

最後にそれぞれをcsvとして書き出しました。

 

NNCの画面

とりあえず、1024→100→1という感じにしました。最適化法はデフォルトのままでadam、lossはsquared errorにしました。勉強を始めようとしているところなので、意味ねーよこんなのという内容でしたら申し訳ありません。いろいろ教えてくださる方がいると助かります。

f:id:sumtat:20170826173731p:plain

これで学習するとこんな感じのようです。

f:id:sumtat:20170826173916p:plain

評価結果はこんな感じ。

f:id:sumtat:20170826174206p:plain

y:labelが正解(pIC50を10で割ったやつ)、y'が予測値になります。

この画面で、右クリックすると内容をcsvで書き出すことも可能です。

書き出したcsvをKNIME上でグラフにしてみました。

f:id:sumtat:20170826190708p:plain

ファイルを読み込んで、2D/3DScatterplotにつなぎます。

f:id:sumtat:20170826190812p:plain

 ちょっと見にくいですが、横軸がy:label(正解)・縦軸がy'(予測値)です。r^2 = 0.59となっています。なかなかの相関ではないでしょうか?繰り返しになりますが、結構狭い範囲での学習・予測なので(ケモタイプが絞られてる)、新たなケモタイプについて予測値を出そうとすれば大外れすると思います。でも、簡単に予測値を出すことができて結構楽しいです。

 

 さて、キャプチャのplotですが、はっきり言ってダサいですね。綺麗じゃないというか、こなれてないというか…。

 

 そうなんです。個人的な意見ですが、KNIMEは可視化に関してはあまり強くはないと思います。情報は得られるがかっこよくない。ですので、私は整形したファイルをspotfireなどに読ませて可視化部分を担当させています。

 

 spotfireは有償なので、オープンソースでかっこよく描画ができるものがあるといいなーと思っています。グラフ内でインタラクティブに動かせるやつがいいです。(ご存知の方がいれば教えてください)

 

 今回は、雑記ということでKNIMEに関する紹介は少ない&雑でしたが、いかがでしたか?私は末端の合成化学者ですので、データ解析や機械学習などについてあまり知識はありませんが、興味はもっています。現役でベンチワークしてますので、あまり勉強する時間が取れないのですが…。

 周りにあまり詳しい人もいないので、いろいろと教えてくれる人がいるといいなーと思っています。何かブログ内で間違ったいる部分の指摘とか、色々な関連する面白い技術とか、コメントお待ちしていますので、もし気が向けば宜しくお願いします。

もちろん、ただの感想でも結構です。

 

ではまた次回!

*1:graph convolutionなどが実現できればいいのですが、今回のNNCはrdkitやdeep chemなど様々なライブラリを読み込んで云々するようなものではないので、とりあえずECFP4を入力値にした簡単なものです。また1D conv.にも対応してないっぽいので畳み込みもしてません。。

*2:delaneyの溶解度とかやったけど、あまりに結果がひどかったので、自分のデータを使いました。ケモタイプも数種に限られており、SARがはっきりしている化合物群なので、fingerprintでもそこそこの結果が出ているのだと思います

【KNIME】ノード紹介:Parallel Chunk Start 〜多重影分身するってばよ〜

今回の記事は短めですが、活用できる場面にかなり高い確率で遭遇できると思います。

どんな場面かというと…

この処理、重いんですけど!

という時です。

 

そんな時は、Parallel Chunkを使いましょう!

 

Parallel Chunk Start (End)

 重たい処理の前後をParallel Chunk StartとEndで挟むことによって、その区間内の処理を分散させて並列処理をすることができます。

 今回は、以前に紹介したRenderer to Imageについて並列処理をしていこうと思います。

f:id:sumtat:20170822222833p:plain

Loopを使って、複数のファイルを読む方法について紹介した記事の例題で作成した、4335化合物のデータを持つテーブルの構造式部分を画像ファイル(png)に変換しようとする場面を想定してください。

Renderer to Imageノードを接続すれば目的は達成できるのですが、ちょっと処理に時間がかかるんです。私の場合は約100秒かかりました。

 

やっぱり、ちょっと重い作業を一人で抱え込むのはよくないですよね。そこで、分身を作って作業を分散させるのがParallel Chunkです。

続きを読む

【KNIME】ノード紹介:Group Loop Start 〜カテゴリごとに処理したい〜

 先日、KNIMEでloopを回すにはどうするか?という記事を書きました。割と興味を持っていただけたのか、たくさんブックマークもして頂きました。ありがとうございます。

 こんなニッチな内容でも読んでくださる方がいるというのは嬉しいですし、今後も頑張って書いてみよう!とモチベーションも上がりました。

 私も分からないことの方が多いです。もし、もっとお詳しい方がいらっしゃれば、是非コメントなどいただけると嬉しいです。 

sumtat.hatenablog.com

 

さてさて、上のリンク記事の例題は、複数のファイルを一気に読むというものでしたが、今回はその逆で

【データの内容を複数のファイルに書き出す】

という作業について紹介してみようと思います。

 例では、もう少しひねくれて"1つのエクセルファイルに複数のシートとして分割させる"という内容にしてみました。

f:id:sumtat:20170819002437p:plain

 キャプチャに掲げたように、以前の例で紹介したfile_0 ~ file_9をひとまとめにして出来上がったテーブルを、シート名を元のファイル名とした1つのエクセルファイルに書き出してみます。

 

全体像のキャプチャを載せます↓

f:id:sumtat:20170819003610p:plain

 基本的には赤枠の部分(青枠を除く)で目的は達成できますが、もう少しおまけ要素を盛り込みました。緑枠部分は過去記事を参照いただければと思います。

 

それでは順に紹介していきます。

 

続きを読む