Table 1. Log P and STERIMOL parameters for Perillartine derivatives
Mol.1 | sweet2/bitter | log P | L | Wl | Wu | Wr | Wd |
---|---|---|---|---|---|---|---|
1 | 1 | 2.58 | 8.52 | 3.13 | 2.85 | 3.42 | 1.99 |
4 | 1 | 0.87 | 5.10 | 3.13 | 1.91 | 2.94 | 1.90 |
8 | 1 | 2.28 | 8.69 | 3.19 | 2.84 | 3.42 | 1.99 |
28 | 1 | 1.10 | 9.36 | 3.14 | 2.94 | 3.41 | 1.98 |
29 | 1 | 1.40 | 9.36 | 3.14 | 3.26 | 3.56 | 2.10 |
34 | 1 | 1.48 | 6.06 | 3.09 | 2.08 | 3.01 | 1.71 |
37 | 1 | 1.10 | 8.87 | 3.30 | 2.63 | 3.07 | 2.52 |
42 | 1 | 1.48 | 6.29 | 3.09 | 2.63 | 3.07 | 2.52 |
43 | 1 | 0.78 | 7.10 | 3.09 | 1.91 | 3.41 | 1.91 |
44 | 1 | 0.80 | 9.01 | 3.09 | 2.20 | 3.41 | 2.02 |
45 | 1 | 1.10 | 9.01 | 3.08 | 2.52 | 3.43 | 2.53 |
14 | 0 | -0.10 | 0.67 | 3.33 | 4.11 | 3.56 | 2.10 |
15 | 0 | -0.10 | 9.36 | 3.04 | 3.76 | 3.62 | 2.22 |
16 | 0 | -0.92 | 9.37 | 3.14 | 3.56 | 3.56 | 2.10 |
22 | 0 | -0.72 | 5.51 | 3.05 | 2.53 | 3.41 | 1.97 |
23 | 0 | -0.72 | 6.15 | 3.16 | 2.67 | 3.01 | 1.72 |
25 | 0 | 0.34 | 6.05 | 3.25 | 2.62 | 3.43 | 2.03 |
33 | 0 | 0.72 | 10.67 | 3.51 | 4.08 | 3.63 | 2.22 |
48 | 0 | 1.40 | 7.98 | 3.12 | 3.42 | 5.96 | 2.00 |
49 | 0 | 0.80 | 7.68 | 3.09 | 2.32 | 5.84 | 1.96 |
50 | 0 | 1.10 | 7.68 | 3.09 | 2.43 | 5.89 | 2.57 |
51 | 0 | 1.90 | 5.88 | 2.72 | 2.95 | 3.92 | 3.85 |
Figure 1. Sweet/bitter structures of Perillartine derivatives
Figure 2. Details of STERIMOL parameters[1, 2] and numbering of atoms
我々は、構造活性相関のためのニューラルネットワークシミュレータNecoを開発してきた[10 - 13]。 Necoで採用されているパーセプトロン型のニューラルネットワークは非線形分類に有効であることがよく知られており、本論文では、非線形分類法の一つである三層パーセプトロン型ニューラルネットと再構築学習法[14]を用いて、ペリラルチン誘導体の構造活性相関解析を行った結果を報告する。
Table 2. Results of learning by three layer perceptron (6,1,2) with Log P and STERIMOL parameters
sweet | bitter | ||||||
---|---|---|---|---|---|---|---|
No. | Item | 1 | 2 | No. | Item | 1 | 2 |
1 | 1 | 0.997514 | 0.002486 | 12 | 14 | 0.003820 | 0.996180 |
2 | 4 | 0.995524 | 0.004475 | 13 | 15 | 0.003811 | 0.996189 |
3 | 9 | 0.997499 | 0.002501 | 14 | 16 | 0.003624 | 0.996376 |
4 | 28 | 0.996097 | 0.003903 | 15 | 22 | 0.003691 | 0.996309 |
5 | 29 | 0.993824 | 0.006176 | 16 | 23 | 0.004068 | 0.995932 |
6 | 34 | 0.997448 | 0.002552 | 17 | 25 | 0.009133 | 0.990867 |
7 | 37 | 0.995920 | 0.004080 | 18 | 33 | 0.006746 | 0.993254 |
8 | 42 | 0.990937 | 0.009062 | 19 | 48 | 0.003799 | 0.996202 |
9 | 43 | 0.996683 | 0.003317 | 20 | 49 | 0.005344 | 0.994656 |
10 | 44 | 0.997175 | 0.002825 | 21 | 50 | 0.004260 | 0.995740 |
11 | 45 | 0.995995 | 0.004004 | 22 | 51 | 0.007765 | 0.992235 |
Table 3. Weight of network in the three layer perceptron (6,1,2) with Log P and STERIMOL parameters
layer1(row) and layer2(column) | layer2(column) and 3(row) | |||||||
---|---|---|---|---|---|---|---|---|
log P | L | Wl | Wu | Wr | Wd | 1 | 2 | |
1 | 16.37 | 7.63 | -1.76 | -10.35 | -9.39 | -6.38 | 11.62 | -11.62 |
FR* | 78.4 | 0.0174 | 0.059 | 60.1 | 49.5 | 9.14 |
ネットワーク構造を(6,1,2)としたときのバックプロパゲーションによる学習結果のネットワークの重みをTable 3に示した。左側が入力層と中間層の重みであり、右側が中間層と出力層の重みである。下段は高橋ら[1]によるFisher比(×10-3)である。入力層と中間層ニューロン間の係数の絶対値は、それぞれのニューロンからの信号の重要性を反映しており、この傾向は、Fisher比によるパラメータのランクの傾向とLとWdの順序が逆転しているとはいえ、ほぼ一致する。つまり従来の解釈と同じように、一番重要なパラメータは疎水性パラメータLogPであり、次に重要なのは分子の厚みWuと幅Wrである。より細かく見るならば、logPが大きく、分子長Lが長くかつ分子の厚みWuや幅Wrが短いものが甘味が強くなると言うことを示している。
次に、中間層ニューロン数を1に固定して、同様に学習誤差0.0011という条件で、誤認識をおこさない入力パラメータ数最小の組を求めると、LogP,とWrの2つのパラメータからなる組を得た。
ネットワーク構造を(2,1,2)としたときのバックプロパゲーションによる学習結果のネットワークの重みをTable 4に示す。左側が入力層と中間層の重みであり、右側が中間層と出力層の重みである。これは、ペリラルチン誘導体の甘味・苦味の三層パーセプトロン型ニューラルネットを用いた非線形分類ではLogP とWrが本質的なパラメータであることを示している。また、LogPよりWrの方が重要であることを示唆している。
Table 4. Weight of network in the three layer perceptron (2,1,2) with Log P and STERIMOL parameters
layer1(row) and 2(column) | layer 2(column) and 3(row) | |||
---|---|---|---|---|
log P | Wr | 1 | 2 | |
1 | -30.23 | 74.82 | -19.94 | 19.94 |
高橋らが採用したFisher比の大きな(LogP, Wu, Wr)の3つのパラメータを用いた場合、学習誤差0.0011とし100000回以内の学習で誤認識が無くなるためには中間層ニューロン数を4以上にすることが必要であった。4以下では、100000回以内の学習回数では収束せず、中間層ニューロン数1、2,3いずれの場合でも51を誤認識する。
Table 5. Weight of network in the three layer perceptron (3,4,2) with Log P and STERIMOL parameters
layer1(row) and 2(column) | layer 2(column) and 3(row) | ||||
---|---|---|---|---|---|
log P | Wu | Wr | 1 | 2 | |
1 | 10.81 | -1.96 | -24.90 | 7.31 | -7.31 |
2 | 10.53 | -0.80 | -27.22 | 8.23 | -8.23 |
3 | 22.71 | -3.37 | -17.90 | 7.54 | -7.54 |
4 | 4.33 | 0.71 | -29.97 | 8.84 | -8.84 |
ネットワーク構造を(3,4,2)としたときのバックプロパゲーションによる学習結果のネットワークの重みをTable 5に示す。この結果では、Fisher比の順とは異なり、Wr, LogP, Wuの順で重要となる。Wuはすべての重みがLogPとWrに比べ小さい。この結果は、先に示したようにLogPとWrがペリラルチンの甘味・苦味分類に本質的なパラメータであることを強く示唆している。
Table 6. Log P, Formal charge, HOMO, LUMO energy, and HOMO-LUMO Gap of Perillartine derivatives
LogP | Formal Charge | orbital energy | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
O1 | N2 | C3 | C4 | C5 | C6 | C7 | HOMO | LUMO | Gap | |||
No. | Item | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 |
1 | 1 | 2.58 | -0.26 | -0.06 | -0.10 | -0.08 | -0.14 | -0.13 | -0.12 | -9.17 | 0.21 | 9.38 |
2 | 4 | 0.87 | -0.26 | -0.06 | -0.10 | -0.08 | -0.14 | -0.19 | -0.18 | -9.19 | 0.19 | 9.38 |
3 | 8 | 2.28 | -0.26 | -0.06 | -0.10 | -0.07 | -0.14 | -0.13 | -0.12 | -9.14 | 0.24 | 9.38 |
4 | 28 | 1.10 | -0.26 | -0.06 | -0.10 | -0.08 | -0.13 | -0.13 | -0.12 | -9.16 | 0.22 | 9.38 |
5 | 29 | 1.40 | -0.26 | -0.06 | -0.10 | -0.08 | -0.13 | -0.13 | -0.12 | -9.12 | 0.26 | 9.38 |
6 | 34 | 1.48 | -0.26 | -0.06 | -0.10 | -0.08 | -0.14 | -0.13 | -0.12 | -9.16 | 0.23 | 9.39 |
7 | 37 | 1.10 | -0.25 | -0.06 | -0.10 | -0.06 | -0.11 | -0.12 | -0.12 | -8.71 | -0.40 | 8.31 |
8 | 42 | 1.48 | -0.26 | -0.06 | -0.10 | -0.07 | -0.11 | -0.15 | -0.12 | -8.66 | -0.24 | 8.42 |
9 | 43 | 0.78 | -0.26 | -0.06 | -0.10 | -0.08 | -0.10 | -0.15 | -0.12 | -8.52 | -0.24 | 8.28 |
10 | 44 | 0.80 | -0.26 | -0.06 | -0.10 | -0.07 | -0.13 | -0.09 | -0.09 | -9.05 | 0.12 | 9.17 |
11 | 45 | 1.10 | -0.26 | -0.06 | -0.10 | -0.07 | -0.14 | -0.12 | -0.12 | -9.16 | 0.21 | 9.38 |
12 | 14 | -0.10 | -0.26 | -0.06 | -0.10 | -0.09 | -0.13 | -0.14 | -0.12 | -9.26 | 0.13 | 9.39 |
13 | 15 | -0.10 | -0.26 | -0.06 | -0.10 | -0.07 | -0.14 | -0.13 | -0.12 | -9.28 | 0.12 | 9.39 |
14 | 16 | -0.92 | -0.26 | -0.06 | -0.09 | -0.07 | -0.12 | -0.12 | -0.12 | -8.95 | 0.41 | 9.36 |
15 | 22 | -0.72 | -0.25 | -0.05 | -0.10 | -0.06 | -0.18 | 0.00 | -0.16 | -9.38 | -0.01 | 9.37 |
16 | 23 | -0.72 | -0.25 | -0.06 | -0.10 | -0.11 | -0.13 | -0.17 | 0.01 | -9.38 | -0.00 | 9.38 |
17 | 25 | 0.34 | -0.25 | -0.05 | -0.11 | -0.07 | -0.14 | -0.25 | -0.12 | -8.55 | -0.01 | 8.55 |
18 | 33 | 0.72 | -0.26 | -0.06 | -0.09 | -0.07 | -0.12 | -0.12 | -0.15 | -8.89 | 0.47 | 9.36 |
19 | 48 | 1.40 | -0.26 | -0.06 | -0.10 | -0.07 | -0.14 | -0.13 | -0.12 | -9.18 | 0.23 | 9.41 |
20 | 49 | 0.80 | -0.26 | -0.06 | -0.10 | -0.07 | -0.15 | -0.13 | -0.12 | -9.16 | 0.25 | 9.41 |
21 | 50 | 1.10 | -0.26 | -0.06 | -0.10 | -0.08 | -0.13 | -0.11 | -0.08 | -8.97 | 0.17 | 9.14 |
22 | 51 | 1.90 | -0.26 | -0.06 | -0.09 | -0.08 | -0.13 | -0.06 | -0.05 | -9.19 | 0.15 | 9.34 |
これは、ペリラルチン誘導体の甘味・苦味活性がそれらの共通骨格部分の電荷分布の差異に反映すると考えられること、および、HOMO, LUMOエネルギーとその差は、分子全体に広がる情報を含んでいること、活性発現の初期相互作用が、電子供与的か電子吸引的かラジカル的かの傾向を見ることができると考えられるためである。
これらの値の計算はMOPAC93/AM1[15]を用いて分子構造最適化を行い、それぞれの値を求めた。入力データをTable 6に示す。表作成の都合上、有効桁数を3桁で示したが、実際の計算は有効数字6桁を入力して行った。
この場合も再構築学習法によって最小化された中間層ニューロン数は1となった。ネットワーク構造を(11,1,2)としたときのバックプロパゲーションによる学習結果をTable 7に示す。ここでも、ネットワークの初期値として全結合重みを1.0とした。学習条件は先の場合と同様、学習誤差のしきい値は0.0011である。収束には4954回の反復を要した。
Table 7. Results of learning by three layer perceptron (6,1,2) with Log P, formal charge, and etc.
sweet | bitter | ||||||
---|---|---|---|---|---|---|---|
No. | Item | 1 | 2 | No. | Item | 1 | 2 |
1 | 1 | 0.998462 | 0.001538 | 12 | 14 | 0.006965 | 0.993035 |
2 | 4 | 0.998271 | 0.001729 | 13 | 15 | 0.002789 | 0.997211 |
3 | 8 | 0.998461 | 0.001539 | 14 | 16 | 0.002788 | 0.997212 |
4 | 28 | 0.990624 | 0.009376 | 15 | 22 | 0.002788 | 0.997212 |
5 | 29 | 0.997931 | 0.002069 | 16 | 23 | 0.002788 | 0.997212 |
6 | 34 | 0.998155 | 0.001845 | 17 | 25 | 0.002789 | 0.997211 |
7 | 37 | 0.998462 | 0.001538 | 18 | 33 | 0.002788 | 0.997212 |
8 | 42 | 0.998462 | 0.001538 | 19 | 48 | 0.013562 | 0.986438 |
9 | 43 | 0.998462 | 0.001538 | 20 | 49 | 0.002794 | 0.997206 |
10 | 44 | 0.992449 | 0.007551 | 21 | 50 | 0.004430 | 0.995570 |
11 | 45 | 0.991941 | 0.008059 | 22 | 51 | 0.002789 | 0.997211 |
先に説明したSTERIMOLパラメータを用いた場合の1500回の反復に比べ収束が遅くなっている。この収束が遅くなる傾向は、乱数など異なる初期値を用いてもほぼ同様である。(1,0)が甘味を示すもので(0,1)が苦味を示すものとして学習を行った。最小化された中間層ニューロン数は1である。ネットワーク構造(11,1,2)としバックプロパゲーションで学習させたニューラルネットワークの分類結果をTable 7に示す。ここでも誤認識はない。STERIMOLパラメータを用いた場合にKNNで誤認識される25と51の誤差は、苦味を示すもののうちで大きくはなく、むしろ小さくなっている。この場合は、28と48の誤差が大きくなっているが、その値は1%以下である。また、STERIMOLパラメータを用いた場合と同様、中間層ニューロンの数が1であることは、これらのパラメータを用いても線形学習機械法で誤認識無く分類ができる可能性を示している。
ネットワーク構造(11,1,2)としバックプロパゲーションで学習させたニューラルネットワークの重みをTable 8に示した。この場合も、入力層と中間層ニューロン間の係数の絶対値は、それぞれのニューロンからの信号の重要性を反映している。
ここでも一番重要なパラメータは、疎水性パラメータLogPであり、次に重要なのは、C3からC7の炭素の電荷である。今回用いたペリラルチン誘導体において、大きな電荷を持つ末端の酸素の部位は、長距離のクーロン相互作用を考慮すると分子認識上のフラグとして重要であると考えられる。しかしこの結果をみると酸素の電荷の寄与は、甘味・苦味の分類においては小さい。これは、酸素と窒素の部位がペリラルチン誘導体が活性サイトにアプローチする際には重要であるが、生体内での甘味・苦味の活性には、それらの部位よりむしろ分子骨格の炭素原子が形成する電子状態が重要であることを示唆している。
Table 8. Weight of network in the three layer perceptron (11,1,2) with Log P and Formal charge etc.
Weight matrix between layer1(row) and layer2(column) | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
LogP | Formal Charge | orbital energy | |||||||||
O1 | N2 | C3 | C4 | C5 | C6 | C7 | HOMO | LUMO | Gap | ||
1 | 61.56 | -8.90 | 15.21 | -49.97 | -39.83 | 49.39 | 44.83 | -38.86 | -9.30 | -34.69 | -14.40 |
Weight matrix between layer 2(column) and 3(row) | |||||||||||
1 | 2 | ||||||||||
1 | 12.35 | -12.35 |
また、HOMO, LUMO軌道エネルギーおよびその差は分子全体を見るためのパラメータとして導入したパラメータであるが、重みを見るとLUMOのエネルギーの寄与が大きい。これは、基質からの電子受容性が小さいほど甘味を感じるということを示している。またこれらのLUMOは、分子骨格の炭素上のπ軌道から構成されていることから、電荷の解析からも示唆されるように、分子骨格上の炭素原子が形成する電子状態が、ペリラルチン誘導体の甘味・苦味の活性に重要であるといえる。
STERIMOLパラメータは、分子の最安定構造の電子構造のみならず、様々に複雑な効果が繰り込まれたパラメータであると考えられるが、本計算結果からも、LUMOのような求電子的効果も含まれていると考えることができる。
次に、単純な分子軌道計算から得られるデータのみで分類が可能かどうかをみるために、疎水性パラメータLogPを除いて電荷と軌道エネルギーならびにその差のみを入力として、再構築学習法によって中間層ニューロン数を最小化するとそれは3となった。ネットワーク構造(10,3,2)としバックプロパゲーションで学習させたニューラルネットワークの重みをTable 9にしめす。学習条件はこれまでのものと同様である。この場合、出力層に大きな重みを持つ中間層ニューロン1と入力パラメータの重みをみると、酸素の寄与が大きいが窒素は大きな寄与をもたないことがわかる。
先にも述べたように酸素の大きな負電荷は、長距離のクーロン相互作用を考慮すると分子認識上のフラグとして重要であると考えられる。そのためLogPは、遠距離の相互作用と分子全体の電子状態の効果を含んでいると考えられる。またC7炭素の重みが小さいことは、LogPとSTERIMOLパラメータを用いた場合のSTERIMOLパラメータWrが重要であるということによく対応している。
Table 9. Weight of network in the three layer perceptron (10,3,2) with Formal charge and etc.
Weight matrix between layer1(row) and layer2(column) | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|
Formal Charge | orbital energy | |||||||||
O1 | N2 | C3 | C4 | C5 | C6 | C7 | HOMO | LUMO | Gap | |
1 | -21.73 | 0.16 | -46.64 | -15.99 | 26.41 | 25.12 | 1.24 | 9.96 | -14.38 | -11.87 |
2 | -29.84 | -18.19 | -53.48 | -15.89 | 30.99 | 17.00 | -4.80 | 38.33 | 9.92 | -9.75 |
3 | -56.14 | 8.87 | -127.08 | -28.30 | 11.43 | 19.72 | 32.38 | 2.79 | 15.07 | 26.03 |
Weight matrix between layer 2(row) and 3(column) | ||||||||||
1 | 2 | |||||||||
1 | 16.94 | -16.94 | ||||||||
2 | 11.43 | -11.43 | ||||||||
3 | 11.56 | -11.56 |
貴重なご助言をいただいた物質研の田辺和俊首席研究官に深く感謝する。また本論文に関して建設的なご意見をいただいた、審査員の方々に深く感謝する。