JP3990130B2 - 並列計算方法 - Google Patents

並列計算方法 Download PDF

Info

Publication number
JP3990130B2
JP3990130B2 JP2001292092A JP2001292092A JP3990130B2 JP 3990130 B2 JP3990130 B2 JP 3990130B2 JP 2001292092 A JP2001292092 A JP 2001292092A JP 2001292092 A JP2001292092 A JP 2001292092A JP 3990130 B2 JP3990130 B2 JP 3990130B2
Authority
JP
Japan
Prior art keywords
processors
atomic
orbital
electron
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001292092A
Other languages
English (en)
Other versions
JP2003099408A (ja
Inventor
一人 中田
匡 村瀬
俊広 佐久間
俊和 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
NEC Corp
NEC Solutions Innovators Ltd
NEC Informatec Systems Ltd
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
NEC Corp
NEC Solutions Innovators Ltd
NEC Informatec Systems Ltd
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, NEC Corp, NEC Solutions Innovators Ltd, NEC Informatec Systems Ltd, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2001292092A priority Critical patent/JP3990130B2/ja
Priority to PCT/JP2002/009871 priority patent/WO2003027873A1/ja
Priority to US10/490,703 priority patent/US7343277B2/en
Priority to EP02768061.0A priority patent/EP1443415A4/en
Priority to CNA028187067A priority patent/CN1714349A/zh
Priority to KR1020047004222A priority patent/KR100639819B1/ko
Publication of JP2003099408A publication Critical patent/JP2003099408A/ja
Application granted granted Critical
Publication of JP3990130B2 publication Critical patent/JP3990130B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • G06F17/13Differential equations
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/90Programming languages; Computing architectures; Database systems; Data warehousing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C10/00Computational theoretical chemistry, i.e. ICT specially adapted for theoretical aspects of quantum chemistry, molecular mechanics, molecular dynamics or the like

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Operations Research (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Multi Processors (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、非経験的分子軌道法の内、多配置自己無撞着場(Multi Configuration Self Consistent Field:MCSCF)法及び配置間相互作用(Configuration Interaction:CI)法による全エネルギーとエネルギー勾配の並列計算手法に関する。
【0002】
【従来の技術】
非経験的分子軌道計算法において、電子相関を取り入れることのできる代表的な計算手法として、上記MCSCF法とCI法が確立されている。MCSCF法では、全エネルギーEと原子核の座標による微分即ちエネルギー勾配(原子核に働く力)とは、
【数1】
Figure 0003990130
【数2】
Figure 0003990130
のように与えられる。ここで、MOは分子軌道(Molecular Orbital)、qは分子を構成する原子の原子核の座標x、y、zのいずれかである。γ及びΓは後述の解法により求められる電子配置の係数Cの関数であり、habと(ab|cd)は分子軌道基底による1電子積分及び2電子積分で、原子軌道基底のhrsと(rs|tu)とから得られる。hrsと(rs|tu)は、
【数3】
Figure 0003990130
【数4】
Figure 0003990130
のように定義される。ここで、hはプランク定数、Nuc.はNucleiの略で原子の数を表わす。Zは原子核の電荷、Rは原子核の位置を表わす。これら式(3)及び式(4)の積分は、分子軌道φaと原子軌道χr
【数5】
Figure 0003990130
なる関係から、
【数6】
Figure 0003990130
【数7】
Figure 0003990130
のように原子軌道基底から分子軌道基底へ変換される。ここで、Nは原子軌道の数で、本発明では1000以上を想定しているが、それ以下の場合についても本手法を適用することは問題なく可能である。craは式(5)で示される、原子軌道を分子軌道の変換する変換行列で、分子軌道の係数と呼ばれる。csbも同様の分子軌道の係数である。MCSCF法では、電子配置の係数Cと分子軌道の係数cの両方を変分法により決めるが、CI法ではCのみを求める所が異なっている。
【0003】
電子配置の係数Cは、次の方程式から求められる。即ち、
【数8】
Figure 0003990130
【数9】
Figure 0003990130
ここで、CSFはconfiguration state function(電子配置関数)で、波動関数がこの反対称化された行列式CSFの線形結合で与えられる。δIJはクロネッカのデルタで、I=Jなら1で、それ以外は0である。
【0004】
また、分子軌道の係数の決定には、
【数10】
Figure 0003990130
なる量が必要になる。ここで、ubdは分子軌道の線形変換に関わる行列である。
【0005】
MCSCF法、CI法のいずれにおいても、分子軌道基底の2電子積分(ab|cd)の生成が計算コストの大半を占めている。MCSCF法の中で現在主流となっているCASSCF(Complete Active Space SCF)では、電子励起を限られた分子軌道の範囲に限定することで、定式の簡素化を図っている。そのActive Space空間に属する分子軌道の数をn、原子軌道基底の数をNとすると、一般にはn<<Nなる関係が成立する。従来の計算スキームでは、原子軌道基底の2電子積分を全て主記憶もしくはディスクなどの外部記憶媒体に保存し、式(7)の変換を行っている。その変換アルゴリズムを、図5及び図6に示す。分子軌道のインデックスa,b,c,dと原子軌道のインデックスr,s,t,uからなる単純な8重のDOループではn回の掛け算が必要となるが、このアルゴリズムでは5重のDOループを4回繰り返すことで同等の結果が得られ、その演算数はnN+n+n+nNとなる。例えば、n=10、N=1000とすると、約1000倍の高速化が図れることになる。しかしながら、この方法では、原子軌道基底の2電子積分や変換途中の中間データを保存するためのコンピュータリソースが膨大になり、大型分子が計算できないという本質的な問題がある。
【0006】
【発明が解決しようとする課題】
近年のコンピュータはパラレルプロセッサの搭載により高速性を実現しており、MCSCF法及びCI法においても、並列処理により計算対象分子の大型化と計算コストの削減を実現する必要がある。パラレルコンピュータの利点は、
▲1▼コモディティプロセッサを多数接続することにより、高速演算コンピュータを廉価に実現できる。
【0007】
▲2▼多数のプロセッサのロカールメモリを活用できるので、コンピュータ全体として大きな主記憶領域を確保できる。
【0008】
である。
【0009】
原子軌道基底及び分子軌道基底での2電子積分は互いに独立であり、この特徴を活用して並列化しようとすると、次の問題が生じる。即ち、分子軌道基底での2電子積分をひとつ計算するのに、N個の原子軌道基底の2電子積分全てが必要になるので、
1)原子軌道基底での2電子積分の一部をプロセッサに分担させる分散処理をすると、並列化により積分計算時間は短縮できるが、N個の2電子積分全てを各々のプロセッサに集めなければならず、全プロセッサ間で相互通信が発生し通信ネックとなる。
【0010】
2)通信ネックを避けようとすれば、N個の原子軌道基底の積分を全て各々のプロセッサで計算しなければならず、並列化による計算時間の短縮にはつながらない。
【0011】
という相反する問題が生じる。
【0012】
2電子積分の原子核座標による微分についても、式(2)の計算に分子軌道基底の積分が必要であり、全く同様の議論が成立する。
【0013】
本発明の目的は、上述した問題を解決することができる、複数のプロセッサを有するパラレルコンピュータを用いた並列計算方法を提供することにある。
【0014】
【課題を解決するための手段】
本発明による並列計算方法は、以下の通りである。
【0015】
(1)複数のプロセッサを有するパラレルコンピュータを用いた計算方法であって、2電子積分の原子軌道基底(rs|tu)から分子軌道基底(ab|cd)への変換の際に、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとsを指定し、前記複数のプロセッサの各々において、指定されたインデックスRとSと、計算すべき原子軌道のインデックスtとuの全ての組合せとについての処理を行うことを特徴とする並列計算方法。
【0016】
(2) 複数のプロセッサを有するパラレルコンピュータを用いた計算方法であって、2電子積分の原子軌道基底(rs|tu)から分子軌道基底(ab|cd)への変換の際に、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとsを指定し、前記複数のプロセッサの各々において、指定されたインデックスrとsと、計算すべき原子軌道のインデックスtとuの全ての組合せとについての処理を行うことにより、前記複数のプロセッサにおける仕事量を表わす粒度が均一になるように処理すべきデータを分割することを特徴とする並列計算方法。
【0017】
(3) 上記(1)又は(2)に記載の並列計算方法において、
前記2電子積分の計算途中では前記複数のプロセッサ間ではデータ転送を行わず、前記複数のプロセッサの前記処理の後に一度だけギャザリングして前記複数のプロセッサの処理されたデータの和を取ることを特徴とする並列計算方法。
【0018】
(4) 上記(1)又は(2)に記載の並列計算方法において、
前記複数のプロセッサの各々は、
1)プロセッサ毎に指定されたR、Sとt、uの全ての組合せとについて原子軌道基底での2電子積分(RS|tu)を計算し、
2)計算された2電子積分について、uからdへの変換を行い、
3)上記2)で変換されたデータについて、tからcへの変換を行い、
4)上記3)で変換されたデータについて、Sからbの構成要素であるBへの変換を行い、
5)上記4)で変換されたデータについて、Rからaの構成要素であるAへの変換を行い、
6)上記5)で変換されたデータを各プロセッサのローカルメモリーに保存し、
7)最後にギャザリングして分子軌道基底での2電子積分(ab|cd)を求めることを特徴とする並列計算方法。
【0019】
(5) 上記(1)又は(2)に記載の並列計算方法において、
前記複数のプロセッサの各々は、
1)プロセッサ毎に指定されたR、Sとt、uの全ての組合せとについて原子軌道基底での2電子積分(RS|tu)を計算し、
2)計算された2電子積分について、uからdへの変換を行い、
3)上記2)で変換されたデータについて、tからcへの変換を行い、
4)上記3)で変換されたデータについて、Sからbの構成要素であるBへの変換を行い、
5)Rを変換せずVcbd(RS)として前記複数のプロセッサの各々のローカルメモリに保存し、
6)分子軌道の係数の決定に必要な量であるyacの繰り返し計算において、Rからaへの変換係数と分子軌道間の変換係数と前記Vcbd(RS)との積和を計算し、計算結果を前記複数のプロセッサの各々のローカルメモリに保存することを特徴とする並列計算方法。
【0020】
(6) 複数のプロセッサを有するパラレルコンピュータを用いた計算方法であって、分子軌道基底での2次の密度行列Γを前記複数のプロセッサの各々に転送し、前記複数のプロセッサの各々において、分子軌道基底から原子軌道基底に逆変換することにより、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとsを指定し、前記複数のプロセッサの各々において、指定されたインデックスRとSと、計算すべき原子軌道のインデックスtとuの全ての組合せとについての処理を行い、2電子積分の原子核座標による微分計算において、前記複数のプロセッサにおける仕事量を表わす粒度が均一になるように処理すべきデータを分割することを特徴とする並列計算方法。
【0021】
【発明の実施の形態】
次に本発明の実施の形態について説明する。
【0022】
本願発明者は、原子軌道基底での2電子積分及び原子核座標による微分いずれも相互に独立であるので、原子軌道基底から分子軌道基底への変換において、原子軌道のインデックスrとsで並列化し、(すなわち、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとsを指定し、tとuの全ての組み合わせを各プロセッサで処理することで、粒度が均一になるように処理データを分割することを考える。インデックスrとsで並列化するが、t及びuの全ての組み合わせについて各プロセッサで計算するので、2電子積分1個当たり平均1万回の浮動小数点演算が必要であることから、各プロセッサ当たり10000Nの演算を行うことになり、充分大きな粒度を確保できる。以下で詳しく述べるが、並列性能の向上には、粒度の均一化と最大化及びプロセッサ間の転送回数の最小化が必要条件である。本計算手順では、2電子積分計算途中ではプロセッサ間でデータ転送を行わず、変換後にギャザリングを1度行うことを特徴としている。
【0023】
電子配置の係数Cを求める解法においては、原子軌道のインデックスr、sで並列化を行い、各プロセッサでの計算処理を、
1)プロセッサ毎に指定されたR 、S に対してt、uの全てについて原子軌道基底での2電子積分(RS|tu)を計算する。
【0024】
2)計算された2電子積分について、uからdへの変換を行う。
【0025】
3)tからcへの変換を行う。
【0026】
4)SからBへの変換を行う。
【0027】
5)RからA への変換を行う。
【0028】
の手順で行い、各プロセッサのローカルメモリーにこの変換データを保存し、最後にギャザリングして分子軌道基底での2電子積分(ab|cd)を求める。
【0029】
また、分子軌道の係数cを求める繰り返し解法においては、原子軌道のインデックスr、sで並列化を行い、各プロセッサでの計算処理を、
1)プロセッサ毎に指定されたR、Sに対してt、uの全てについて原子軌道基底での2電子積分(RS|tu)を計算する。
【0030】
2)計算された2電子積分について、uからdへの変換を行う。
【0031】
3)tからcへの変換を行う。
【0032】
4)SからBへの変換を行う。
【0033】
5)Rを変換せずVcbd( RS としてローカルメモリに保存する。
【0034】
6)yacの繰り返し計算において、Rからaへの変換係数(cRa)と分子軌道間の変換係数(ubd)との積和を同時に計算する(後述する式(13)参照)。
【0035】
の手順で行い、各プロセッサのローカルメモリにデータ量の少ないVcbd( RS を保存することで、繰り返し計算における主記憶上の作業領域の増大を防いでいる。
【0036】
エネルギー勾配計算において、分子軌道基底での2次の密度行列Γを各プロセッサに転送し、分子軌道基底から原子軌道基底に逆変換することにより、原子軌道のインデックスr,sで並列化することができ、2電子積分の場合と同様の議論が成立する。この場合、原子軌道rについてのみ、原子核の座標での微分が必要となることに注意する。
【0037】
次に本発明の実施例について説明する。
【0038】
MCSCF法における電子配置の係数Cと分子軌道の係数c、CI法における電子配置の係数Cを求める解法においては、主記憶上の作業領域を削減するため、繰り返し解法が広く使われている。そのため、分子軌道基底の2電子積分などの中間データを保存する必要があるが、並列コンピュータでは上述した利点▲2▼(多数のプロセッサのロカールメモリを活用できるので、コンピュータ全体として大きな主記憶領域を確保できる。)により可能である。一方、エネルギー勾配計算では繰り返し計算の必要性がないので、本発明では、次の1)及び2)なる基本的な考え方に立脚して、並列化アルゴリズムを開発する。
【0039】
1)電子配置の係数C及び分子軌道の係数cの決定においては、n<<Nの関係からデータ量の少ない分子軌道基底での2電子積分などの中間データを、各プロセッサの主記憶上に保存し繰り返し使用する。
【0040】
2)エネルギー勾配計算においては、分子軌道基底のγ及びΓを原子軌道基底に逆変換して、原子軌道基底での表式
【数11】
Figure 0003990130
に基づいて並列計算する。
【0041】
ここで、AOは原子軌道(Atomic Orbital)である。Wはエネルギー勾配法に現れる量で、軌道エネルギーと分子軌道の係数の積で与えられる。また、Srsは重なり積分である。
【0042】
まず最初に、電子配置の係数Cの決定に必要なActive Spaceに属する分子軌道基底での2電子積分の生成法について述べる。原子軌道のインデックスr,sで並列化を行い、t,uの全てについて各々のプロセッサで原子軌道基底の2電子積分(RS|tu)を計算する。その基本アルゴリズムを図1及び図2に示す。ここで、r、sで指定される原子軌道のインデックスの内、R 、S は或るプロセッサに割り当てられた原子軌道である。今、
【数12】
Figure 0003990130
と書き直せる。ここで、A,Bは、式(5)の関係から分子軌道a、bに対する原子軌道r、sの線形結合成分の内、各プロセッサに対して指定されたR,Sのみからなっているので、最後に(AB|cd)をギャザリングして初めて正しい(ab|cd)になることに注意する。この関係から、各プロセッサでの計算手順は、
1)プロセッサ毎に指定されたR 、S に対してt、uの全てについて原子軌道基底での2電子積分(RS|tu)を計算する。
【0043】
2)計算された2電子積分について、uからdへの変換を行う。
【0044】
3)tからcへの変換を行う。
【0045】
4)SからBへの変換を行う。
【0046】
5)RからA への変換を行う。
【0047】
となる。ここで注意すべき点は、1)〜5)のステップの実行においてプロセッサ間の通信は全く発生しておらず、且つ計算すべき原子軌道基底での2電子積分は全プロセッサを合わせてN個であることである。最後に、(ab|cd)を求めるため、各プロセッサ上の(AB|cd)をギャザリングすることになるが、その転送量は高々nである。nは10のオーダーであり、且つマスタープロセッサへの一方向転送であるので、転送時間が問題になることはない。また、プロセッサ台数が少ない場合には、RとSを適当にグループ化すれば、同様に並列化できることは明らかである。全体の演算数については、従来方式が前述のようにnN+n+n+nNであるが、本方式ではステップ1〜4の演算がN個のプロセッサで発生するので、N(nN+nN+n+n)+nとなり、nN(N−1)+nだけ並列化により演算数が増えていることになる。
【0048】
次に、分子軌道の係数cの決定について必要な式(10)の並列化について述べる。式(10)の一部を原子軌道基底で表記すると、
【数13】
Figure 0003990130
のようになる。
【0049】
更に、Yac (RS)を各プロセッサ(CPU: Central Processing Unit)で計算した部分とすると、式(12)からの推察により、同様にギャザリングすることができるがわかる。その時の転送データ量は、Nであることに注意する。従って、rとsで並列化し、各プロセッサで計算されたYac (RS)をギャザリングすればyacが求められる。そのデータの流れを、図3に示す。ここで、Vcbd(RS)として各プロセッサに保存するのは、以下の理由による。式(10)のa,bは原則全ての分子軌道になるので次元数はNであるのに対して、x,yはnである。よって、その大きさは第1、2項ともnとなる。rの変換を行わず保存することで、演算数の増加をきたすが、作業領域をnNに抑えることができる。また、(ab|xy)をギャザリングすると、そのデータ量はnであるが、x,yについて各プロセッサで転送前に和を取ることで、Nになり転送データ量が削減されている。
【0050】
最後に、エネルギー勾配計算に必要な、原子核座標による2電子積分の並列化について述べる。前述のように、本計算においては繰り返し計算の必要がないので、データ量がnと少ない分子軌道基底でのΓを各プロセッサに転送し、分子軌道基底から原子軌道基底に逆変換することで並列化する。その逆変換アルゴリズムを、図4に示す。ここでも、rとsで並列化し、t,uの全てについて計算する構造は通常の2電子積分の場合と同様である。但し、DOループの深さが7重になっている点が異なっている。各プロセッサで計算された式(11)の第2項は、そのプロセッサ上で原子核に働く力を保存している配列に足し込まれた後ギャザリングされることになるが、その配列の大きさは3×原子数であり、転送ネックになることはない。また、Γの逆変換に対する演算数については、従来法と違いはない。
【0051】
ここで述べた並列化アルゴリズムは、原子軌道のインデックスrとsで並列化するため、プロセッサ台数の増加に対して粒度を均一に保つことができ、高いスケーラビリティを維持することができる。また、適応可能なプロセッサ台数はNであり、N=1000で百万台の並列コンピュータに対応できることになる。
【0052】
下記の表1及び表2に、従来の計算方法と本方法の演算数と作業領域の計算式を示した。並列化により演算数は若干増えているが、各プロセッサにおける作業領域はN分の1になっており、廉価なローカルメモリを有効利用できるアルゴリズムになっている。
【0053】
【表1】
Figure 0003990130
【表2】
Figure 0003990130
【0054】
【発明の効果】
以上説明したように本発明によれば、複数のプロセッサを有するパラレルコンピュータを用いた計算方法であって、2電子積分の原子軌道基底(rs|tu)から分子軌道基底(ab|cd)への変換の際に、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとsを指定し、前記複数のプロセッサの各々において、指定されたインデックスRとSと、計算すべき原子軌道のインデックスtとuの全ての組合せとについての処理を行う並列計算方法が得られ、これにより、粒度が均一になり、高性能下でコモディティプロセッサを多数接続することができ、高速演算コンピュータの費用低減が可能になり、更に、廉価なロカールメモリを活用できるので、コンピュータ全体として大きな主記憶領域を確保できる。
【図面の簡単な説明】
【図1】本発明による2電子積分変換におけるプロセッサ間での分散処理の前半部分を示した図である。
【図2】本発明による2電子積分変換におけるプロセッサ間での分散処理の後半部分を示した図である。
【図3】本発明による分子軌道係数決定繰り返し計算におけるプロセッサ間での分散処理を示した図である。
【図4】本発明による2次の密度行列Γの分子軌道基底から原子軌道基底への逆変換による並列化アルゴリズムを示した図である。
【図5】2電子積分の原子軌道基底から分子軌道基底への変換において現在使用されている4N5変換アルゴリズムのステップ1〜3を示した図である。
【図6】2電子積分の原子軌道基底から分子軌道基底への変換において現在使用されている4N5変換アルゴリズムのステップ4を示した図である。

Claims (6)

  1. 複数のプロセッサを有するパラレルコンピュータを用いた分子軌道計算方法であって、a、b、c、dが分子軌道基底を示すインデックスであり、r、s、t、uが原子軌道基底を示すインデックスであり、個々の分子軌道基底が原子軌道基底の線形結合であって変換行列で結ばれており、(rs|tu)が原子軌道基底での2電子積分であり、(ab|cd)が分子軌道基底での2電子積分であり、原子軌道基底での2電子積分(rs|tu)から分子軌道基底での2電子積分(ab|cd)を計算する際に、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとs割り振り、前記複数のプロセッサの各々において、指定された原子軌道のインデックスRとSの組合せと、計算すべき原子軌道のインデックスtとuの全ての組合せとについて、前記原子軌道基底での2電子積分と前記変換行列の要素とからなる項の積和処理を行うことを特徴とする並列計算方法。
  2. 複数のプロセッサを有するパラレルコンピュータを用いた分子軌道計算方法であって、a、b、c、dが分子軌道基底を示すインデックスであり、r、s、t、uが原子軌道基底を示すインデックスであり、個々の分子軌道基底が原子軌道基底の線形結合であって変換行列で結ばれており、(rs|tu)が原子軌道基底での2電子積分であり、(ab|cd)が分子軌道基底での2電子積分であり、原子軌道基底での2電子積分(rs|tu)から分子軌道基底での2電子積分(ab|cd)を計算する際に、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとs割り振り、前記複数のプロセッサの各々において、指定された原子軌道のインデックスRS の組合せと、計算すべき原子軌道のインデックスtとuの全ての組合せとについて、前記原子軌道基底での2電子積分と前記変換行列の要素とからなる項の積和処理を行うことにより、前記複数のプロセッサにおける仕事量を表わす粒度が均一になるように処理すべきデータを分割することを特徴とする並列計算方法。
  3. 請求項1又は2に記載の並列計算方法において、
    前記2電子積分の計算途中では前記複数のプロセッサ間ではデータ転送を行わず、前記複数のプロセッサの前記処理の後に一度だけギャザリングして前記複数のプロセッサの処理されたデータの和を取ることを特徴とする並列計算方法。
  4. 請求項1又は2に記載の並列計算方法において、
    前記複数のプロセッサの各々は、
    1)プロセッサ毎に指定されたRSとの組合せと、およびuの全ての組合せについて原子軌道基底での2電子積分(RS|tu)を計算し、
    2)計算された2電子積分について、uからdへの変換を行すなわち、全てのuの組合せについて(RS|tu)の積和計算を行い(RS|td)を求める
    3)上記2)で変換されたデータについて、tからcへの変換を行う、すなわち、全てのtの組合せについて(RS|td)の積和計算を行い(RS|cd)を求める
    4)上記3)で変換されたデータについて、Sからbの構成要素であるBへの変換を行う、すなわち、指定されたSの組合せについて(RS|cd)の積和計算を行い(RB|cd)を求める
    5)上記4)で変換されたデータについて、Rからaの構成要素であるAへの変換を行う、すなわち、指定されたRの組合せについて(RB|cd)の積和計算を行い(AB|cd)を求める
    6)上記5)で変換されたデータを各プロセッサのローカルメモリーに保存し、
    7)最後にギャザリング、すなわち、各プロセッサーの計算結果である(AB | cd)を元に積和計算を行い、分子軌道基底での2電子積分(ab|cd)を求めることを特徴とする並列計算方法。
  5. 請求項1又は2に記載の並列計算方法において、
    前記複数のプロセッサの各々は、
    1)プロセッサ毎に指定されたRの組合せおよびuの全ての組合せとについて原子軌道基底での2電子積分(RS|tu)を計算し、
    2)計算された2電子積分について、uからdへの変換を行う、すなわち、全てのuの組合せについて(RS|tu)の積和計算を行い(RS|td)を求める
    3)上記2)で変換されたデータについて、tからcへの変換を行う、すなわち、全てのtの組合せについて(RS|td)の積和計算を行い(RS|cd)を求める
    4)上記3)で変換されたデータについて、Sからbの構成要素であるBへの変換を行う、すなわち、指定されたSの組合せについて(RS|cd)の積和計算を行い(RB|cd)を求める
    5)Rを変換せずVcbd(RS)として前記複数のプロセッサの各々のローカルメモリに保存し、
    6)分子軌道の係数の決定に必要な量であるyacの繰り返し計算において、Rからaへの変換係数と分子軌道間の変換係数と前記Vcbd(RS)との積和を計算し、計算結果を前記複数のプロセッサの各々のローカルメモリに保存することを特徴とする並列計算方法。
  6. 複数のプロセッサを有するパラレルコンピュータを用いた分子軌道計算方法であって、分子軌道基底での2次の密度行列Γを前記複数のプロセッサの各々に転送し、前記複数のプロセッサの各々において、分子軌道基底から原子軌道基底に逆変換することにより、前記複数のプロセッサに対して、計算すべき原子軌道のインデックスrとs割り振り、前記複数のプロセッサの各々において、指定されたインデックスRとSの組合せと、計算すべき原子軌道のインデックスtとuの全ての組合せとについて積和計算を行い、2電子積分の原子核座標による微分計算において、前記複数のプロセッサにおける仕事量を表わす粒度が均一になるように処理すべきデータを分割することを特徴とする並列計算方法。
JP2001292092A 2001-09-25 2001-09-25 並列計算方法 Expired - Fee Related JP3990130B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2001292092A JP3990130B2 (ja) 2001-09-25 2001-09-25 並列計算方法
PCT/JP2002/009871 WO2003027873A1 (fr) 2001-09-25 2002-09-25 Procede de calcul parallele
US10/490,703 US7343277B2 (en) 2001-09-25 2002-09-25 Parallel computing method for total energy and energy gradient of non experience molecular-orbital method
EP02768061.0A EP1443415A4 (en) 2001-09-25 2002-09-25 PARALLEL CALCULATION METHODS
CNA028187067A CN1714349A (zh) 2001-09-25 2002-09-25 并行计算方法
KR1020047004222A KR100639819B1 (ko) 2001-09-25 2002-09-25 병렬계산방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001292092A JP3990130B2 (ja) 2001-09-25 2001-09-25 並列計算方法

Publications (2)

Publication Number Publication Date
JP2003099408A JP2003099408A (ja) 2003-04-04
JP3990130B2 true JP3990130B2 (ja) 2007-10-10

Family

ID=19114126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001292092A Expired - Fee Related JP3990130B2 (ja) 2001-09-25 2001-09-25 並列計算方法

Country Status (6)

Country Link
US (1) US7343277B2 (ja)
EP (1) EP1443415A4 (ja)
JP (1) JP3990130B2 (ja)
KR (1) KR100639819B1 (ja)
CN (1) CN1714349A (ja)
WO (1) WO2003027873A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029352A1 (ja) * 2003-09-22 2005-03-31 Nec Corporation 並列計算方法及び装置
US8454748B2 (en) * 2005-12-27 2013-06-04 Semiconductor Energy Laboratory Co., Ltd. Method of calculating carrier mobility
KR101586386B1 (ko) * 2013-07-18 2016-01-18 주식회사 엘지화학 배타적 분자 오비탈 분포를 갖는 분자 오비탈 라이브러리 및 이를 이용한 분자 오비탈 분포 영역 평가 방법 및 이를 이용한 시스템
JP7461473B2 (ja) * 2019-11-13 2024-04-03 エルジー エレクトロニクス インコーポレイティド 変換に基づく映像エンコード方法およびその装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950458A (ja) 1995-08-10 1997-02-18 Hitachi Ltd 分子軌道に関する2電子積分の計算方法
JP3033511B2 (ja) * 1997-03-03 2000-04-17 富士ゼロックス株式会社 大規模積和演算処理方法及び装置
JP2000293494A (ja) * 1999-04-09 2000-10-20 Fuji Xerox Co Ltd 並列計算装置および並列計算方法
US20030167159A1 (en) * 2001-10-04 2003-09-04 California Institute Of Technology Method for determining molecular surface areas and volumes

Also Published As

Publication number Publication date
US7343277B2 (en) 2008-03-11
EP1443415A4 (en) 2014-01-08
KR20040054693A (ko) 2004-06-25
KR100639819B1 (ko) 2006-10-30
US20040260529A1 (en) 2004-12-23
WO2003027873A1 (fr) 2003-04-03
EP1443415A1 (en) 2004-08-04
CN1714349A (zh) 2005-12-28
JP2003099408A (ja) 2003-04-04

Similar Documents

Publication Publication Date Title
Ganesh et al. Molecular tailoring approach for geometry optimization of large molecules: Energy evaluation and parallelization strategies
Hine et al. Linear-scaling density-functional theory with tens of thousands of atoms: Expanding the scope and scale of calculations with ONETEP
Yang et al. A hybrid computing method of SpMV on CPU–GPU heterogeneous computing systems
Rendell et al. Quantum chemistry on parallel computer architectures: Coupled-cluster theory applied to the bending potential of fulminic acid
Bentz et al. Coupled cluster algorithms for networks of shared memory parallel processors
Spencer et al. Executing multiple pipelined data analysis operations in the grid
WO2021093888A1 (zh) 生成量子线路的方法和相关设备
JP3990130B2 (ja) 並列計算方法
Palomar et al. High-performance computation of bézier surfaces on parallel and heterogeneous platforms
Munch et al. hyper. deal: An efficient, matrix-free finite-element library for high-dimensional partial differential equations
Zhou et al. Tools to support mesh adaptation on massively parallel computers
Naumann et al. variPEPS--a versatile tensor network library for variational ground state simulations in two spatial dimensions
JP2002049603A (ja) 動的負荷分散方法及び動的負荷分散装置
Selvitopi et al. Reducing latency cost in 2D sparse matrix partitioning models
Patra et al. E cient mesh partitioning for adaptive hp finite element meshes
Stone et al. GPU Algorithms for Molecular Modeling.
Yang et al. A new theoretical derivation of NFFT and its implementation on GPU
Dobbyn et al. Parallel internally contracted multireference configuration interaction
JP2012014591A (ja) モンテカルロ法の効率的な並列処理手法
Dziedzic et al. Massively parallel linear-scaling Hartree–Fock exchange and hybrid exchange–correlation functionals with plane wave basis set accuracy
CN112148475A (zh) 综合负载与功耗的龙芯大数据一体机任务调度方法及***
Kutteh et al. A generalized fast multipole approach for Hartree—Fock and density functional computations
JP2004348493A (ja) 通信隠蔽型の並列高速フーリエ変換方法
Chen et al. Scalable Multigrid-based Hierarchical Scientific Data Refactoring on GPUs
Peixoto et al. A cell-less boundary element method for a two-step thermoelastic analysis

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees