MD simulation ด้วย Amber
AMBER เป็น software licenses ทางด้าน classical molecular dynamics สำหรับงานวิจัยด้าน biochemistry
Info |
---|
ศึกษาการติดตั้งโปรแกรม AMBER ได้ที่ AMBER Installation |
การใช้งาน Amber version 20
1. เตรียม Input
Info |
---|
ศึกษาการเตรียม input สำหรับ AMBER ได้ที่ https://ambermd.org/tutorials/ |
2. การเตรียม Job submission script
2.1 การใช้งานบน compute node
ตัวอย่างสำหรับการรันงานบน compute node
โดยใช้ 160 CPU-cores
และ job time limit 120:00:00
ชั่งโมง ภายใต้ project account projXXXX
(จำเป็นต้องเปลี่ยนเป็น project account ที่ท่านเป็นสมาชิกในโครงการฯ)
ตัวอย่าง job submission script <AMBER-test.sh>
Code Block |
---|
#!/bin/bash -l
#SBATCH --partition=compute # specific partition to gpu node
#SBATCH -N 4 --ntasks-per-node=40 # for requset 4 compute node with 40 cpu-cores
#SBATCH --time=120:00:00 # job time limit <hr:min:sec>
#SBATCH --account=projXXXX # change projXXXX to your project account
#SBATCH --job-name=testMD
module purge # purge all module
module load bzip2/1.0.8-GCCcore-8.3.0
module load XZ/5.2.4-GCCcore-8.3.0
module load GCC/8.3.0
module load OpenMPI/3.1.4-gcccuda-2019b
WORKDIR=$SLURM_SUBMIT_DIR
######################################################
# nothing should need changed below here to run unless you do not
export AMBER_PREFIX="/tarafs/data/project/proj0XXXX/amber20_src"
export AMBERHOME=/tarafs/data/project/proj0XXXX/amber20_src
export PATH="${AMBER_PREFIX}/bin:${PATH}"
# Add location of Amber Python modules to default Python search path
cd $AMBERHOME
source amber.sh
######################################################
cd $WORKDIR
srun pmemd.MPI -O -i input.in -o md.out -p system.top -c md_2.restrt -ref md_2.restrt -r md_1.restrt -x md_1.nc -v mdvel
|
Info |
---|
ต้องทำการตั้งค่า AMBER_PREFIX และ AMBERHOME ให้ตรงกับ location ของโปรแกรม Amber ที่ท่านได้ทำการติดตั้ง เช่น หากติดตั้งที่ /tarafs/data/project/proj0999/amber20_src จะต้องระบุดังข้อมูลด้านล่าง |
Code Block |
---|
export AMBER_PREFIX="/tarafs/data/project/proj0999/amber20_src"
export AMBERHOME=/tarafs/data/project/proj0999/amber20_src |
2.2 การใช้งานบน GPU node
Code Block |
---|
#!/bin/bash -l
#SBATCH --partition=gpu # specific partition to gpu node
#SBATCH --nodes=1 # for requset 1 compute node with 40 cpu-cores
#SBATCH --time=120:00:00 # job time limit <hr:min:sec>
#SBATCH --account=projXXXX # change projXXXX to your project account
#SBATCH --job-name=testMD
module purge # purge all module
module load bzip2/1.0.8-GCCcore-8.3.0
module load XZ/5.2.4-GCCcore-8.3.0
module load CUDA/10.1.243-GCC-8.3.0
module load gcccuda/2019b
module load OpenMPI/3.1.4-gcccuda-2019b
WORKDIR=$SLURM_SUBMIT_DIR
######################################################
# nothing should need changed below here to run unless you do not
export AMBER_PREFIX="/tarafs/data/project/proj0XXXX/amber20_src"
export AMBERHOME=/tarafs/data/project/proj0XXXX/amber20_src
export PATH="${AMBER_PREFIX}/bin:${PATH}"
# Add location of Amber Python modules to default Python search path
cd $AMBERHOME
source amber.sh
######################################################
cd $WORKDIR
srun -n 2 pmemd.cuda.MPI -O -i input.in -o md.out -p system.top -c md_2.restrt -ref md_2.restrt -r md_1.restrt -x md_1.nc -v mdvel
|
3. Job submission
ทำการส่งรันงานในระบบ โดยใช้คำสั่ง sbatch และตามด้วยไฟล์ job submission script
Code Block |
---|
sbatch AMBER-test.sh |
การวิเคราะห์ผลด้วย cpptraj
หากโครงสร้างที่ต้องการวิเคราะห์มีขนาดไม่เกิน 100,000 atoms ขอแนะนำให้ทำการวิเคราะห์ผลด้วย cpptraj บน devel node
โดยใช้ 1 CPU-cores
และ job time limit 2:00:00
ชั่งโมง
ตัวอย่าง job submission script <cpptraj-test.sh> สำหรับ Trajectory analysis บน compute node .
Code Block |
---|
#!/bin/bash -l
#SBATCH --partition=devel # specific partition to compute node
#SBATCH --nodes=1 --ntasks-per-node=1 # for requset 1 compute node with 1 cpu-core
#SBATCH --account=projXXXX # change projXXXX to your project account
#SBATCH --time=2:00:00 # job time limit <hr:min:sec>
#SBATCH --account=projXXXX # change projXXXX to your project account
#SBATCH --job-name=mmpbsa
module purge # purge all module
module load bzip2/1.0.8-GCCcore-8.3.0
module load XZ/5.2.4-GCCcore-8.3.0
module load GCC/8.3.0
module load OpenMPI/3.1.4-GCC-8.3.0
WORKDIR=$SLURM_SUBMIT_DIR
######################################################
# nothing should need changed below here to run unless you do not
export AMBER_PREFIX="/tarafs/data/project/proj0XXXX/amber20_src"
export AMBERHOME=/tarafs/data/project/proj0XXXX/amber20_src
export PATH="${AMBER_PREFIX}/bin:${PATH}"
# Add location of Amber Python modules to default Python search path
cd $AMBERHOME
source amber.sh
######################################################
cd $WORKDIR
cpptraj -i rmsd.in > rmsd.out
|
ทำการส่งรันงานในระบบ โดยใช้คำสั่ง sbatch และตามด้วยไฟล์ job submission script
Code Block |
---|
sbatch cpptraj-test.sh |
Related articles
Filter by label (Content by label) |
---|
showLabels | false |
---|
max | 5 |
---|
spaces | com.atlassian.confluence.content.render.xhtml.model.resource.identifiers.SpaceResourceIdentifier@48ae393 |
---|
sort | modified |
---|
showSpace | false |
---|
reverse | true |
---|
type | page |
---|
cql | label = in ( "amber" , "md_simulation" ) and type = "page" and space = "PLAYG" |
---|
labels | amber |
---|
|
...