【发布时间】:2020-07-30 12:21:15
【问题描述】:
我之前在 LSF 集群上使用了蛇形,一切正常。但是,最近我迁移到 SGE 集群,当我尝试使用多个通配符运行作业时遇到一个非常奇怪的错误。
当我尝试根据此规则提交作业时
rule download_reads :
threads : 1
output : "data/{sp}/raw_reads/{accesion}_1.fastq.gz"
shell : "scripts/download_reads.sh {wildcards.sp} {wildcards.accesion} data/{wildcards.sp}/raw_reads/{wildcards.accesion}"
我收到以下错误(snakemake_clust.sh 详情如下)
./snakemake_clust.sh data/Ecol1/raw_reads/SRA123456_1.fastq.gz
Building DAG of jobs...
Using shell: /bin/bash
Provided cluster nodes: 10
Job counts:
count jobs
1 download_reads
1
[Thu Jul 30 12:08:57 2020]
rule download_reads:
output: data/Ecol1/raw_reads/SRA123456_1.fastq.gz
jobid: 0
wildcards: sp=Ecol1, accesion=SRA123456
scripts/download_reads.sh Ecol1 SRA123456 data/Ecol1/raw_reads/SRA123456
Unable to run job: ERROR! two files are specified for the same host
ERROR! two files are specified for the same host
Exiting.
Error submitting jobscript (exit code 1):
Shutting down, this might take some time.
当我用常量替换 sp 通配符时,它按预期工作:
rule download_reads :
threads : 1
output : "data/Ecol1/raw_reads/{accesion}_1.fastq.gz"
shell : "scripts/download_reads.sh Ecol1 {wildcards.accesion} data/Ecol1/raw_reads/{wildcards.accesion}"
即我明白了
Submitted job 1 with external jobid 'Your job 50731 ("download_reads") has been submitted'.
我想知道为什么我会遇到这个问题,我确信我之前在基于 LSF 的集群上使用了完全相同的规则,没有任何问题。
一些细节
snakemake 提交脚本是这样的
#!/usr/bin/env bash
mkdir -p logs
snakemake $@ -p --jobs 10 --latency-wait 120 --cluster "qsub \
-N {rule} \
-pe smp64 \
{threads} \
-cwd \
-b y \
-o \"logs/{rule}.{wildcards}.out\" \
-e \"logs/{rule}.{wildcards}.err\""
-b y 使命令按原样执行,-cwd 将计算节点上的工作目录更改为提交作业的工作目录。我希望其他标志/规范很清楚。
另外,我知道--drmaa 标志,但我认为集群没有很好地配置。 --cluster 是迄今为止更强大的解决方案。
-- 编辑 1--
当我在本地执行完全相同的蛇文件时(在前端,没有--cluster 标志),脚本会按预期执行。好像是snakemake和调度器交互的问题。
【问题讨论】:
-
如果您将两者都作为交互式作业运行而不是将它们提交到集群会发生什么?
-
如果我在前端运行snakemake,它会按预期工作。由于某种原因,这只是与调度程序的交互有问题。
标签: cluster-computing snakemake sungridengine