【发布时间】:2016-09-30 15:59:07
【问题描述】:
我必须在包含 50000 个文件的相当大的基准上对命令行工具进行评估。
不幸的是,该工具没有并行化,并且在这种大小的基准上按顺序运行它需要很长时间.
我阅读了一些关于 gnu 并行(或 gnu 信号量)的帖子,但我找不到一个很好的例子来说明如何组合由 gnu 信号量产生的多个后台进程的结果。
解包工具需要一个文件作为输入参数,我必须想办法收集通过并行运行该工具多次产生的所有结果。
此外,我不想在崩溃的情况下丢失任何结果。
当脚本被取消时,它不应该重新处理之前已经处理过的任何文件。
为确保后台进程worker 有足够的工作要做,下面的脚本一次将多个文件传递给worker。
bash 脚本非常适合我的用例。
如果有人有类似的问题,我想与您分享脚本。
可以通过修改 worker 函数和修改变量 $JOBS 和 @987654326 使脚本适应另一个用例@。
如果您能就如何提高脚本的效率向我提供一些反馈,我将非常高兴。
非常感谢, 朱利安
#!/bin/bash
# make variables available in function started by
# gnu semaphore
export FINALRES="result.log"
export RESFIFO="/tmp/res.fifo"
export FILFIFO="/tmp/fil.fifo"
export FILELIST="/tmp/flist"
export WPSIZE=5
export JOBS=4
PUTFPID=""
WRITPID=""
# find input files fo process
find . -name "*.txt" > ${FILELIST}
# setup fifos and files
[ ! -e "${FINALRES}" ] && touch "${FINALRES}"
[ ! -e "${RESFIFO}" ] && mkfifo "${RESFIFO}"
[ ! -e "${FILFIFO}" ] && mkfifo "${FILFIFO}"
FILES=$(diff ${FINALRES} ${FILELIST} | grep '>' | cut -d '>' -f2 | tr -d ' ')
exec 4<> ${RESFIFO}
exec 5<> ${FILFIFO}
trap cleanup EXIT TERM
function cleanup() {
# write results that have been obainted so far
echo "cleanup"
[ -n "${PUTFPID}" ] && (kill -9 ${PUTFPID} 2>&1) > /dev/null
[ -n "${WRITPID}" ] && (kill -9 ${WRITPID} 2>&1) > /dev/null
rm -f "${RESFIFO}"
rm -f "${FILFIFO}"
rm -f "${LOCKFILE}"
}
# this function takes always #WPSIZE (or less) files from the fifo
function readf() {
local cnt=0
while read -r -t 2 line; do
echo "$line"
[ -z "${files}" ] && { files=${line}; let cnt=${cnt}+1; continue; }
let cnt=${cnt}+1
[ ${cnt} -eq ${WPSIZE} ] && break
done <& 5
}
# this function is called by gnu semaphore and executed in the background
function worker () {
for fil in "${@}"; do
# do something ...
echo "result" > "${RESFIFO}"
done
exit 0
}
# this function is used (at the end) to write the comutation results to a file
function writeresult() {
while read -r line; do
[ "${line}" = "quit" ] && break
echo "${line}" >> ${FINALRES}
done < ${RESFIFO}
}
# this simple helper puts all input files into a fifo
function putf() {
for fil in $FILES; do
echo "${fil}" > "${FILFIFO}"
done
}
# make function worker known to gnu semaphore
export -f worker
# put file into fifo
putf &
PUTFPID=$!
writeresult &
WRITPID=$!
while true; do
ARGS=$(readf)
[ -z "${ARGS}" ] && break
# used word spitting on purpose here (call worker with multiple params)
sem --bg --jobs "${JOBS}" worker ${ARGS}
done
sem --wait
echo "quit" > ${RESFIFO}
wait
echo "all jobs are finished"
exit 0
【问题讨论】:
-
谢谢,我根据 spellcheck.net 健全性检查更改了脚本,除了我故意在行
sem --bg --jobs "${JOBS}" worker ${ARGS}中进行的分词;-)。 -
您可以将
>> "${FINALRES}"放在包含它的循环之外,这样您就不必单独查找和附加每个结果。
标签: bash semaphore gnu-parallel