【发布时间】:2016-01-21 18:17:46
【问题描述】:
我正在尝试更好地理解信号量和所有爵士乐,为此我正在编写使用共享内存和信号量进行通信的服务器和客户端。它工作得很好,一切都很好,但我不确定我是否理解在这种情况下信号处理是如何正常工作的。这是来自我的服务器的一些示例代码。我意识到检查两者可能有点多余,但我有点想了解我正在经历的奇怪行为:
sig_atomic_t running = 1;
while(running == 1) {
if (sem_wait(server) == -1) {
//exit and print error A
}
if(running == 0) {
//exit and print error B
}
/* do server stuff */
if (sem_post(client) == -1) {
//exit and print error
}
}
server 是服务器信号量名称,client 是客户端信号量名称(在这种情况下并不重要)。 running(实际上是全局的)是我在信号处理程序中使用的变量:
static void init_signalhandler() {
struct sigaction sa;
sa.sa_handler = terminate;
if(sigemptyset(&(sa.sa_mask)) == -1) {
bail_out(EXIT_FAILURE, "sigemptyset error");
}
if(sigaction(SIGINT, &sa, NULL) == -1) {
bail_out(EXIT_FAILURE, "sigaction1 error");
}
if(sigaction(SIGTERM, &sa, NULL) == -1) {
bail_out(EXIT_FAILURE, "sigaction2 error");
}
}
static void terminate(int e) {
running = 0;
sem_post(server);
}
其中 bail_out 是自定义错误打印/退出函数。
基本上无论我做什么,每当我启动服务器时,它都会到达sem_wait(server) 部分。如果我尝试通过发送 SIGINT 来杀死它,有时它会打印错误 A,有时会打印错误 B。这似乎是完全随机的。不过,这有点强迫我使用 running 变量,因为有时,信号量会被传递,而在其他时候,它不会。
【问题讨论】:
标签: c semaphore signal-handling