clock相关内容
时的执行委托的方式或事件在C#中的时候秒,分钟,小时,。 ..更改系统时钟,而不使用,检查每毫秒如果属性已经改变,执行与最大毫秒的延迟事件的计时器。 我因此,要避免的查询的和火在特定时间的事件。 解决方案 如果你的问题是“我如何执行代表每整秒/分钟/小时?” 有关分钟和小时的时间间隔,你可以这样做在回答这个问题的SO所示: 的如何在时钟在C#中的特定时间产生的事件?
..
试图用手模仿一个24小时制的翻转(含数学与使用的时间跨度类)。递增的部分很容易弄清楚如何翻身从23:00至0:00从,但得到它走另外一条路是谈到了真正令人困惑。这是我到目前为止有: 静态无效IncrementMinute(INT分钟,INT增量) { INT newMin =分钟+增量, hourIncrement = newMin / 60; //递增或递减小时 如果((双)
..
怎样才能在特定时间的事件?例如,假设我要产生在上午8点,通知我的8:00 AM警报(或在任何给定的时间告诉我的当前时间的事件)。 解决方案 使用的
..
我试图创建依赖于系统时钟计时器。这意味着,当系统时间变化应当影响该定时器的期满太。因此,我认为,依据“一个创建一个计时器href=\"http://stackoverflow.com/questions/3523442/difference-between-clock-realtime-and-clock-monotonic\">CLOCK_REALTIME应该做的伎俩。但是,当该定时器布防60秒
..
有关学校里,我必须做一个分配而言,我忙着它样3周了,仍然没有带变得远。我们需要有是圆的钟的秒分钟和小时的颜色要亮起来。所以,如果是上午04时25这些数字需要亮起来。 这是我有现在: 的#include<&stdio.h中GT; #包括LT&;&time.h中GT; #包括LT&;&CONIO.H GT; #包括LT&;&unistd.h中GT; #包括LT&;&s
..
这时钟使用STIME()和clock_settime()设置?正如我在阅读的人都可以设置一个Linux的时间。功能STIME()设置)“的时间观念”和clock_settime(有参数CLOCK_REALTIME可以设置一个“全系统RTC。” 1)什么是这些时钟?结果 2)有什么区别?结果 3)他们还设置了硬件时钟?结果 4)如果不是:是否有人知道一个聪明的办法来设置在C / C ++的h
..
我试图来衡量C的code座的执行时间,我有这样的事情在我的code: clock_t表示开始,结束; 双time_spent; 开始时钟=(); ATL_dsymv(122,N,阿尔法,A,N,X,1,β,Y,1); 结束=时钟(); time_spent =(双)(完 - 开头)/ CLOCKS_PER_SEC; 的printf(“(%F秒)”,time_spent); 但它总是返回:(
..
快速的问题。对于MPI实现我的code的,我得到两个巨大的差异。我知道MPI_Wtime是)由每个处理器和时钟(经过的实时给出的预期时间粗略的想法。难道有人想加一些说法对吗? 解决方案 的时钟的功能是完全无用的。它测量CPU时间,而不是实时/壁时间,而且它具有以下严重的问题: 在大多数实现中,分辨率是极其恶劣的,例如,一秒钟的1/100。 CLOCKS_PER_SECOND 不是分辨
..
以下code的片给我们从我们的教练,所以我们可以测量一些算法的性能: 的#include<&stdio.h中GT; #包括LT&;&unistd.h中GT;静态无符号cyc_hi = 0,cyc_lo = 0;静态无效access_counter(无符号*您好,无符号* LO){ ASM(“RDTSC; MOVL %% EDX,%0; MOVL EAX %%%1” :“=
..
我的问题是每当我尝试使用Makefile中,我得到以下编译: 使:警告:文件'Board.c'的修改时间1.3E + 03 S IN未来 GCC -Wall -c -Wvla -lm Board.c -o Board.o GCC -Wall -c -Wvla -lm PlayBoard.c -o PlayBoard.o gcc的-lm ErrorHandle.o Board.o PlayBoar
..
我试图来计算数量蜱函数用来运行和这样做的使用时钟()功能,像这样: 无符号长的时间=时钟(); MyFunction的(); 无符号长时间2 =时钟() - 时间; 的printf(“经过时间:%录”,时间2); 但问题是它返回的值是10000多,我认为这是在 CLOCK_PER_SECOND 。有没有一种方法,或者更precise?等效函数值 我使用Ubuntu 64位,但将preFER如
..
使用以下code: #包括LT&;&stdio.h中GT; #包括LT&;&time.h中GT; 诠释的main() { clock_t表示启动,停止; INT I; 开始=时钟(); 对于(i = 0; I< 2000;我++) { 的printf(“%d个”,(我* 1)+(1 ^ 4)); } 的printf(“
..
我有这样的事情: clock_t表示起点,终点; 开始=时钟();something_else();结束=时钟(); 的printf(“\\ nClock周期为:%d个内容 - %d \\ n”,开始,结束); 和我总是作为输出“时钟周期:0 - 0” 任何想法,为什么出现这种情况? (只给小细节,在something_else()函数执行使用蒙哥马利再presentation左到右幂
..
您好我想使用 clock_gettime()测量功能我的code的性能。 我无法了解不同种类从该名男子页描述函数中使用的时钟之间的差异。 ESP CLOCK_REALTIME,CLOCK_PROCESS_CPUTIME_IDCLOCK_THREAD_CPUTIME_ID 有人可以explaing什么每个时钟办? 解决方案 CLOCK_REALTIME 报告实际的挂钟时间。 C
..
Linux提供了STIME(2)调用来设置系统时间。然而,虽然这将更新系统的时间,它不设置BIOS硬件时钟以匹配新的系统时间。 的Linux系统通常同步与在关机和以周期性间隔系统时间的硬件时钟。但是,如果机器得到动力循环这些自动同步的人之前,时间将不正确当机器重新启动。 你如何确保当您设置系统时间的硬件时钟得到更新? 解决方案 检查出的细节RTC手册页,但如果你是作为root登录,这样
..
在试图建立一个非常延迟敏感的应用中,需要发送一个秒,具有时间字段的每个消息,我们要考虑优化gettimeofday的消息100S。 走出首先想到的是 RDTSC 基于优化。有什么想法吗 ?任何其他的指针? 返回的时间价值需要accurancy以毫秒为单位,但如果该值偶尔不同步的接收1-2毫秒这不是什么大不了的事。 努力做优于62纳秒的gettimeofday需要 解决方案 你有没有实
..
的C 时钟()函数只是返回我一个零。我试着用不同的类型,有没有改善?这是衡量,用良好的precision的好办法? 的#include<&time.h中GT; #包括LT&;&stdio.h中GT;诠释的main() { clock_t表示起点,终点; 双cpu_time_used; 个char [32]; 开始=时钟(); 的printf(“\\ nSl
..
我目前使用一个显式转换为无符号长长,并使用%LLU 打印,但因为为size_t 的%Z 说明,为什么不 clock_t表示有吗? 甚至没有为它的宏。也许我可以假设一个x64操作系统(OS和CPU)对为size_t 的长度为8个字节(即使在这种情况下,他们已经提供了% ž),但关于 clock_t表示?什么 解决方案 有似乎没有完美的方式。问题的根源在于 clock_t表示可以是整数或浮点
..
在编译程序的MacPorts通过安装必要的库后,我在Mac OS X中写道,我得到这个错误: 在函数'nanotime“: 错误:“CLOCK_REALTIME'未申报(在一次使用此功能) 错误:(每个未声明的标识符报道只有一次 错误:为每个功能它出现在)。 看来, clock_gettime 在Mac OS X不落实是否有得到的划时代时间在纳秒的替代手段?不幸的是 gettimeofday
..
由于可以在阅读: Boost定时器教程,3TH例如)可能会失败(例如,使用date命令,如果你的操作系统是Linux系统)。 现在是否有执行此操作,使用Boost的简单和appropiate的方式?我不想用deadline_timer :: expires_from_now(),因为我可以确认它比“手动”更新过期时间不准确。 作为一个时间的解决方案,我决定,创下新的expires_at值之前
..