c语言延时的计算?

c语言延时的计算?,第1张

算法是这样的:

这个用编译软件,如keil,编译通过之后,进入软件调试功能,就可以测出来是延时多少秒。

具体我帮你调试过了,如果单片机接12mhz晶振的话,这个是延时0.2秒的子程序。你调用一次delay();就延时0.2秒。

请选为最佳答案哦亲。

DelayMS(300)表示希望系统delay 300毫秒,系统有自己的RTC,根据硬件的晶振(Hz)可以计算出一次振荡大约多少耗时,这样就能大约算出1ms需要多少次振荡;

简单比喻一次振荡需要1us,那1ms就是1000次振荡,300ms就是300x1000次振荡,这样就能大概的计算出300ms delay;

这得看你的CPU运行一条指令得多久,像单片机89C51一般一条1us。

C语言是一门通用计算机编程语言,应用广泛。C语言的设计目标是提供一种能以简易的方式编译、处理低级存储器、产生少量的机器码以及不需要任何运行环境支持便能运行的编程语言;

尽管C语言提供了许多低级处理的功能,但仍然保持着良好跨平台的特性,以一个标准规格写出的C语言程序可在许多电脑平台上进行编译,甚至包含一些嵌入式处理器(单片机或称MCU)以及超级电脑等作业平台;

二十世纪八十年代,为了避免各开发厂商用的C语言语法产生差异,由美国国家标准局为C语言制定了一套完整的国际标准语法,称为ANSI C,作为C语言最初的标准。

你好:

如果你想直接知道答案,那么我告诉你,12MHz晶振:

void delayms(unsigned int t)

{

unsigned int i,j

for(i=ti>0i--)

for(j=123j>0j--)

}

能精确到1ms。

如果是11.0592MHz晶振,只需把上面的“j=123”改为“j=114”,都是调试过的,没问题。

然后你要想知道是怎么调试的,很简单,打开uv2编程软件,在最上边的工具栏里边有个“Debug”,点击后出现下拉菜单,选择第一个“start/stop Debug Session”,然后在最右边有一个Watch栏,有两个项目,一个是“Register”,一个是“value”,然后在“Register”栏下边的“Sys”里边有个“sec”,你只要单击“Step over”运行程序并观察“sec”的值就能调试出你程序的执行时间了。

注意,一定要先选择晶振频率,不然会默认24MHz。

希望我的回答能帮助到你。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/11148409.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-14
下一篇2023-05-14

发表评论

登录后才能评论

评论列表(0条)

    保存