c语言1微秒延迟函数 c语言微秒延时

C语言编程时,延时函数125次=1ms(书本上是这样的,不懂),是怎样得来的...

1、就看楼主你用的晶振是多大的!如果你用的是12M的晶振,一个机器周期为T=12/f=1微秒,你的延时程序循环600*125=75000次,即75000微秒,就是75毫秒。

成都创新互联长期为上千客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为大石桥企业提供专业的成都网站设计、网站制作、外贸营销网站建设大石桥网站改版等技术服务。拥有10多年丰富建站经验和众多成功案例,为您定制开发。

2、首先你要延时多长时间,us级别的必须使用汇编,C误差很大,10-100us级别的可以用C控制,单必须考虑C出栈入栈时间。ms以上的用时间除以机器周期(除以你则个1us是不行的,误差大)。

3、记下当前时间T1,然后按F10(不进入子函数)调试,再记录当前时间T2,则延时=T2-T1。多试几个A,差不多调到1s就够了。我一般都这么调。你要想明白其中原理,想自己算的话,你就看看delay的汇编代码段自己算吧。

4、用12MHz的晶振的话,其延时大概是1ms。其实for (i=0;i124;i++);更接近1ms。

5、每一遍,如果是1us,才能是延时约1s。但是,晶振是12MHz,一条汇编的指令就至少是1us,C语言的语句,就要更多。

6、在main函数中添加延时函数,以实现上电后30秒后LED灯开始点亮的要求。

求一个C语言的微秒级延时函数

1、微秒延时函数 void Delayus(unsigned int US){ unsigned i;US=US*5/4;//5/4是在8MHz晶振下,通过软件仿真反复实验得到的数值 for(i=0;iUS;i++);} // 以上函数式根据AVR单片机在8MHZ时钟频率下得出的结果。

2、可以用_nop_( )函数来实现微秒级的延时。_nop_(); // 直接当成一条语句使用,产生一条NOP指令NOP指令为单周期指令,可由晶振频率算出延时时间,对于12M晶振,延时1uS。

3、在linux里用select可以达到延迟效果,阻塞和非阻塞都可以选择,也可以创建一个线程用ulseep做延迟,时间到了就向目标线程发送信号或者使用变量来通知。

如何计算C语言中的延时函数

这个跟的系统频率有关系。看看你的晶振是多少。另外还跟指令集有关系。精确的时间你可以反汇编一下看看有多少条指令,根据指令周期算算延时时间。

简单比喻一次振荡需要1us,那1ms就是1000次振荡,300ms就是300x1000次振荡,这样就能大概的计算出300ms delay;这得看你的CPU运行一条指令得多久,像单片机89C51一般一条1us。C语言是一门通用计算机编程语言,应用广泛。

就是用晶振频率算cpu指令周期,再算Delay循环中有几条代码,需要多少个指令周期。除一下可以算个大概。具体你可以结合硬件资料来算。

算法是这样的:这个用编译软件,如keil,编译通过之后,进入软件调试功能,就可以测出来是延时多少秒。具体我帮你调试过了,如果单片机接12mhz晶振的话,这个是延时0.2秒的子程序。你调用一次delay();就延时0.2秒。

{ unsigned int i,j;for(i=t;i0;i--)for(j=123;j0;j--);} 能精确到1ms。如果是10592MHz晶振,只需把上面的“j=123”改为“j=114”,都是调试过的,没问题。

你这个10592是匹配波特率所用的晶振,机器周期只是约等于1us。首先你要延时多长时间,us级别的必须使用汇编,C误差很大,10-100us级别的可以用C控制,单必须考虑C出栈入栈时间。


文章题目:c语言1微秒延迟函数 c语言微秒延时
当前链接:http://myzitong.com/article/deijjgd.html