找回密码
 注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

巢课
电巢直播8月计划
查看: 767|回复: 1
打印 上一主题 下一主题

PROTEL--------初学者技术大全(四)

[复制链接]

14

主题

18

帖子

341

积分

三级会员(30)

Rank: 3Rank: 3Rank: 3

积分
341
跳转到指定楼层
1#
发表于 2008-11-29 16:16 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

EDA365欢迎您!

您需要 登录 才可以下载或查看,没有帐号?注册

x
三、过孔的寄生电感
5 x6 n1 @6 _. s. ~3 T2 y9 p同样,过孔存在寄生电容的同时也存在着寄生电感,在高速数字电路的设计中,过孔的寄生电感带来的危害往往大于寄生电容的影响。它的寄生串联电感会削弱旁路电容的贡献,减弱整个电源系统的滤波效用。我们可以用下面的公式来简单地计算一个过孔近似的寄生电感:
4 Q7 q% u7 @4 x/ z# |: KL=5.08h[ln(4h/d)+1]其中L指过孔的电感,h是过孔的长度,d是中心钻孔的直径。从式中可以看出,过孔的直径对电感的影响较小,而对电感影响最大的是过孔的长度。仍然采用上面的例子,可以计算出过孔的电感为:L=5.08x0.050[ln(4x0.050/0.010)+1]=1.015nH 。如果信号的上升时间是1ns,那么其等效阻抗大小为:XL=πL/T10-90=3.19Ω。这样的阻抗在有高频电流的通过已经不能够被忽略,特别要注意,旁路电容在连接电源层和地层的时候需要通过两个过孔,这样过孔的寄生电感就会成倍增加。
* T. S5 g) d% ~四、高速PCB中的过孔设计
& `6 O* W/ U* \! \7 c1 ?5 D通过上面对过孔寄生特性的分析,我们可以看到,在高速PCB设计中,看似简单的过
& t; u0 U$ `! y# D2 q孔往往也会给电路的设计带来很大的负面效应。为了减小过孔的寄生效应带来的不利影响,在设计中可以尽量做到:
) d1 ^7 D) l9 {+ G7 i. Q" O3 k/ J1、从成本和信号质量两方面考虑,选择合理尺寸的过孔大小。比如对6-10层的内
9 K& @$ `- J5 K5 Z9 p存模块PCB设计来说,选用10/20Mil(钻孔/焊盘)的过孔较好,对于一些高密度的小尺寸的板子,也可以尝试使用8/18Mil的过孔。目前技术条件下,很难使用更小尺寸的过孔了。对于电源或地线的过孔则可以考虑使用较大尺寸,以减小阻抗。$ ~; {3 T. |9 p
2、上面讨论的两个公式可以得出,使用较薄的PCB板有利于减小过孔的两种寄
2 Y: p& ^( G+ t) V7 O8 X2 G生参数。1 I( p5 X: K2 u  {# |! c
3、PCB板上的信号走线尽量不换层,也就是说尽量不要使用不必要的过孔。
- p* v: F8 @3 e5 ~. A3 f4、电源和地的管脚要就近打过孔,过孔和管脚之间的引线越短越好,因为它们会& g4 V" g; \9 K1 `* E; C
导致电感的增加。同时电源和地的引线要尽可能粗,以减少阻抗。
& O- A0 q/ A7 W9 k; M5、在信号换层的过孔附近放置一些接地的过孔,以便为信号提供最近的回路。甚至可以在PCB板上大量放置一些多余的接地过孔。当然,在设计时还需要灵活多变。前面讨论的过孔模型是每层均有焊盘的情况,也有的时候,我们可以将某些层的焊盘减小甚至去掉。特别是在过孔密度非常大的情况下,可能会导致在铺铜层形成一个隔断回路的断槽,解决这样的问题除了移动过孔的位置,我们还可以考虑将过孔在该铺铜层的焊盘尺寸减小。( d5 ]" x1 o% `/ n3 T! A

评分

参与人数 1贡献 +5 收起 理由
zyunfei + 5 感谢分享

查看全部评分

分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友 微信微信
收藏收藏 支持!支持! 反对!反对!

1

主题

9

帖子

-8974

积分

未知游客(0)

积分
-8974
2#
发表于 2008-11-29 21:29 | 只看该作者
再支持一下坐个沙发~~
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

推荐内容上一条 /1 下一条

巢课

技术风云榜

关于我们|手机版|EDA365 ( 粤ICP备18020198号 )

GMT+8, 2025-2-7 19:10 , Processed in 0.058950 second(s), 37 queries , Gzip On.

深圳市墨知创新科技有限公司

地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

快速回复 返回顶部 返回列表