スイッチング損失解析
理論と物理
スイッチング損失と導通損失
先生、スイッチング損失って導通損失とどう違うんですか? パワエレの授業で「損失」って言葉がたくさん出てきて、頭がこんがらがってます…
ざっくり言うと、導通損失はデバイスがON状態のときに定常的に発生する損失で、MOSFETなら $R_{ds(on)} \times I_D^2$、IGBTなら $V_{CE(sat)} \times I_C$ で計算できる。電球がずっと光ってるときの電力消費みたいなもんだ。
一方、スイッチング損失はターンオンとターンオフの過渡期——つまりONからOFF、OFFからONに切り替わる「一瞬」に発生する。この瞬間、電圧と電流が同時に存在する期間があって、その積分値がスイッチングエネルギーになるんだ。
え、ONかOFFのどちらかなら片方はゼロだから損失ゼロですよね? その切り替わりの瞬間だけ問題になるってことですか?
そのとおり。理想スイッチなら切り替えは瞬時だから損失ゼロだけど、実際のMOSFETやIGBTは有限の立ち上がり時間 $t_{rise}$ と立ち下がり時間 $t_{fall}$ がある。例えばSiC MOSFETで400V/100Aの動作を考えると、1回のスイッチングでだいたい $E_{sw} \approx 0.5 \, \text{mJ}$ のエネルギーが熱に変わる。これを100kHzでスイッチングすると——
えっと… $0.5 \, \text{mJ} \times 100{,}000 = 50 \, \text{W}$! たった1回は小さくても、周波数が高いと馬鹿にならないんですね!
そう、それがスイッチング損失の本質だ。周波数に比例して損失が増える。だからスイッチング損失を正確に予測するのが、パワエレの熱設計でめちゃくちゃ重要なんだよ。
スイッチングエネルギーの定式化
スイッチング損失の数式をちゃんと教えてください!
まず、1回のスイッチングで消費されるエネルギーは、過渡期間中の瞬時電力を積分して求める:
ターンオンとターンオフそれぞれに分けて書くと:
そしてスイッチング電力損失は、1周期あたりの総スイッチングエネルギーにスイッチング周波数をかけたものだ:
なるほど、この式は直感的ですね。データシートだと $E_{on}$ と $E_{off}$ はどう書かれてるんですか?
データシートでは、特定条件(例:$V_{DS}=400\,\text{V}$、$I_D=20\,\text{A}$、$T_j=25\,^\circ\text{C}$)での $E_{on}$、$E_{off}$ が記載されている。ただし実際の動作条件は異なるから、電圧・電流・温度の依存性を考慮したスケーリングが必要になる:
実務では $k_v \approx 1.2 \sim 1.4$、$k_i \approx 0.8 \sim 1.0$、温度係数 $\alpha_T \approx 0.002 \sim 0.005 \, /\text{K}$ あたりが目安だ。IGBTだとテール電流の影響で $E_{off}$ が大きくなる傾向がある。
データシートの25度の値をそのまま使ったらダメなんですね。実際の接合温度が100度以上だと、かなりズレそう…
そう、SiCの場合125度では $E_{sw}$ が25度比で20〜30%増加することもある。ここを見落とすと「シミュレーションでは大丈夫だったのに実機が熱暴走した」という事故が起きるんだ。
ターンオン・ターンオフのメカニズム
ターンオンとターンオフで、具体的に何が起きてるんですか? 波形で見るとどうなるんでしょう?
ターンオンは4つのフェーズに分けて理解するといい:
- ゲート充電期(ターンオン遅延 $t_{d(on)}$):ゲート電圧が閾値 $V_{th}$ まで上昇。まだ電流は流れない。
- 電流立ち上がり期:$V_{GS}$ が $V_{th}$ を超え、$i_D$ が上昇開始。この間 $v_{DS}$ はまだ高電圧を維持 → 電圧×電流の重なりが発生。
- ミラー期(プラトー):$V_{GS}$ がミラー電圧付近で停滞し、$v_{DS}$ が急降下。ゲートドライバの電流がゲート-ドレイン間容量 $C_{GD}$(= ミラー容量)を充電している。
- $v_{DS}$ 降下完了:$v_{DS} \approx R_{ds(on)} \times I_D$ に落ち着き、導通状態へ移行。
ターンオフは逆の順序だが、IGBTではテール電流(少数キャリアの再結合)が加わるため、$E_{off}$ が大きくなりやすい。SiC MOSFETはユニポーラデバイスだからテール電流がなく、ターンオフが劇的に速い。
ミラー期が長いほど損失が大きいってことですね。ゲートドライバを強くすればミラー期が短くなる?
正解。ゲート駆動電流 $I_G$ を大きくするとミラー容量の充放電が速くなり、$dv/dt$ が急峻になる。ただし $dv/dt$ が大きすぎるとEMIノイズの問題が出るし、ゲート抵抗を下げすぎるとゲート発振のリスクもある。ここがパワエレ設計のトレードオフポイントだ。
寄生インダクタンスの影響
先輩に「パワーループのインダクタンスだけは死ぬ気で下げろ」って言われたんですけど、なぜそんなに重要なんですか?
パワーループの寄生インダクタンス $L_p$ はターンオフ時に $v_{surge} = L_p \cdot \frac{dI}{dt}$ の電圧サージを引き起こす。SiC MOSFETの高速スイッチング($dI/dt > 5 \, \text{kA/}\mu\text{s}$)だと、たった $10 \, \text{nH}$ の寄生インダクタンスでも:
50Vの電圧サージが $V_{DS}$ に乗る。650V定格のSiC MOSFETで $V_{DC}=400\,\text{V}$ だと、サージ込みで450V。これに安全マージンを取ると、パワーループのインダクタンスを数nH以下に抑えないとデバイスの安全動作領域(SOA)を超えてしまう。
数nH! そんな微小なインダクタンスをどうやって評価するんですか?
ここがFEMの出番だ。パワーモジュールの3D形状をモデリングして、バスバー・ボンディングワイヤ・基板パターンを含めた電磁界解析を行う。Ansys Q3DやCOMSOL AC/DCモジュールで寄生インダクタンスを抽出し、その値を回路シミュレーションに反映してスイッチング波形を予測する——これが実務における標準的なワークフローだ。
SiC/GaNワイドバンドギャップデバイスの優位性
SiCやGaNがスイッチング損失に有利って聞きますけど、具体的にどのくらい違うんですか?
同じ400V/100A条件で比較すると、だいたいこんな感じだ:
| パラメータ | Si IGBT | SiC MOSFET | GaN HEMT (650V) |
|---|---|---|---|
| $E_{on}$ [mJ] | 2.0〜5.0 | 0.2〜0.5 | 0.05〜0.2 |
| $E_{off}$ [mJ] | 1.5〜3.0 | 0.1〜0.3 | 0.02〜0.1 |
| $t_{rise}$ [ns] | 50〜200 | 10〜30 | 2〜10 |
| $t_{fall}$ [ns] | 100〜500 | 10〜40 | 2〜15 |
| 実用 $f_{sw}$ 上限 | 20〜50kHz | 50〜200kHz | 100kHz〜1MHz |
GaNすごい… SiCと比べてもさらに1桁速いんですね。でもそうなると寄生インダクタンスの影響がもっと大きくなりません?
まさにそこが課題。GaNの性能を活かすには、パワーループのインダクタンスを1nH以下に抑える必要がある。だからGaNデバイスはチップ上に駆動回路を集積した「GaN IC」や、超小型のチップスケールパッケージが主流になっている。パッケージの電磁界シミュレーションがデバイス性能の鍵を握る時代だ。
スイッチング損失が「周波数に比例する」のはなぜか
スイッチング損失は $P_{sw} = E_{sw} \times f_{sw}$ に比例する。1回のON/OFFで必ず $E_{sw}$ のエネルギーが熱になるから、1秒間に1回なら $E_{sw}$ ワット、100回なら $100 E_{sw}$ ワットだ。一方で $f_{sw}$ を上げるとリアクトルやコンデンサは小型化できる(インダクタンスは $f_{sw}$ にほぼ反比例)。「速くスイッチするほど受動部品は小さくなるが損失は増える」——このトレードオフが電力変換器設計の核心であり、SiC/GaNは $E_{sw}$ 自体を小さくすることで均衡点を高周波側に押し上げている。それが装置の劇的な小型化につながる本質だ。
スイッチングエネルギーの三角近似と厳密積分
データシートレベルの概算では、ターンオン・ターンオフ波形を三角形で近似して以下のように計算できる:
$$ P_{sw,approx} = \frac{1}{2} V_{DS} \cdot I_D \cdot (t_{rise} + t_{fall}) \cdot f_{sw} $$しかしこれはミラー期の電圧・電流の同時変化や、ダイオードの逆回復電流 $I_{rr}$、寄生インダクタンスによるリンギングを無視した簡易式だ。正確な $E_{sw}$ は:
$$ E_{sw} = \int_{t_0}^{t_0 + t_{sw}} v_{DS}(t) \cdot i_D(t) \, dt $$この積分を正しく評価するには、スイッチング過渡波形のシミュレーションが不可欠。実測ではダブルパルス試験の波形から数値積分で求める。
逆回復電流 $I_{rr}$ の影響
Si PiNダイオードのフリーホイールダイオード(FWD)を使用する場合、ターンオン時に逆回復電流 $I_{rr}$ がMOSFET/IGBTに重畳される。これにより実効的なターンオン電流は $I_D + I_{rr}$ に増加し、$E_{on}$ が大幅に悪化する。SiC SBDを使えば逆回復がほぼゼロになるため、$E_{on}$ を大幅に低減できる。
$$ E_{on,total} = \underbrace{E_{on,device}}_{\text{MOSFET/IGBT}} + \underbrace{E_{rr,diode}}_{\text{FWDの逆回復損失}} $$次元解析と単位系
| 変数 | SI単位 | 典型値(SiC 1200V/100A) |
|---|---|---|
| スイッチングエネルギー $E_{sw}$ | J(ジュール) | 0.3〜2.0 mJ |
| スイッチング周波数 $f_{sw}$ | Hz | 10〜200 kHz |
| スイッチング電力損失 $P_{sw}$ | W(ワット) | 10〜200 W |
| 立ち上がり時間 $t_{rise}$ | s(秒) | 10〜50 ns |
| 寄生インダクタンス $L_p$ | H(ヘンリー) | 1〜50 nH |
| ゲート-ドレイン容量 $C_{GD}$ | F(ファラッド) | 5〜50 pF |
数値解法と実装
ダブルパルス試験シミュレーション
「ダブルパルス試験」ってよく聞くんですけど、どんな試験なんですか? シミュレーションでも再現できるんでしょうか?
ダブルパルス試験(Double Pulse Test: DPT)は、パワーデバイスのスイッチング特性を評価する業界標準の試験法だ。回路は非常にシンプルで、DC電源+デバイス+インダクタ負荷+フリーホイールダイオードで構成される。
- 1st パルス:ゲートをONにしてインダクタ電流を所望の値 $I_L$ まで立ち上げる。パルス幅を調整して電流値を制御。
- OFF期間:ゲートをOFFにする → ターンオフ波形を取得。電流はFWDに転流し、インダクタ電流はほぼ一定に維持される。
- 2nd パルス:短い間隔の後に再びゲートをON → ターンオン波形を取得。FWDからデバイスに電流が再転流する瞬間を計測。
なるほど、1発目で電流を作って、2発目でスイッチング特性を取るんですね。シミュレーションではどうモデリングするんですか?
LTspiceやPLECSなどの回路シミュレータでDPTを再現する場合、重要なのは以下のポイントだ:
- デバイスモデル:メーカー提供のSPICEモデルまたはLevel 3の非線形容量モデルを使用。$C_{iss}$、$C_{oss}$、$C_{rss}$ の電圧依存性が重要。
- 寄生要素:パワーループの $L_p$(典型5〜30nH)、ゲートループの $L_g$(典型5〜15nH)を必ず含める。
- FWDモデル:Si PiNダイオードの場合は逆回復パラメータ($t_{rr}$、$Q_{rr}$)が $E_{on}$ に大きく影響。
- 時間刻み:スイッチング過渡期(〜100ns)を十分分解するため、最大0.1ns程度の時間刻みが必要。
0.1nsの時間刻み! かなり細かいですね。シミュレーション結果からスイッチングエネルギーはどう計算するんですか?
シミュレーション波形から $v_{DS}(t)$ と $i_D(t)$ を取得して、瞬時電力 $p(t) = v_{DS}(t) \cdot i_D(t)$ を計算し、それをスイッチング期間で数値積分する。LTspiceなら .meas コマンドで自動計算できる:
.meas TRAN Eon INTEG V(drain)*I(M1) FROM=t_on_start TO=t_on_end
.meas TRAN Eoff INTEG V(drain)*I(M1) FROM=t_off_start TO=t_off_end
回路-デバイス連成解析
回路シミュレーションだけじゃなく、デバイス内部の物理シミュレーションと連成させるケースもあるんですか?
ある。これが「Mixed-mode シミュレーション」と呼ばれるもので、デバイスの半導体物理(ドリフト-拡散方程式、ポアソン方程式)を回路方程式と同時に解く手法だ。Sentaurus DeviceやSilvaco Atlasでできる。
新しいデバイス構造の設計段階——例えばトレンチゲートの形状最適化やフィールドプレートの設計——では、SPICEモデルがまだ存在しないから、デバイス物理シミュレーションが唯一の予測手段になる。
連成解析の支配方程式系は以下の通り:
ここで $\psi$ は静電ポテンシャル、$n$/$p$ は電子/正孔密度、$R_{nr}$ は再結合率だ。これらをFEM(有限要素法)で空間離散化し、外部回路方程式と結合してニュートン法で非線形反復計算を行う。
FEMによる寄生パラメータ抽出
さっき出てきた寄生インダクタンスの抽出って、FEMでは具体的にどうやるんですか?
Ansys Q3D Extractor(旧Ansoft Q3D)が最も一般的なツールだ。パワーモジュールの3D CADデータをインポートして、各導体に電流経路(source/sink)を定義すると、RLCパラメータを周波数依存で抽出してくれる。
抽出の物理的基盤はマクスウェル方程式の準静的近似だ:
つまり、所定の電流 $I$ を流したときに空間に蓄えられる磁気エネルギー $W_{mag}$ からインダクタンスを逆算する。3D電磁界解析でこの積分を数値的に評価するわけだ。周波数が高くなると表皮効果・近接効果で電流分布が変わり、インダクタンスも変化する——だから周波数スイープ解析が必要になる。
メッシュはどのくらい細かくする必要があるんですか?
導体の表皮深さ $\delta = \sqrt{2/(\omega \mu \sigma)}$ の内部に最低3〜5層のメッシュが必要だ。100kHzの銅だと $\delta \approx 0.21\,\text{mm}$ だから、0.05mm程度のメッシュが求められる。ボンディングワイヤのように細い導体(直径300〜500μm)は特にメッシュ精度が重要で、ここの解像度不足は寄生インダクタンスの数nHの誤差に直結する。
時間刻みと過渡解析の注意点
スイッチング過渡解析で時間刻みはどう設定すればいいですか?
ルールは「最速の現象を十分に分解する」こと。スイッチング波形の最高周波数成分を $f_{max}$ とすると、ナイキスト定理の実用版として $\Delta t < 1/(20 \cdot f_{max})$ が目安だ。
| デバイス | $t_{rise}$ 目安 | 等価 $f_{max}$ | 推奨 $\Delta t_{max}$ |
|---|---|---|---|
| Si IGBT | 100ns | 〜10MHz | 5ns |
| SiC MOSFET | 20ns | 〜50MHz | 1ns |
| GaN HEMT | 3ns | 〜300MHz | 0.15ns |
ただし全区間をこの細かさで計算する必要はない。多くの回路シミュレータは可変時間刻みを採用していて、スイッチング過渡期のみ自動的に時間刻みを細かくしてくれる。LTspiceの .tran では最大時間刻みだけ指定すればいい。
ダブルパルス試験のたとえ
ダブルパルス試験は「カメラの連写モード」のようなものだ。1枚目のシャッターで被写体(電流)を所定位置にセットし、2枚目のシャッターを切る瞬間に高速度カメラでスイッチングの一瞬を捉える。実験で数十nsの波形を正確に測るには帯域500MHz以上のオシロスコープと低インダクタンスの電流プローブが必要——高速カメラと三脚の品質が写真の品質を決めるように、計測系の品質が損失評価の精度を決める。
実践ガイド
解析ワークフロー
スイッチング損失の解析って、最初の一歩から教えてもらえますか? 全体の流れが知りたいです。
実務のスイッチング損失解析は、大きく4ステップに分かれる:
- 寄生パラメータ抽出(FEM)
- パワーモジュール/基板の3Dモデルを作成
- Q3D/COMSOLでRLC寄生パラメータを周波数依存で抽出
- パワーループインダクタンス $L_p$、ゲートループインダクタンス $L_g$ を確認
- ダブルパルス試験シミュレーション(回路シミュレータ)
- 抽出した寄生パラメータを含むDPT回路を構築
- $V_{DC}$、$I_D$、$T_j$ を実使用条件に設定
- $E_{on}$、$E_{off}$ を数値積分で算出
- 損失マップ作成
- 電圧・電流・温度の3軸でパラメータスイープ
- $E_{sw}(V_{DC}, I_D, T_j)$ のルックアップテーブルを作成
- PLECSやSimplorerの損失マップモデルに適用
- システムレベル損失・熱解析
- インバータ全体のPWM動作をシミュレーション
- 損失マップから各スイッチングサイクルの損失を積算
- 得られた損失を熱モデルに入力し、接合温度 $T_j$ を計算
- $T_j$ が変われば損失も変わるので反復計算(電気-熱連成)
パワーモジュールのメッシュ戦略
パワーモジュールのFEM解析で、メッシュで特に気をつけるポイントはありますか?
パワーモジュールは構造的に「薄いもの」と「細いもの」が混在するから、メッシュが難しい。具体的には:
| 構造要素 | 寸法 | メッシュ戦略 |
|---|---|---|
| DCBセラミック基板 | 厚み 0.3〜0.6mm | 厚み方向に最低3層。六面体要素推奨 |
| 銅パターン(DCB上) | 厚み 0.3mm、幅数mm | 表皮深さの1/3以下の要素。電流集中部を細分化 |
| ボンディングワイヤ | 直径 0.3〜0.5mm、長さ数mm | 断面方向に4〜6分割。曲率に沿った要素配置 |
| はんだ層 | 厚み 50〜200μm | 熱解析連成時は厚み方向2層以上。ボイド(空洞)のモデリングも重要 |
| デバイスチップ | 数mm角、厚み 100〜350μm | 電極パッドの分割に注意。電流注入面を正確にモデリング |
ボンディングワイヤって曲がってるから四面体メッシュじゃないと切れないですよね?
Ansys Q3Dにはワイヤ形状を自動生成する機能があって、断面を定義してスイープパスに沿って六面体要素を生成できる。手動でCADモデリングするなら、ワイヤのループ頂点の高さ(ループハイト)と着地角度を正確に再現することが重要だ。インダクタンスはワイヤのループ面積に強く依存するからね。
損失-熱連成の反復計算
損失と温度って相互に依存してるんですよね? どうやって収束させるんですか?
典型的な手順はこうだ:
- 初期温度 $T_j^{(0)} = 25\,^\circ\text{C}$ で損失 $P_{loss}^{(0)}$ を計算
- $P_{loss}^{(0)}$ を熱モデル(FEM or Cauer/Foster等価回路)に入力して $T_j^{(1)}$ を求める
- $T_j^{(1)}$ で損失を再計算 → $P_{loss}^{(1)}$ を得る
- $|T_j^{(k+1)} - T_j^{(k)}| < 1\,^\circ\text{C}$ になるまで反復
通常3〜5回の反復で収束する。ただしSi IGBTの場合、$R_{ds(on)}$ の正の温度係数と $V_{CE(sat)}$ の負の温度係数が競合するため、動作点によっては収束が遅い場合がある。
PLECSやSimplorerでこの連成計算を自動でやってくれる機能はありますか?
PLECS Standalone版にはサーマルモデリング機能が内蔵されていて、損失マップ+Cauer等価熱回路モデルで電気-熱連成をリアルタイムに計算できる。実務ではこれが最もスタンダードな方法で、EV用インバータの損失・温度設計に広く使われている。
よくある失敗と対策
スイッチング損失解析で初心者がハマりがちなミスってありますか?
| 症状 | 原因 | 対策 |
|---|---|---|
| $E_{sw}$ が実測の2〜3倍ズレる | 寄生インダクタンスの過小/過大評価 | FEMで $L_p$ を正確に抽出し回路モデルに反映 |
| シミュレーション波形にリンギングがない | 寄生要素が回路モデルに含まれていない | $L_p$、$C_{oss}$、基板間容量を追加 |
| $T_j = 125\,^\circ\text{C}$ で設計したのに実機が熱暴走 | $E_{sw}$ の温度依存性を無視 | 温度スイープした損失マップで電気-熱連成計算 |
| $E_{on}$ が異常に大きい | FWDの逆回復電流 $I_{rr}$ を考慮していない | Si PiNダイオードの逆回復モデルを正しく設定 |
| GaNの $E_{sw}$ が期待値より大きい | パッケージ・PCBの寄生が支配的 | GaN ICのパッケージレベルFEM解析を追加 |
「junction温度105度で設計したのに壊れた」——損失計算の落とし穴
スイッチング損失の実践設計でよくある失敗が「温度の影響を忘れた損失計算」だ。データシートの $E_{sw}$ は25度の値で記載されていることが多いが、実際の接合温度は100度以上になる。SiCの場合、125度では $E_{sw}$ が25度比で20〜30%増えることがある。そこでDCバスコンデンサ・リアクトルの発熱も合算して「損失 → 温度 → 損失」の反復計算をしないと、設計安全率が崩れる。現場では「シミュレーションは通ったのに実機が熱暴走した」という案件の原因として、この損失の温度依存性を無視した設計が多い。実践では必ず温度込みのスイープ解析をセットで行うこと。
初心者が陥りやすい落とし穴
「データシートに $E_{on} = 0.3\,\text{mJ}$ と書いてあったからそれを使いました」——これが最も多い間違いだ。データシートの値は特定の条件($V_{DC}$、$I_D$、$T_j$、$R_g$)での値であり、自分の回路条件とは異なる。特にゲート抵抗 $R_g$ が違うと $E_{sw}$ は大きく変わる。$R_g$ を10倍にすれば $E_{sw}$ も数倍になることがある。設計初期の概算はデータシートで構わないが、最終設計ではDPTシミュレーションか実測で確認すること。
ソフトウェア比較
解析ツール比較
スイッチング損失の解析に使えるツールって、どんなものがありますか?
用途によって大きく3カテゴリに分かれる:
| カテゴリ | ツール | 用途 | 精度 | 計算コスト |
|---|---|---|---|---|
| 回路シミュレータ | LTspice, PSpice, SIMetrix | DPTシミュレーション、波形解析 | モデル依存 | 低(秒〜分) |
| 電力回路専用 | PLECS, Simplorer, PSIM | システムレベル損失計算、熱連成 | 損失マップ精度 | 低〜中 |
| FEMベース | Ansys Q3D, COMSOL AC/DC, Ansys Maxwell | 寄生パラメータ抽出、EMI予測 | 高 | 高(時間〜日) |
| デバイスシミュレータ | Sentaurus Device, Silvaco Atlas | 新デバイス設計、物理モデリング | 非常に高 | 非常に高 |
全部使い分ける必要があるんですか? 正直、学生の予算じゃ厳しいです…
学生や個人であれば、LTspice(無償)でDPTシミュレーション → PLECS(学生版あり)でシステムレベル解析、という組み合わせが最もコスパが良い。寄生インダクタンスの見積もりは解析式(Neumann式やPartial Inductance法)で概算できるから、必ずしもQ3Dが必要なわけじゃない。
SPICE vs FEM vs 損失マップモデル
SPICE、FEM、損失マップモデル——それぞれの使い分けをもう少し詳しく教えてください。
3つの手法の本質的な違いを整理するとこうなる:
- SPICE:デバイスの非線形物理をモデルレベルで解く。スイッチング波形を忠実に再現できるが、モデルが複雑で収束が難しい。特にSiCの急峻な $dv/dt$ ではタイムステップが極端に小さくなり、1周期の計算に数分〜数十分かかることも。
- FEM:電磁界の空間分布を物理的に解く。寄生パラメータの抽出やEMI解析に不可欠だが、スイッチング過渡波形をFEM単体で解くのは計算コストが膨大(FEM+回路連成が必要)。
- 損失マップモデル(PLECSの方式):$E_{on}(V,I,T_j)$ のルックアップテーブルで損失を瞬時に取得。スイッチング波形は再現しないが、数千サイクルのPWM動作を秒単位で計算できる。システム設計・熱設計に最適。
つまり「デバイスの中身を知りたいならSPICE、レイアウトの影響を知りたいならFEM、システム全体を見たいなら損失マップ」ってことですね!
完璧なまとめだ。実務では3つを組み合わせる。まずFEMで寄生パラメータを抽出 → SPICEでDPTシミュレーションして損失マップを作成 → 損失マップモデルでシステムレベルの最適設計を行う。この流れをバーチャルプロトタイピングと呼ぶ。
SPICE vs 専用ツール——損失計算の精度差
汎用SPICEは自由度が高いが、デバイスモデルが非線形で収束が難しく、特に急峻な $dv/dt$ では数値振動が起きやすい。一方、PLECS(Plexim)やSimplorer(Ansys)のような電力回路専用ツールは、$E_{on}$/$E_{off}$ をルックアップテーブルで近似する「損失マップモデル」を採用しており、収束が安定して高速だ。精度はSPICEに劣る場合もあるが、システムレベルの熱設計や制御シミュレーションとの連携には専用ツールが圧倒的に使いやすい。どちらを選ぶかは「デバイス単体の精度」か「システム全体の俯瞰」かで決まる。
先端技術
機械学習サロゲートモデル
最近、AIや機械学習でスイッチング損失を予測する研究が増えてるって聞いたんですけど、実際どうなんですか?
注目されている手法が2つある:
- ニューラルネットワークによる損失マップ生成:DPT実験またはSPICEシミュレーションのデータセットを学習させて、$E_{sw}(V_{DC}, I_D, T_j, R_g)$ を高速に予測するサロゲートモデルを構築する。ルックアップテーブルの補間精度を超えた非線形関係をキャプチャできる利点がある。
- 物理インフォームドニューラルネットワーク(PINN):半導体の物理方程式をロス関数に組み込み、少量のデータでも物理的に矛盾のない予測を行う。新デバイスのモデリング初期段階で有望。
すでに実用レベルになっているんですか?
研究段階から実用への橋渡しが進んでいるところだ。特にEV用パワーモジュールのリアルタイム損失推定では、エッジAIデバイス上で推論を動かして、動作中の $E_{sw}$ をオンラインで推定する試みが始まっている。ただし現時点では、従来の損失マップモデルとの精度比較で十分な優位性を示すには至っていない——特にデータの外挿領域での信頼性が課題だ。
デジタルツインとオンライン損失推定
デジタルツインという文脈で、スイッチング損失のリアルタイム推定ってどういうことですか?
EV用インバータのコントローラ(MCU/FPGA)上に損失モデルを実装し、実運転中の電圧・電流・温度からリアルタイムで損失と接合温度を推定する技術だ。目的は2つ:
- 過熱保護の高度化:温度センサの応答遅れ(数百ms)を損失モデルで補完し、瞬時の $T_j$ を推定。過負荷時の保護を高速化。
- 寿命予測:温度サイクルの履歴からパワーサイクル寿命(はんだクラック、ワイヤ剥離)を推定し、予防保全に活用。
Cauer等価熱回路モデル(3〜5段RC)を使えば、MCU上でも1ms以下の周期で $T_j$ を更新できる。これはCAEで構築したFEM熱モデルをモデル縮退(Model Order Reduction: MOR)して組み込む手法で、CAEと実運転をつなぐ最前線の技術だ。
CAEの結果が実運転にリアルタイムで使われるなんて、すごい時代ですね…
トラブルシューティング
リンギング・数値振動の対処
DPTシミュレーションでスイッチング波形にリンギング(振動)が出てくるんですけど、実際の現象なのか数値誤差なのか分からないです…
まず、リンギングが物理的なものか数値的なアーティファクトかを切り分けよう:
- 物理的リンギング:$L_p$ と $C_{oss}$ のLC共振。周波数は $f_{ring} = 1/(2\pi\sqrt{L_p C_{oss}})$ で計算できる。$L_p = 10\,\text{nH}$、$C_{oss} = 100\,\text{pF}$ なら $f_{ring} \approx 160\,\text{MHz}$。この周波数が実測と一致していれば物理的なもの。
- 数値的アーティファクト:時間刻みが粗すぎる、SPICEモデルの容量が不連続($C_{oss}$ のステップ状変化)、または回路のLCネットワークに数値的ダンピングが不足している場合に発生。
切り分け方は?
3つの手順で確認する:
- 時間刻みを半分にして再実行:振動の振幅や周波数が変わらなければ物理的。変わるなら数値誤差。
- $L_p$ をゼロにして再実行:リンギングが消えれば寄生インダクタンス起因の物理現象。
- リンギング周波数を $f_{ring} = 1/(2\pi\sqrt{L_p C_{oss}})$ と比較:一致していれば物理的。
物理的なリンギングを抑制するには、RCスナバ回路($R \approx \sqrt{L_p/C_{oss}}$、$C_{snub} \approx 2 \sim 3 \times C_{oss}$)の追加が有効だ。
損失計算が実測と合わないとき
先生、シミュレーションで出した $E_{sw}$ と実測のダブルパルス試験結果が全然合わないんです。何が原因でしょうか?
よくある原因を優先順に挙げるとこうなる:
| チェック項目 | 原因 | 対策 |
|---|---|---|
| 寄生インダクタンスの値 | FEMモデルとDPT基板の実形状が異なる | 実基板の3Dモデルをより正確に作成。プローブ位置の影響も考慮 |
| 電流プローブの帯域 | 帯域不足で $dI/dt$ が鈍る → $E_{on}$ が過小に見える | 帯域500MHz以上のRogowskiコイルを使用 |
| 電圧プローブの補正 | 補正不良のパッシブプローブで $dv/dt$ が鈍る | 帯域500MHz以上、最小GND引き回しでプロービング |
| ゲート抵抗の実効値 | ゲートドライバ内部抵抗を考慮していない | ゲートドライバの出力インピーダンスを含めた $R_g$ を使用 |
| デバイスモデルのバージョン | メーカー提供モデルが古い or 特定条件用 | 最新モデルを使用。モデル対応範囲を確認 |
| 接合温度 | DPT試験中のセルフヒーティングを考慮していない | パルス間隔を十分取り、初期 $T_j$ を管理 |
なるほど、計測系の問題もあるんですね… シミュレーションだけじゃなく実験側も怪しいかもしれないってことか。
そう、「解析が合わない」と思ったら、まずは実測側の計測精度を疑うことも大切だ。パワエレの高速スイッチング計測は、それ自体が1つの専門技術。プローブの帯域、GNDリードの長さ、共通モードノイズの除去——ここをおろそかにすると、正しいシミュレーション結果を「間違っている」と誤判断してしまう。
いやぁ、スイッチング損失解析って奥が深い… でも先生の説明のおかげで、回路シミュレーションとFEMと実測の「三位一体」で攻めるイメージが掴めました!
その「三位一体」の感覚が大事だ。まずLTspiceで回路を理解し、FEMで寄生要素を物理的に把握し、最終的にDPT実験で検証する。このV字プロセスを回せるエンジニアが、今のパワエレ業界で最も求められている人材だよ。
デバッグの鉄則
「解析結果が合わない」と思ったら、1つだけ変えて再実行すること。寄生インダクタンスとゲート抵抗と温度を同時に変えたら、何が効いたか分からなくなる。科学実験と同じ「対照実験」の原則だ。まず $L_p = 0$ にしてリンギングが消えるか確認。次にゲート抵抗を変えてスイッチング速度の感度を確認。最後に温度をスイープ。1つずつ原因を切り分けていくのが最も効率的なデバッグ法だ。
関連トピック
なった
詳しく
報告