波の基本式: 音速 $v = 343\,\text{m/s}$(20°C空気中)、波長 $\lambda$、周波数 $f$ の関係:
$$v = f \lambda \quad \Longrightarrow \quad \lambda = \frac{343}{f}$$
うなり(ビート): 周波数 $f_1$ と $f_2$ がわずかに異なるとき、合成波の振幅が $f_\text{beat}= |f_1 - f_2|$ の周期で変化する現象。楽器のチューニングに利用される。
$$y(t) = A\cos(2\pi f_1 t) + A\cos(2\pi f_2 t) = 2A\cos\!\left(2\pi\frac{f_1-f_2}{2}t\right)\cos\!\left(2\pi\frac{f_1+f_2}{2}t\right)$$
音圧レベル(dB): $L = 20\log_{10}(A/A_0)$。$A_0 = 2\times10^{-5}\,\text{Pa}$(聴覚閾値)。
CAEとの接続: 音響有限要素法(音響FEM)や境界要素法(BEM)では、ここで扱う波動方程式 $\nabla^2 p - \frac{1}{c^2}\frac{\partial^2 p}{\partial t^2}= 0$ を空間離散化して解く。自動車のNVH解析・建築音響・騒音予測に広く用いられる。
音の基本は空気の密度変化(疎密波)です。最も単純な正弦波の変位は、以下の式で表されます。
$$y(t) = A \sin(2 \pi f t)$$$y(t)$: 空気粒子の変位 [m], $A$: 振幅(音量に関連)[m], $f$: 周波数 [Hz], $t$: 時間 [s]
周波数がわずかに異なる2つの音($f_1$, $f_2$)が重なると、「うなり」が生じます。合成波は以下のように表せ、振幅部分がゆっくりと変化します。
$$y(t) = A\cos(2\pi f_1 t) + A\cos(2\pi f_2 t) = 2A\cos\!\left(2\pi\frac{f_1-f_2}{2}t\right)\cos\!\left(2\pi\frac{f_1+f_2}{2}t\right)$$右辺の $\cos(2\pi\frac{f_1+f_2}{2}t)$ が平均的な高さの音を、$2A\cos(2\pi\frac{f_1-f_2}{2}t)$ がその音の振幅(音量)の時間変化を表します。この振幅変化の周波数 $f_{beat} = |f_1 - f_2|$ が、聞こえる「うなり」の周波数です。
楽器のチューニング:ギターやピアノの調律では、基準音と楽器の音のうなりを聞いて周波数を微調整します。うなりが消えたとき、2つの音は完全に同じ周波数になったことを意味します。
自動車のNVH(騒音・振動・ハーシュネス)解析:CAEソフトウェアを用いて、エンジン音や風切り音などの周波数成分を解析し、不快なうなり音や騒音の原因を特定・低減する設計に役立てます。
建築音響設計:コンサートホールやスタジオの設計では、音波の反射や干渉をシミュレーションし、残響時間の調整や「音の濁り」を防ぎます。異なる周波数がどのように空間で振る舞うかを理解することが重要です。
医療診断(超音波検査):超音波は人間の耳に聞こえない高周波数の音波です。体内で反射して戻ってくる超音波の周波数や振幅の変化を分析することで、臓器の形状や血流の状態を画像化します。
まず、このシミュレーターで扱っているのは「自由空間での単純な音波」だということを押さえておこう。実務のCAE音響解析は、これよりもずっと複雑だ。例えば、「振幅を2倍にしたら、音量(音圧レベル)も2倍になる」と思っていないかい?実は違うんだ。音圧レベルはデシベル(dB)という対数スケールで表され、振幅が2倍になっても、音圧レベルは約6dB増えるだけなんだ(正確には $20 \log_{10}(2) \approx 6.02 \text{dB}$)。「2倍うるさく」はならないから注意してね。
次に、波形の選択について。矩形波やのこぎり波は、理論上は無限の倍音を含むけど、このシミュレーターや実際のスピーカーでは再現できる周波数に限界があるんだ。例えば、基本周波数が1kHzの矩形波を生成しようとすると、15kHzや20kHzといった高い倍音が必要になる。でも、スピーカーの性能や人間の可聴域(約20Hz〜20kHz)を超えると、その倍音は再現も聞き取れもしない。だから、シミュレーター上の「きれいな矩形波」と、実際の機器から出る音は少し違うことがある。これは「帯域制限」と呼ばれる、実務でも常に頭に入れておくべき重要な概念だよ。
最後に、うなりの実験で陥りがちなのが、周波数の差を大きくしすぎること。例えば、440Hzと500Hz(差60Hz)を重ねると、もはやうなりというよりは、別々の2音として聞こえるか、不協和音になる。うなりが明確に体感できるのは、差が大体15Hz以下くらいまでだ。楽器のチューニングで使われるうなりは、1〜3Hz程度のごくわずかな差の時だということを覚えておこう。
このツールで遊んでいる「単一波の合成」は、まさにフーリエ解析の入り口だ。矩形波や三角波が倍音で構成されていることを学んだよね?逆に、複雑な音(例えばエンジン音やギターの音)をマイクで拾ってコンピュータに取り込むと、それをフーリエ解析にかけることで、含まれる周波数成分(スペクトル)に分解できる。この技術は振動・騒音解析(NVH)の根幹だ。自動車のドアの閉める音の品質評価や、家電製品のモーター音の低減設計に直接応用されている。
また、音波は「波動」の一種だから、その挙動は他の波動現象と数学的に類似している。例えば、電磁波解析(アンテナ設計、電波伝搬)や構造物の振動・波動伝播解析(地震波、超音波探傷)でも、同じような偏微分方程式(波動方程式)が登場する。音響シミュレーションで境界条件(壁や吸音材)の設定を学ぶことは、アンテナ周りの放射パターンや、建物内の地震波の伝わり方を考える基礎力にもなるんだ。
さらに実践的なところでは、デジタル信号処理(DSP)との関連が深い。このシミュレーターで波形をリアルタイムに生成・合成している背後には、離散的なサンプリングと演算がある。実際のオーディオ機器や音声認識システムでは、このDSP技術を使って、ノイズ除去や特定周波数帯域の強調(イコライザー)などが行われている。CAEツールとDSPは、現代の音響・振動エンジニアの両輪と言えるね。
まず次の一歩としておすすめなのは、「位相」の概念を取り入れることだ。今のシミュレーターでは、2つの波を単純に足しているだけだよね?でも、現実では波同士の「タイミングのズレ」(位相差)が結果に大きく影響する。例えば、同じ440Hzの正弦波を2つ重ねても、位相が180度(πラジアン)ずれていると、打ち消し合って音はほとんど消えてしまう(消音現象)。この原理はアクティブノイズキャンセリング・ヘッドホンに使われている。位相を考慮した合成を考え始めると、音響の世界がぐっと広がるよ。
数学的な背景を深めたいなら、波動方程式を学ぼう。音波の基礎となる式は一次元ならこんな感じだ: $$ \frac{\partial^2 p}{\partial x^2} = \frac{1}{c^2} \frac{\partial^2 p}{\partial t^2} $$ ここで、$p$は音圧、$c$は音速だ。この偏微分方程式を解くことで、より現実に近い「空間を伝わる音」の振る舞い(反射、回折、減衰)を理解できる。CAE音響解析ソフトは、実はこの方程式を複雑な形状に対して数値的に解いているんだ。
学習ステップとしては、1. このシミュレーターで直感を養う → 2. フーリエ級数・変換の基本を学び、波形とスペクトルの関係を数式で理解する → 3. 簡単なデジタルフィルタ(ローパス、ハイパス)のプログラムを書いてみる(Pythonなら`numpy`と`scipy`で可能)→ 4. 無償のCAE音響解析ソフト(例:OpenFOAMの音響モジュール、SU2)で簡単なモデルを解いてみる、という流れが現実的だ。理論とツールの両輪で学ぶことが、実務で使える力を身につける近道だよ。