/ 音波シミュレーター 戻る
Web Audio API · Physics

🔊 音波シミュレーター

粒子振動のアニメーションと実際の音を同時体験。周波数・波形・うなりをリアルタイムで操作しながら音響CAEの基礎を直感的に理解する。

パラメータ設定
このブラウザはWeb Audio APIに対応していません。視覚的なシミュレーションのみ利用できます。
周波数 (Hz) 440 Hz
20 Hz2000 Hz
振幅(音量) 0.50
プリセット
2音モード(うなり)
440
周波数 (Hz)
0.779
波長 λ (m)
2.27
周期 T (ms)
--
音圧レベル (dB)
粒子振動アニメーション(圧力波の横方向可視化)
オシロスコープ(波形ビュー)

理論メモ

波の基本式: 音速 $v = 343\,\text{m/s}$(20°C空気中)、波長 $\lambda$、周波数 $f$ の関係:

$$v = f \lambda \quad \Longrightarrow \quad \lambda = \frac{343}{f}$$

うなり(ビート): 周波数 $f_1$ と $f_2$ がわずかに異なるとき、合成波の振幅が $f_\text{beat}= |f_1 - f_2|$ の周期で変化する現象。楽器のチューニングに利用される。

$$y(t) = A\cos(2\pi f_1 t) + A\cos(2\pi f_2 t) = 2A\cos\!\left(2\pi\frac{f_1-f_2}{2}t\right)\cos\!\left(2\pi\frac{f_1+f_2}{2}t\right)$$

音圧レベル(dB): $L = 20\log_{10}(A/A_0)$。$A_0 = 2\times10^{-5}\,\text{Pa}$(聴覚閾値)。

CAEとの接続: 音響有限要素法(音響FEM)や境界要素法(BEM)では、ここで扱う波動方程式 $\nabla^2 p - \frac{1}{c^2}\frac{\partial^2 p}{\partial t^2}= 0$ を空間離散化して解く。自動車のNVH解析・建築音響・騒音予測に広く用いられる。

音波シミュレーターとは

🧑‍🎓
このシミュレーターで「波形」を変えると、音色が変わるのはなぜですか?正弦波と矩形波って何が違うんですか?
🎓
ざっくり言うと、波形の形が音の「味付け」を決めるんだ。正弦波は基本の周波数だけの、いわば「純水」みたいな純音。一方、矩形波や三角波には、基本周波数の整数倍の音(倍音)が含まれている。例えば、上のスライダーで周波数を440Hzに固定して、波形だけを正弦波→矩形波に変えてみて。同じ高さなのに、音色が明らかに違うでしょ?これが倍音の効果だね。
🧑‍🎓
え、そうなんですか!じゃあ「うなり」って何ですか?「第2周波数」のスライダーがあるけど、これを使うと何が起こるんですか?
🎓
うなりは、周波数がごくわずかに違う2つの音が重なった時に、音の大きさが「ワン、ワン」と周期的に変化する現象だよ。実務では楽器のチューニングに使われることが多いね。シミュレーターで試してみよう。まず、周波数を440Hz、第2周波数を443Hzに設定して再生してみて。聞こえるかな?音量が定期的に大きくなったり小さくなったりする「うなり」が。このうなりの回数は、ちょうど2つの周波数の差、3Hzになるんだ。
🧑‍🎓
アニメーションで粒子が振動してるけど、これが「音波」の正体なんですか?振幅を大きくすると、どうして音が大きくなるんですか?
🎓
その通り!画面の粒子の動きは、空気の分子が音によって押されたり引かれたりする様子を模式化したものだ。振幅というのは、その分子の振動の「幅」のこと。振幅スライダーを大きくすると、分子の動く幅が大きくなるから、より強い圧力変化が耳に届く。つまり、音量が大きくなるんだ。逆に振幅をゼロに近づけると、分子はほとんど動かなくなり、音は聞こえなくなる。実際のCAE音響解析でも、この圧力変化の大きさを計算して、騒音レベルを評価するんだよ。

物理モデルと主要な数式

音の基本は空気の密度変化(疎密波)です。最も単純な正弦波の変位は、以下の式で表されます。

$$y(t) = A \sin(2 \pi f t)$$

$y(t)$: 空気粒子の変位 [m], $A$: 振幅(音量に関連)[m], $f$: 周波数 [Hz], $t$: 時間 [s]

周波数がわずかに異なる2つの音($f_1$, $f_2$)が重なると、「うなり」が生じます。合成波は以下のように表せ、振幅部分がゆっくりと変化します。

$$y(t) = A\cos(2\pi f_1 t) + A\cos(2\pi f_2 t) = 2A\cos\!\left(2\pi\frac{f_1-f_2}{2}t\right)\cos\!\left(2\pi\frac{f_1+f_2}{2}t\right)$$

右辺の $\cos(2\pi\frac{f_1+f_2}{2}t)$ が平均的な高さの音を、$2A\cos(2\pi\frac{f_1-f_2}{2}t)$ がその音の振幅(音量)の時間変化を表します。この振幅変化の周波数 $f_{beat} = |f_1 - f_2|$ が、聞こえる「うなり」の周波数です。

実世界での応用

楽器のチューニング:ギターやピアノの調律では、基準音と楽器の音のうなりを聞いて周波数を微調整します。うなりが消えたとき、2つの音は完全に同じ周波数になったことを意味します。

自動車のNVH(騒音・振動・ハーシュネス)解析:CAEソフトウェアを用いて、エンジン音や風切り音などの周波数成分を解析し、不快なうなり音や騒音の原因を特定・低減する設計に役立てます。

建築音響設計:コンサートホールやスタジオの設計では、音波の反射や干渉をシミュレーションし、残響時間の調整や「音の濁り」を防ぎます。異なる周波数がどのように空間で振る舞うかを理解することが重要です。

医療診断(超音波検査):超音波は人間の耳に聞こえない高周波数の音波です。体内で反射して戻ってくる超音波の周波数や振幅の変化を分析することで、臓器の形状や血流の状態を画像化します。

よくある誤解と注意点

まず、このシミュレーターで扱っているのは「自由空間での単純な音波」だということを押さえておこう。実務のCAE音響解析は、これよりもずっと複雑だ。例えば、「振幅を2倍にしたら、音量(音圧レベル)も2倍になる」と思っていないかい?実は違うんだ。音圧レベルはデシベル(dB)という対数スケールで表され、振幅が2倍になっても、音圧レベルは約6dB増えるだけなんだ(正確には $20 \log_{10}(2) \approx 6.02 \text{dB}$)。「2倍うるさく」はならないから注意してね。

次に、波形の選択について。矩形波やのこぎり波は、理論上は無限の倍音を含むけど、このシミュレーターや実際のスピーカーでは再現できる周波数に限界があるんだ。例えば、基本周波数が1kHzの矩形波を生成しようとすると、15kHzや20kHzといった高い倍音が必要になる。でも、スピーカーの性能や人間の可聴域(約20Hz〜20kHz)を超えると、その倍音は再現も聞き取れもしない。だから、シミュレーター上の「きれいな矩形波」と、実際の機器から出る音は少し違うことがある。これは「帯域制限」と呼ばれる、実務でも常に頭に入れておくべき重要な概念だよ。

最後に、うなりの実験で陥りがちなのが、周波数の差を大きくしすぎること。例えば、440Hzと500Hz(差60Hz)を重ねると、もはやうなりというよりは、別々の2音として聞こえるか、不協和音になる。うなりが明確に体感できるのは、差が大体15Hz以下くらいまでだ。楽器のチューニングで使われるうなりは、1〜3Hz程度のごくわずかな差の時だということを覚えておこう。

関連する工学分野

このツールで遊んでいる「単一波の合成」は、まさにフーリエ解析の入り口だ。矩形波や三角波が倍音で構成されていることを学んだよね?逆に、複雑な音(例えばエンジン音やギターの音)をマイクで拾ってコンピュータに取り込むと、それをフーリエ解析にかけることで、含まれる周波数成分(スペクトル)に分解できる。この技術は振動・騒音解析(NVH)の根幹だ。自動車のドアの閉める音の品質評価や、家電製品のモーター音の低減設計に直接応用されている。

また、音波は「波動」の一種だから、その挙動は他の波動現象と数学的に類似している。例えば、電磁波解析(アンテナ設計、電波伝搬)構造物の振動・波動伝播解析(地震波、超音波探傷)でも、同じような偏微分方程式(波動方程式)が登場する。音響シミュレーションで境界条件(壁や吸音材)の設定を学ぶことは、アンテナ周りの放射パターンや、建物内の地震波の伝わり方を考える基礎力にもなるんだ。

さらに実践的なところでは、デジタル信号処理(DSP)との関連が深い。このシミュレーターで波形をリアルタイムに生成・合成している背後には、離散的なサンプリングと演算がある。実際のオーディオ機器や音声認識システムでは、このDSP技術を使って、ノイズ除去や特定周波数帯域の強調(イコライザー)などが行われている。CAEツールとDSPは、現代の音響・振動エンジニアの両輪と言えるね。

発展的な学習のために

まず次の一歩としておすすめなのは、「位相」の概念を取り入れることだ。今のシミュレーターでは、2つの波を単純に足しているだけだよね?でも、現実では波同士の「タイミングのズレ」(位相差)が結果に大きく影響する。例えば、同じ440Hzの正弦波を2つ重ねても、位相が180度(πラジアン)ずれていると、打ち消し合って音はほとんど消えてしまう(消音現象)。この原理はアクティブノイズキャンセリング・ヘッドホンに使われている。位相を考慮した合成を考え始めると、音響の世界がぐっと広がるよ。

数学的な背景を深めたいなら、波動方程式を学ぼう。音波の基礎となる式は一次元ならこんな感じだ: $$ \frac{\partial^2 p}{\partial x^2} = \frac{1}{c^2} \frac{\partial^2 p}{\partial t^2} $$ ここで、$p$は音圧、$c$は音速だ。この偏微分方程式を解くことで、より現実に近い「空間を伝わる音」の振る舞い(反射、回折、減衰)を理解できる。CAE音響解析ソフトは、実はこの方程式を複雑な形状に対して数値的に解いているんだ。

学習ステップとしては、1. このシミュレーターで直感を養う → 2. フーリエ級数・変換の基本を学び、波形とスペクトルの関係を数式で理解する → 3. 簡単なデジタルフィルタ(ローパス、ハイパス)のプログラムを書いてみる(Pythonなら`numpy`と`scipy`で可能)→ 4. 無償のCAE音響解析ソフト(例:OpenFOAMの音響モジュール、SU2)で簡単なモデルを解いてみる、という流れが現実的だ。理論とツールの両輪で学ぶことが、実務で使える力を身につける近道だよ。