跳转到内容

时频谱

维基百科,自由的百科全书
(重定向自Spectrogram
英文单词“nineteenth century”的发音时频谱。纵向为微小时间间隔内声波的频率分布,横向为各频率随时间的变化。最右侧的图例条表示颜色越深的区域强度越大。该图中的声音在低频率区域分布更多更密集,因为这是男声。

时频谱(英語:Spectrogram)又稱声譜图voicegram),是一种描述波动的各频率成分如何随时间变化的热图。利用傅里叶变换得到的传统的2维频谱可展示复杂的波动是如何按比例分解为简单波的叠加(分解为频谱),但是无法同时体现它们随时间的变化。能对波动的时间变量与频率分布同时进行分析的常用数学方法是短时距傅里叶变换,但是直接绘成3维图像的话又不便于在纸面上观察和分析。时频谱在借助时频分析方法的基础上,以热图的形式将第3维的数值用颜色的深浅加以呈现。

定義與格式

[编辑]

时频谱通常以热图形式呈現,即以顏色或亮度的變化來表示強度的圖像。[1]

常見格式

[编辑]

標準的时频谱是一個具有兩個幾何維度的圖形:一個軸表示時間,另一個軸表示頻率;第三個維度(特定頻率在特定時間的振幅)由圖像中每個點的強度或顏色表示。[1]

格式有許多變化:

  • 有時垂直軸和水平軸會互換,使時間由上而下排列
  • 有時作為瀑布圖,其中振幅由3D表面的高度而非顏色或強度表示
  • 頻率軸和振幅軸可以是線性或對數刻度,取決於圖形的用途[1]

對於音頻,通常使用對數振幅軸(可能以分貝或dB表示)。頻率可以是線性以強調諧波關係,或對數以強調音樂、音調關係。[1]

时频分析

[编辑]

时频分析是频谱分析的推广,比频谱分析更加直观。在分析一段隨時間而變化的信號時,若單純以離散(或離散-時間)傅立葉轉換(Discrete (Time) Fourier Transform),我們能得到信號的所有頻率資訊,但是卻缺乏時間的資訊。以語音信號為例,若以離散傅立葉轉換分析(DFT/FFT),可以得知該段聲音中有哪些頻率出現,卻無法得知該頻率出現的時間點。但若以時頻分析(利用短時距傅立葉變換,STFT)來分析語音信號,我們會在每個取樣時間點上乘上一個窗函數,再做離散傅立葉轉換,因此在這段短時間中,我們就具有該信號的頻率成分,即可得知在該段時間中,語音信號的頻率為何,最後將整段信號做時頻分析,就可以得到該信號的時頻分布圖

时頻譜即是描繪信號的時間和頻率分布的热图,顯示時頻分析的結果

窗函數

[编辑]

在计算时频谱时,窗函数的选择对结果有重要影响。窗函數用於減少頻譜洩漏,但也會影響時間和頻率分辨率之間的權衡。[2]

常用窗函數類型

[编辑]

矩形窗(Rectangular window):

  • 最簡單的窗函數,在所需區段內為1,區段外為0
  • 會在區段邊界產生不連續,導致頻域出現振鈴效應
  • 主瓣最窄但旁瓣電平高[2]

漢寧窗(Hann window):

  • 也稱為Hanning窗,以氣象學家Julius von Hann命名
  • 為升餘弦窗,在邊界平滑降至零
  • 減少了振鈴偽影,但代價是一定程度的頻率模糊
  • 旁瓣以約18 dB/倍頻程的速率衰減[2][3]

漢明窗(Hamming window):

  • 由Richard W. Hamming提出
  • 與漢寧窗類似但在端點不完全降至零(約0.08)
  • 最高旁瓣約-43 dB,比漢寧窗低10 dB
  • 由於端點不連續,旁瓣衰減較慢(6 dB/倍頻程)[2][3]

布萊克曼窗(Blackman window):

  • 使用更多余弦項的廣義窗函數
  • 提供更好的旁瓣抑制(約-74 dB)
  • 主瓣比漢寧窗和漢明窗寬約50%[2]

時頻分辨率權衡

[编辑]

窗的大小和形狀可以改變。較小(較短)的窗將在時間上產生更準確的結果,但會犧牲頻率表示的精確度。較大(較長)的窗將提供更精確的頻率表示,但會犧牲時間表示的精確度。[1]

這是海森堡不確定性原理的一個實例:兩個共軛變量的精度乘積大於或等於一個常數(通常記為B×T≥1)。[1][4]

進階時頻分析方法

[编辑]

除了基於短時距傅立葉變換的时频谱外,還有其他時頻分析方法可以提供不同的時頻表示。

小波變換

[编辑]

連續小波變換(Continuous Wavelet Transform, CWT)是一種時頻變換,特別適合分析非平穩信號。[5]

CWT通過將信號與一組小波進行卷積來實現,這些小波由母小波(mother wavelet)經過平移和膨脹生成。數學上,CWT定義為:[6]

其中:

  • 是小波係數
  • 是尺度參數(與頻率成反比)
  • 是時間平移參數
  • 是母小波
  • 表示複共軛

尺度圖(Scalogram)是CWT的絕對值平方作為時間和頻率函數的圖形表示,類似於STFT的时频谱。[5]

CWT相對於STFT的優勢:

  • 可變時頻分辨率:對低頻使用較長的小波以改善頻率定位,對高頻使用較短的小波以改善時間定位[5]
  • 克服了STFT的固定窗口大小限制
  • 更適合分析包含多尺度特徵的信號[7]

常用的母小波包括:

  • Morlet小波:常用於時頻分析
  • Haar小波:最簡單的小波
  • Daubechies小波系列
  • 墨西哥帽小波[5]

維格納分布

[编辑]

維格納-維爾分布(Wigner-Ville distribution, WVD)是另一種時頻表示方法,定義為:[8]

WVD的特點:

  • 實值函數
  • 提供高時頻分辨率
  • 存在交叉項干擾,對多分量信號會產生虛假的時頻成分[6]

為減少交叉項,發展了多種平滑WVD的變體,如偽維格納分布(Pseudo Wigner-Ville Distribution)和Choi-Williams分布。[6]

應用領域

[编辑]

語音與音頻處理

[编辑]

时频谱廣泛應用於語音識別、音樂分析和聲學研究中。在早期,模擬时频谱被應用於研究鳥類叫聲等動物聲音。[1]当代數字时频谱的使用對於研究動物叫聲中的頻率調制(FM)特別有用,FM啁啾、寬帶點擊音和社交諧波的區別特徵最容易通過时频谱可視化。[1]

时频谱對於協助克服言語缺陷和對嚴重耳聾人群進行言語訓練也很有用。[9]

梅爾時頻譜與深度學習

[编辑]

在基於深度學習的語音合成中,首先由序列到序列模型預測时频谱(或梅爾尺度的时频谱),然後將时频谱饋送到神經聲碼器以生成合成的原始波形。[1]

梅爾時頻譜(Mel spectrogram)是一種特殊的时频谱,使用梅爾刻度代替線性頻率刻度,並使用分貝刻度代替線性振幅來表示顏色。[10]

梅爾尺度基於人類感知語音的研究發現,使其適合表示語音期間產生的聲音的聲學信息。[11]

梅爾時頻譜在深度學習中的應用:

  • 語音情感識別:將音頻樣本轉換為梅爾時頻譜圖像,然後用於訓練卷積神經網絡(CNN)模型[12]
  • 自動語音識別:梅爾時頻譜提供比原始音頻或MFCC更豐富的特徵表示[13]
  • 音頻分類:深度學習模型利用梅爾時頻譜作為輸入來識別和分類各種聲音[14]

其他應用

[编辑]

时频谱在多個領域都有應用:

  • 生物醫學信號處理:分析心電圖、腦電圖等生理信號[1]
  • 地震學:分析地震波和地震活動
  • 射頻系統開發:使用高清晰度时频谱
  • 振動分析:振動測試工程師使用时频谱分析連續波形的頻率內容[1]

限制與信號重建

[编辑]

從时频谱的公式可以看出,时频谱不包含關於其所表示信號的精確甚至近似相位的信息。因此,無法反轉該過程並從时频谱生成原始信號的副本。[1]

然而,在精確初始相位不重要的情況下,可能可以生成原始信號的有用近似值。例如:

  • 分析與重合成聲音時頻譜儀(Analysis & Resynthesis Sound Spectrograph)是一個嘗試執行此操作的電腦程序[1]
  • Pattern Playback是20世紀40年代末在哈斯金斯實驗室設計的早期語音合成器,將語音聲學模式圖片(时频谱)轉換回聲音[1]

實際上,时频谱中確實存在一些相位信息,但它以另一種形式出現,即時間延遲(或群延遲),這是瞬時頻率的對偶。[15]

参见

[编辑]

参考资料

[编辑]
  1. ^ 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 1.13 Spectrogram. Wikipedia. [2025-12-19]. 
  2. ^ 2.0 2.1 2.2 2.3 2.4 Window function. Wikipedia. [2025-12-19]. 
  3. ^ 3.0 3.1 Julius O. Smith III. Hann Window. Spectral Audio Signal Processing. [2025-12-19]. 
  4. ^ Gabor D. Theory of communication. Journal of the Institution of Electrical Engineers - Part III: Radio and Communication Engineering. 1946, 93 (26): 429–441. doi:10.1049/ji-3-2.1946.0074. 
  5. ^ 5.0 5.1 5.2 5.3 Time-Frequency Analysis and Continuous Wavelet Transform. MATLAB Documentation. MathWorks. [2025-12-19]. 
  6. ^ 6.0 6.1 6.2 Cohen L. Time-frequency analysis. Prentice Hall. 1995. ISBN 978-0135945322. 
  7. ^ Mallat S. A Wavelet Tour of Signal Processing 3rd. Academic Press. 2009. ISBN 978-0123743701. 
  8. ^ Wigner E. On the quantum correction for thermodynamic equilibrium. Physical Review. 1932, 40 (5): 749–759. Bibcode:1932PhRv...40..749W. doi:10.1103/PhysRev.40.749. 
  9. ^ Saunders FA, Hill WA, Franklin B. A wearable tactile sensory aid for profoundly deaf children. Journal of Medical Systems. 1981, 5 (4): 265–270. PMID 7320662. doi:10.1007/BF02222144. 
  10. ^ Ketan Doshi. Audio Deep Learning Made Simple (Part 2): Why Mel Spectrograms perform better. Towards Data Science. 2018 [2025-12-19]. 
  11. ^ Arias-Vergara T, Klumpp P, Vasquez-Correa JC, Nöth E, Orozco-Arroyave JR, Schuster M. Multi-channel spectrograms for speech processing applications using deep learning methods. Pattern Analysis and Applications. 2021, 24: 423–431. doi:10.1007/s10044-020-00921-5. 
  12. ^ Penumajji N. Speech Emotion Recognition using Mel Spectrogram and Convolutional Neural Networks. Procedia Computer Science. 2024. doi:10.1016/j.procs.2024.04.164. 
  13. ^ Piczak KJ. Environmental sound classification with convolutional neural networks. 2015 IEEE 25th International Workshop on Machine Learning for Signal Processing (MLSP): 1–6. 2015. doi:10.1109/MLSP.2015.7324337. 
  14. ^ Hershey S, Chaudhuri S, Ellis DP, Gemmeke JF, Jansen A, Moore RC, Plakal M, Platt D, Saurous RA, Seybold B, Slaney M, Weiss RJ, Wilson K. CNN architectures for large-scale audio classification. 2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP): 131–135. 2017. doi:10.1109/ICASSP.2017.7952132. 
  15. ^ Boashash B. Estimating and interpreting the instantaneous frequency of a signal. I. Fundamentals. Proceedings of the IEEE. 1992, 80 (4): 520–538. doi:10.1109/5.135376.