1.一種智能助聽的方法,其特征在于,包括:獲取采集的語音數據,采用頻域消除回音;根據消除了回音的語音數據,提取噪音數據進行噪音分類學習以獲得噪音分類結果;其中,噪音分類學習模型使用開源人工神經網絡庫Keras構架,實現循環神經網絡中的門控循環神經網絡RNN GRU模型,進而得到噪音環境的標簽;根據噪音分類結果,對消除了回音的語音數據進行噪音抑制處理,以獲得降噪后的語音數據并播放;其中,語音數據播放,包括:根據預設的各個頻點對降噪后的語音數據進行測聽,以獲得在各個頻段上對應于用戶聽力的增益值;將各個頻段上的增益值傳遞給放大器,以作為補償的輸入參數進行語音數據的播放。2.根據權利要求1所述的方法,其特征在于,還包括:將降噪后的語音數據經過自動增益的處理,傳遞給放大器處理以進行語音播放。3.根據權利要求1所述的方法,其特征在于,采用自適應濾波歸一化算法NLMS的延時多頻域算法MDF頻域進行回音的消除。4.根據權利要求1所述的方法,其特征在于,所述提取噪音數據,包括:對消除了回音的語音數據使用語音活動檢測VAD算法,將沒有語音部分數據作為噪音提取出來。5.根據權利要求1-4任一所述的方法,其特征在于,所述噪音分類學習、噪音抑制處理以及自動增益都采用的是RNN GRU模型。6. 根據權利要求5所述的方法,其特征在于,噪音數據通過RNN GRU模型的噪音分類學習獲得噪音分類標簽。7. 根據權利要求5所述的方法,其特征在于,采用RNN GRU模型實現噪音抑制處理是通過語音和噪音分離算法來實現,并且把理想二值掩蔽作為計算目標。8.根據權利要求5所述的方法,其特征在于,采用RNN GRU模型自動增益處理的輸入包括倒譜系數、長時間能量最大值、過零率和信號的相位群,進而輸出頻譜上的增益值。9.一種智能助聽的系統,其特征在于,包括:客戶端包括測試模塊和實時語音處理系統,實時語音處理系統通過回音抑制模塊、噪音場景選擇模塊、噪音抑制模塊、自動增益控制模塊和分頻放大器實現;其中,測試模塊根據預設的各個頻點對降噪后的語音數據進行測聽,以獲得在各個頻段上對應于用戶聽力的增益值;將各個頻段上的增益值傳遞給分頻放大器,以作為補償的輸入參數進行語音數據的播放;后臺系統包括噪音特征學習、噪音抑制學習和智能增益學習,依次對應的分別為客戶端的噪音場景選擇模塊、噪音抑制模塊、自動增益控制模塊提供基于RNN GRU模型的數據處理;其中,噪音特征學習的噪音分類學習模型使用開源人工神經網絡庫Keras構架,實現循環神經網絡中的門控循環神經網絡RNN GRU模型,進而得到噪音環境的標簽。
展開