• <li id="00i08"><input id="00i08"></input></li>
  • <sup id="00i08"><tbody id="00i08"></tbody></sup>
    <abbr id="00i08"></abbr>
  • 新聞中心

    EEPW首頁 > 消費電子 > 業界動態 > MIT又一突破!用AI過濾音源,讓音樂更悅耳

    MIT又一突破!用AI過濾音源,讓音樂更悅耳

    作者: 時間:2018-07-10 來源:獵云網 收藏

      一般利用均衡器可以將音樂中的低音部分調出來,但是麻省理工學院的計算機科學和人工智能實驗室(Computer Science and Artificial Intelligence Lab,CSL)的研究人員發現了更好的解決方案。他們所研發的新系統 PixelPlayer,能夠利用人工智能來區分和過濾聲音,讓音樂聽起來更洪亮或更柔和。

    本文引用地址:http://www.czjhyjcfj.com/article/201807/382989.htm

      將指定視頻錄入經過充分訓練的 PixelPlayer,系統隨機能夠過濾伴奏,同時識別音源,接著計算圖像中每個像素的音量,然后通過“空間定位”確定產生相似音波的片段。

      今年9月,德國慕尼黑即將舉行歐洲計算機視覺會議(European Conference on Computer Vision),會議中要發表的一篇新論文則詳細論述了“像素的聲音(The Sound of Pixels)”。麻省理工學院計算機科學和人工智能實驗室的博士生,同時也是這篇論文的合著者 Zhao Hang 同學表示,“最好的情況就是,我們能識別出哪種樂器發出怎樣的聲音?!?/p>

      PixelPlayer 的核心是一種基于樂器組合多模態訓練的神經網絡,數據集采用了 Youtube 上 714 條未經修剪且未經標記的視頻。其中,總時長為 60 小時的 500 條視頻用于訓練,剩余的則用于驗證和測試。在訓練過程中,研究人員分別根據原聲吉他、大提琴、單簧管、長笛和其他樂器向系統饋入了算法。

      這只是 PixelPlayer 多重機器學習框架的一個部分。經過訓練后的視頻分析算法將從剪輯幀中提取出視覺特征,這就是系統的第二個神經網絡,即音頻分析網絡。音頻分析網絡將聲音拆分為片段,并從中提取特征。最后,音頻合成網絡將把上述兩個網絡輸出的特定像素和聲波關聯起來。

      PixelPlayer 進行完全自監督的學習,人們無需對數據注釋,而且系統目前已經能識別 20 種樂器。Zhao Hang 說,較大的數據集增強了系統的識別量,但識別樂器子類的能力卻不佳。系統也可以識別音樂元素,例如小提琴的諧波頻率。

      研究人員認為 PixelPlayer 可以進行聲音剪輯,或者幫助機器人理解動物、車輛和其他物體所制造的環境聲音。他們寫到,“我們希望我們的工作能夠開辟新的研究途徑,從視覺和聽覺信號角度實現聲源分離”。



    關鍵詞: MIT AI

    評論


    相關推薦

    技術專區

    關閉
    主站蜘蛛池模板: 丽江市| 英吉沙县| 佳木斯市| 兴仁县| 疏勒县| 会东县| 新兴县| 宁阳县| 库尔勒市| 嵊泗县| 隆安县| 神农架林区| 建湖县| 曲松县| 平原县| 南丹县| 武义县| 华坪县| 青州市| 即墨市| 德江县| 米林县| 孙吴县| 云南省| 东港市| 搜索| 大同县| 遂溪县| 德清县| 穆棱市| 木兰县| 永清县| 高安市| 昭通市| 惠州市| 馆陶县| 方城县| 镇平县| 镇雄县| 汤阴县| 镇远县|