据zdnet报道,谷歌并不是第一次使用人工智能来创作音乐,今年1月,它推出了MusicLM,可以从文本生成音乐。现在,谷歌更进一步,使用人工智能来读取你的大脑——并根据你的大脑活动产生声音。
在一篇新的研究论文《Brain2Music》中,谷歌使用人工智能从功能性磁共振成像(fMRI)数据中重建大脑活动所对应的音乐。
一旦训练好,这个模型就可以利用MusicLM从fMRI中重建音乐。由于MusicLM是从文本生成音乐的,所以它被调节为在语义层面上创造出与原始音乐刺激相似的音乐。
在测试中,生成的音乐在诸如流派、乐器、情绪等特征上与参与者最初听到的音乐刺激相似。
在研究页面的网站上,你可以听到几段原始音乐刺激,并将它们与MusicLM生成的重建进行比较。结果非常令人惊叹。
其中一段刺激是布兰妮·斯皮尔斯的经典歌曲《Oops!..I Did It Again》的15秒片段。三段重建都是流行和欢快的风格,与原曲相似。
相关标签: 谷歌的新AI模型可以利用大脑活动生成音乐
评论列表 (条)