索尼公开了一项新专利“DYNAMIC MUSIC CREATION IN GAMING(在游戏中的动态音乐创作)”,这项专利描述了一种基于游戏内容和期望引出的情绪进行动态音乐创作的方法和系统。
根据示意图,该方法主要包括以下几个主要部分:
·收集音乐数据并生成各组成要素的元数据;生成对应音乐的情绪元数据;将音乐元数据映射至情绪元数据,并借此训练模型
·收集游戏场景/组成元素;将游戏组成元素映射至情绪元数据
·借助此前训练完成的模型和对游戏组成元素的分析数据来为角色、场景创作主题曲
·通过Fader和Switch将主题曲适配到游戏中并且进行测试和调整
根据描述,在这一系统中,首先会对音乐的组成元素(包括节奏、拍号、旋律结构等)进行分析,然后分别以独立和组合的方式映射到对应情绪元素(包括紧张、开心、恐惧等)中,以此为神经网络的训练集。
其中数据主要来自音乐会、唱片等内容的评测以及社交媒体中大众的观点。应用到的神经网络可能会包括卷积神经网络、循环神经网络以及/或动态神经网络。
同时,这些音乐元素会与游戏中各种元素/玩家相映射,包括角色(领袖、同伴等)、活动类型(战斗、休息等)、区域(森林、城市等)、玩家的性格等。
最终,合成工具将会根据游戏内容(具体来说是各组成基元)来实现音乐创作,为游戏中的角色或元素创作音乐元素或是主题。
在完成作曲后,系统会根据主题曲和期望情感进行模拟,作曲者可以通过相应界面观察到与乐曲对应的元素,并且通过调整参数来修改乐曲。当一些游戏风格外的其他因素(比如时间或是游玩时长、游戏状态等)变化时,系统也可以自动调整参数完成更新。