Artemis的AI(Articulation Index)分析
本帖最后由 朗德技术支持 于 2010-11-22 17:45 编辑应版主wy558558558 的要求,对Artemis的AI分析做些简单解释。
ArtemiS中的AI分析即(Articulation Index),即语言清晰度分析,指分析人在特定噪声环境下的语言理解程度,这个是基于Fletcher的理论基础,然后再发展出Speech Intelligibility Index SII(语言理解度),这是根据AI理论改进而来的,在Artemis中也有这个分析方法。
下图是AI算法的设置及计算后的曲线:
http://forum.vibunion.com/data/attachment/album/201011/22/165020y1c7e67n71ceieee.jpg
http://forum.vibunion.com/data/attachment/album/201011/22/165021mepc66wfnhzzcw5m.jpg
而且在AI算法中,主要限制分析两个方面,一个是声压级的范围控制,另一个是频率范围的限制(限制在人的语音范围:大约在200~6300Hz),如下图所示:
http://forum.vibunion.com/data/attachment/album/201011/22/16502268vt6jp46byyaanp.jpg
上图是一个旋转结构件(汽车上的零部件)的分析,信号文件在车内通过人工头采集得到。
可以看到,随着转速的增加,AI即语言清晰度在降低(从80%降到60%),并且测试数据包含背景噪声的影响。
而且3rd倍频程曲线使分析更加细化,以上下两根曲线为基准:
如果噪声处于图示区域的下半区位置,AI值趋近于100%;
如果噪声处于图示区域的上半区位置,则AI值趋近于0。
所以,根据上图我们可以得到每个倍频程带上的AI指数(单位是%)。下图是示意,具体数值仅作参考:
http://forum.vibunion.com/data/attachment/album/201011/22/165022cyrp5onarirdrpdy.jpg
另外,从Artemis的AI设置中可以看到AI算法有两种计算过程:一种是基于DFT,另一种是基于Fliter,两种算法的结果比较如下:
http://forum.vibunion.com/data/attachment/album/201011/22/165020i20m2omiia3fsfja.jpg
数值基本相似。
另外,属性设置里加入了"Extended AI",这个选项的作用是允许AI值小于0或者大于100%。
下图是加了“Extended AI”后的结果比较:
http://forum.vibunion.com/data/attachment/album/201011/22/165021sqdcqzkuju1si5q5.jpg
另外附上Speech Intelligibility Index(SII)的计算结果:
http://forum.vibunion.com/data/attachment/album/201011/22/173740youmaaxpggdzqouo.jpg
上述说明只是Artemis的计算,欢迎提出意见和建议。
欢迎踊跃交流学习! 本帖最后由 朗德技术支持 于 2010-11-22 18:01 编辑
关于版主 wy558558558所说的“有些时候人体感觉很好的车,分析之后粗糙度和尖锐度相反”,这个是有可能的,抛开不同人的感知情况,声品质分析里面有许多分析参数,粗糙度一般反映噪声的调制情况,尖锐度只是反映这个噪声是否有较多的高频成分,这是两个不同的参考量,对于声品质具体分析起来,光靠这两个量也不够,响度,音调等等都可关注,另外在Artemis里面还有一些HEAD自己开发的计算方法,例如听觉相关性,听觉模板等等。上述这些还只是客观量分析,声品质分析还要靠主观评价。范围确实很大,不过关键是怎样针对你的分析对象选择合适的评价量。 回复 3 # 朗德技术支持 的帖子
多谢朗德的工程师,我是否可以这样认为:限制外的频率和声压在分析中是没有用的,也就是说200HZ以下是不能用AI分析的。还有能否帮忙解释以下AI等于60%的物理意义是什么? 多谢朗德的工程师,我是否可以这样认为:200HZ以下的是不能用AI分析的。还有可否能解释以下AI等于60%的物理意义是什么?{:{39}:} 本帖最后由 朗德技术支持 于 2010-11-23 16:32 编辑
回复 5 # wy558558558 的帖子
200Hz以下不是不能分析,只是这样分析后的结果没有多少有用的信息,为什么主要关注200~6300Hz这个频率范围,与人耳和人耳对特定声音的响应有关,因为我们分析的语言理解程度,换句话说就是分析人的说话,是否能够理解等等。而人的语言范围是主要集中在这个频率范围,见下图所示,但也不排除“您”可以说出比这范围还低的频率,呵呵 :)
http://forum.vibunion.com/data/attachment/album/201011/23/161754fanjxfwxwkezjjzk.jpg
既然是分析人的语言,不同的语种,它的AI也有区别。比如我们自己的中国话,我们每个人也不是能听懂所有中国地区的“中国话”(方言),这中间就有差异,有些人能听懂60%,有些人可能一句话都听不懂(0%),所以,你的问的“60%”,不是绝对的,关键看分析对象,分析方法或分析形式,及其相关联的因素等等。中国话如此,外国语更别说了,同样说英语,有些人说中国式英语,有些人说的是美式英语,不同人种,不同国家之间,理解就会不一样,有些人熟悉,就能听懂,AI可能就80%以上,有些人听不明白,那就差点,40%左右,这都没有定性。我好像即兴发挥,越说越大了,说起语言学相关了,跑题了,O(∩_∩)O哈哈~
分析汽车的噪声,我觉得也是同样的道理,听得多的,和听得少的,他们之间的理解就不一样。我们为什么都要建主观评价室搞声品质主观分析,也就是综合大多数的意愿,集思广益,反映出产品的真实特性。
不知道我所说的这些,你是否可以得到你的答案?
多谢,大致理解了,看来声品质主要还是靠主观感受的。 嗯,这种帖子要顶起来 {:{14}:}專業 {:{39}:}学到好多 有没有软件可以下载? 楼主您好!
请问我用Artemis采集声音信号,之后作主观评价,是不是需要等响处理?
如果需要等响处理,那么之后在分析客观参数和主观评价结果的时候,响度就不能作为影响主观评价的参数,但事实响度是主要影响。这种情况怎么分析响度和主观评价结果的相关性呢?
谢谢! t-ransformer 发表于 2013-5-13 16:31 static/image/common/back.gif
楼主您好!
请问我用Artemis采集声音信号,之后作主观评价,是不是需要等响处理?
您好 这个问题你现在解决了吗?我也研究这一块,可以相互讨论下。
页:
[1]