Open Access
Issue
JNWPU
Volume 41, Number 4, August 2023
Page(s) 654 - 660
DOI https://doi.org/10.1051/jnwpu/20234140654
Published online 08 December 2023

© 2023 Journal of Northwestern Polytechnical University. All rights reserved.

Licence Creative CommonsThis is an Open Access article distributed under the terms of the Creative Commons Attribution License (https://creativecommons.org/licenses/by/4.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.

烦恼是一种消极的复杂情绪[1]。噪声烦恼度(简称: “烦恼度”)包含人对噪声的体验、态度和行为, 反映了人对噪声的情绪认知[2]。一直以来, 学界多以基于调查或实验的主观方法测量烦恼度[3-4], 其本质上属于心理学中的“内省法”[5]。虽然人类有能力借助语言自述情绪状态, 但因“内省法”存在固有缺陷(如回想准确度低、潜在心理活动无法内省、意识到的心理活动未必能尽数精准报告以及存在不愿报告或虚假报告的情况), 相关结果常受质疑(如客观性差、难再现、无法检验等等)[6]。此外, 噪声自身属性(令人讨厌的、不需要的声音)[7]引发的负性情感定向作用(消极晕轮效应)会导致评价结果偏差[4]。加之人类反应的个体差异性、时变性以及情感成分和交感神经系统活动的调节机制等, 都使烦恼度的评价与预测深奥莫测, 举步维艰。

了解、认识和评价噪声引发的情绪效应, 对实现精准高效的噪声控制至关重要。从噪声刺激下的生理唤醒开始, 听音者对声环境的需求和愿望在其感受噪声的过程中经自我比较, 形成自我体验, 最终显现为可观察的行为(或表情, 如面部表情、姿态表情和语调表情)。表情是情绪的外部表现, 也是最有效的情绪显示器[8]。面部表情是最自然的情感表达方式之一[9], 能够实现非侵入方式下的即时观测, 具有可靠指示哺乳动物(包括人类)情绪体验的潜力。这种潜力不仅具有物种间的普遍性和特异性, 还能适应个体差异。面部肌肉丰富细微的变化能够以“刺激-反应联结”(stimulus-response [S-R] connection)的形式表征情境中的刺激与个体情绪状态(类型/程度)之间的关系。不仅如此, 人类观察者与生俱来的观察偏见使其总会将注意力集中于被观察对象的面部区域[10]。这种“精准定位”的能力对实现高效的情绪识别和正确的心理评估十分有利[11]。在噪声烦恼度研究中, 如能将主观的情绪评估与客观的面部肌肉运动测量相结合, 定会在最大程度上实现烦恼度的准确评价性[12]。

于是, 提出2点设想:①是否存在一种典型的面部表情与噪声引发的烦恼情绪相互对应; ②当听音者出现“烦恼”情绪时, 其面部肌肉的运动模式是否与噪声特性密切相关。若上述2种假设均成立, 即可实现以客观的面部肌肉运动度量不同类型噪声作用下的听音者烦恼度, 突破现阶段研究方法的圈囿, 创新噪声烦恼度评价体系与评估方法。

为此, 本文主要开展了以下工作: 设计并完成噪声作用下的听音者面部表情与生理信号采集实验, 获得10种类型噪声作用下、30位不同国籍听音者的面部视频影像(时长总计9 360 s)、生理数据(心率值)与自报告烦恼度。随后, 参考面部动作编码系统(facial action coding system, FACS)确定了噪声作用下听音者烦恼情绪的AUs组合表达。同时, 创设了集视觉情感符号(emoji表情符号)、明度变化的单色相(灰色)尺度与传统言语尺度和数字尺度于一体的烦恼度(五级)量表, 依托自主开发的移动端应用程序[13](凡响®, Awesound®)借助大规模网络调查对相关技术方法的有效性进行了验证。

1 融合听音者面部表情采集的噪声烦恼度评价实验

1.1 实验准备

1.1.1 声音的选取

目前, 对噪声的分类方法主要有: 按物理特性分类、按机能意义分类、按感觉特征分类、按情感色彩分类[14]。通过对现有国家标准中噪声分类方法与各类噪声定义的全面搜集、整理与总结归纳, 本文将噪声的物理特性与机能意义结合, 综合声音的时、频域特征与来源, 优化现有分类体系并借助网络资源, 分类搜集了368段音频文件。从中选取了10段极具代表性且囊括噪声分类体系中所有类别标签的声音(经裁剪后时长均为30 s)作为诱发听音者情绪的声刺激物(即声样本), 见表 1。实验过程中, 听音者聆听噪声的总时长为300 s, 最大等效连续A声级不大于97 dB(A), 符合GBZ/T 189.8-2007《工作场所物理因素测量第8部分: 噪声》的要求。

表1

各声样本参数及分类

1.1.2 问卷设计

相比文字和数字, 色彩和图形会带给人更加直观的认知体验与情绪共鸣[15]。本研究尝试将色彩融入传统的烦恼度评价(描述词+数字)量表, 创新问卷形式。具体做法如下: ①调查适于表征“烦恼”情绪的色彩量表: a)探寻刻画烦恼情绪的单色色相; b)在a)的基础上, 构建“以明度变化表示感受程度”的评价量表。②实施在线调查, 验证新量表的有效性。调查发现: 77.69%的被调查者倾向于以“明度变化的单色相尺度”衡量烦恼情绪的(程度)变化; 40.9%的被调查者认为“灰色”能够更好地映射“烦恼”情绪。据此, 决定以深浅不同的灰色构建噪声烦恼度评价量表。

1.2 实验实施

1.2.1 实验流程

本研究及相关实验程序由上海精神卫生中心伦理委员会批准(批件号: 2021-53), 符合NMPA/GCP和《赫尔辛基宣言》。实验招募13~52岁之间、听力正常的听音者共30人(男17人, 女13人; 平均年龄27.5岁)。其中, 中国籍25人, 外籍5人。实验前, 所有听音者均签署了实验告知书, 明确告知其有权在身体不适时随时暂停或退出实验且本人同意研究者使用其个人肖像。实验中, 听音者先佩戴耳机聆听纯音乐(1 min), 熟悉环境, 平复心情, 实验员开启摄像机并记录心率。随后, 随机依次播放10段声样本(两样本间设置1 min静默时间, 以便填写问卷), 待10段声样本全部播放完毕, 结束视频录制和心率采集, 回收问卷, 结束实验(见图 1)。

thumbnail 图1

实验流程图

1.2.2 面部表情采集

将烦恼度研究中惯用的听音实验与心理学研究中的行为观察相结合, 在听音者完成听音评价任务的同时录制其听音过程中的面部表情变化。

参考中国情绪图片系统[16]制作方法, 以SNOY EX280摄像机录制听音者在整个听音过程中的面部表情。摄像机位于听音者正前方4.5 m处, 镜头高度与其面部持平。听音者座位上方天花板安装4盏补光灯(其中2盏置于听音者正上方, 另外2盏分置于听音者左右侧斜上方), 以提供高强度的稳定照明(见图 2)。录制视频分辨率1 920×1 080, 帧率25 frame/s。

thumbnail 图2

实验现场

听音室(11.2 m×7 m×2.8 m)四周及顶部均铺设吸声材料, 本底噪声符合NC20(《Criteria for Evaluation Room Noise》)[17]。室内温度21~30℃, 湿度适宜, 布局布置参考GB/T 13868-1992《感官分析: 建立感官分析实验室一般导则》。实验中, 声样本经Artemis软件和双耳耳机均衡器(HEADlab-compatible binaural headphone equalizers labP2)调制后, 由动圈式高保真立体声头戴式耳机(SENNHEISER HD600)回放给听音者。

为了验证Ekman等人提出的: 人在不同情绪状态下会呈现出可观测的生理反应[18](如愤怒与恐惧时心率提升); 实验中使用HUAWEI-B5手环同步采集听音者心率(采样频率1次/30 s), 用以探索听音情绪的产生和变化与心率波动之间的关系。

2 实验结果与分析

2.1 听音者自报告烦恼度分析

定义3种参数, 分析听音者依据图 1量表判定并报告的个人烦恼等级(描述词):

1) 平均烦恼度Am: 首先, 依据以下规则对听音者个人判定并报告的烦恼等级进行赋值: “一点也不”(not at all)赋分值“0”, “轻微”(a little)赋分值“1”, “中度”(moderate)赋分值“2”, “非常”(very)赋分值“3”, “极度”(extremely)赋分值“4”; 计算(全部听音者对)10个声样本的个人烦恼度平均值, 获得每个声样本的Am

2) 易感烦恼率Psensitive: 某声样本的烦恼等级为“中度及以上(包括“中度”、“非常”或“极其”)”的结果占全部评价数据量的百分比; 当Psensitive>50%时, 即可判定该声样本“易致人烦恼”。

3) 烦恼度A: 根据“易感烦恼率”判定: 当50%≤Psensitive < 75%, 对应声样本的烦恼度为“高”; 当Psensitive≥75%, 对应声样本的烦恼度为“极高”;此外, 声样本的烦恼度为“低”。据此, 获得全部声样本的相关评价数据, 见表 2

表2

声样本烦恼度分析结果

2.2 听音者面部情绪表情分析

在探究与“烦恼”情绪相关的面部表情之前, 首先, 将人脸面部分为眉部、眼部、鼻部、嘴部及外轮廓。结合FACS中对AUs的描述, 选择眉部: 抬起眉毛内角(AU1)、抬起眉毛外角(AU2)、降低眉毛(AU4), 眼部: 上眼睑上升(AU5)、眼轮匝肌内/外圈收紧(AU6及AU7)、眨眼(AU43)、闭眼(AU45), 鼻部: 皱鼻(AU9), 嘴部: 拉动人中/嘴唇向上(AU10及AU11)、收紧嘴角(AU14)、拉动嘴角向下(AU15)、拉动下唇向下(AU16)、推动下唇向上(AU17)、撅嘴(AU18)、嘴角拉伸(AU20)、抿嘴(AU24)、嘴唇分开(AU25)的运动进行统计及分析。具体分析步骤如下:

1) 首先, 对所采集到的300段视频进行图像配准, 以消除头部偏转导致的无关抖动。采用dlib库中训练好的人脸关键点模型进行面部关键点提取, 获得人脸轮廓0~17号关键点, 眉部18~27号关键点, 鼻部28~36号关键点, 眼睛37~48号关键点, 嘴部49~68号关键点(见图 3)。

thumbnail 图3

人脸面部图像处理中的关键点

2) 根据既有研究[19-20]对AUs的区域划分(见图 4), 确定其中心点与上述68个面部关键点间的对应关系, 并对关键点的运动趋势进行了人工标注(见第3节)。

thumbnail 图4

FACS中各AUs的中心区域

3) 接着, 根据面部关键点的位置变化, 辅以人工观察, 判定并标注与烦恼情绪密切相关的面部AUs。

4) 最后, 统计每段视频中各AUs运动的次数。

3 烦恼情绪面部表情关键特征提取与有效性验证

现有面部情绪分析理论与计算方法均未涉及复杂情绪面部特征的描述与表征。烦恼是一种典型的复杂情绪。为了寻找“易感烦恼”噪声作用下听音者面部情绪表情的显著特征, 构建基于FACS的烦恼情绪面部AUs组合。分析30位听音者在聆听“高”与“极高”烦恼度声样本(共7个)时的面部影像(时长总计为6 300 s), 具体做法如下: 对面部变化区域进行划分并对其中涉及面部AUs的关键点进行运动状态变化的时间统计分析, 完成关键表情特征的拣选、分类与重组。

研究发现: 听音者面部表情可分为习惯性面部表情及情绪引发的面部表情两类。前者为听音者在平静状态及整个听音过程中均出现的面部表情, 包含张嘴(AU25), 快速眨眼(AU45)等。习惯性面部表情具有显著的个体性差异性。而情绪引发的面部肌肉运动在听音者自报告不同烦恼度时, 面部表情呈现明显可分的等级变化(见图 5)。可见, 利用听音者面部情绪表情的变化模式(即面部肌肉的具体的运动方式和幅度)评价噪声烦恼度是可行的。统计30位听音者在不同ANOYI等级的声样本影响下各面部AUs的平均运动频次(见图 6), 发现眉部的AU1、AU2、AU4, 眼部的AU6和AU7和嘴部的AU14及AU20随着声样本的ANOYI上升呈现出增长的趋势, 由此推测, 上述AUs对解释烦恼情绪具有普适性。结合FACS中用AUs对各类基本情绪的描述方法,将烦恼情绪下的面部运动定义为由眉毛内角(AU1)及外角(AU2)、降低眉毛(AU4)、眼眶收紧(AU6和AU7)、收紧嘴角(AU14)和嘴角拉伸(AU20)共同描述。

thumbnail 图5

烦恼度程度尺度条对应面部情绪表情尺度

thumbnail 图6

不同ANOYI等级声样本影响下听音者面部AUs运动出现的平均频次

表3

与烦恼相关AUs及其中心点与关键点对应关系

4 结论

本研究践行了跨领域融合创新, 获取了一个分析噪声刺激作用下听音者自然流露的面部情绪表情的数据集。其中, 包括了30名听音者在聆听10段具有不同时频特征声样本时的面部视频及其对每段声样本的自报告烦恼度; 以此为基础, 借助面部表情识别技术并配合人工标注, 对发生运动的面部区域(以面部关键点的多少表征)及运动程度(以面部关键点运动频率)进行分析统计, 寻找与听音(烦恼)情绪紧密相关的面部AUs。本实验是对噪声烦恼度研究的理论创新与方法变革的初步探索与大胆尝试, 期望能够克服领域研究中大量主观因素对研究结论客观性的影响。诚然, 面部情绪表情模型的正确构建和运动模式的精准识别, 必须以全面、详尽、充分的数据收集和分析为基础。本文相关工作的完成, 旨在促进建立集噪声特性、听音者生理数据、面部表情变化与自报告烦恼度于一体的研究型数据集和深入开展后续工作。为了实现合理严谨、科学可靠、灵活便捷、普适性强的噪声烦恼度评估, 避免传统描述性评估技术流程繁琐、成本密集、耗时耗力的弊端, 提高研究的信度和效度, 尽量减少使用模棱两可的主观感受描述词与未经设计的心理反应量表, 采用行为心理学的观点和方法, 通过直接观摩、记录、分析听音者在声刺激作用下的面部表情反应, 阐释其情绪状态, 用“看到的”而非“想到的”, 评价“感觉”, 预测“反应”, 解释“情绪”, 从实际出发开展包括烦恼度在内的一切噪声作用下的情绪效应研究。

References

  1. GUSKI R, FELSCHER-SUHR U, SCHUEMER R. The concept of noise annoyance: how international experts see it[J]. Journal of Sound and Vibration, 1999, 223(4): 513–527 [Article] [CrossRef] [Google Scholar]
  2. PETER L. Noise in cities: urban and transport planning determinants and health in cities: a framework[C]//Integrating Human Health into Urban and Transport Planning, Switzerland, 2018: 443–481 [Google Scholar]
  3. YAN Liang, CHEN Ke'an. Sound quality and noise impact assessment[J]. Environmental Impact Assessment, 2013, 35(6): 24–26 [Article] (in Chinese) [Google Scholar]
  4. HAN Guanghua, FAN Bo. The effect of semantic difference of likert-type questionaires on scientific measurements[J]. Science & Technology Progress and Policy, 2017, 34(20): 6–11 [Article] (in Chinese) [Google Scholar]
  5. FIELDS J M, JONG R G D, GJESTLAND T, et al. Standardized general-purpose noise reaction questions for community noise surveys: research and a recommendation[J]. Journal of Sound and Vibration, 2001, 242(4): 641–679 [Article] [CrossRef] [Google Scholar]
  6. YAN Liang. Evaluation and characterization of annoyance of combined noise[D]. Xi'an: Northwestern Polytechnical University, 2011 (in Chinese) [Google Scholar]
  7. DESCOVICH K A, WATHAN J, LEACH M C, et al. Facial expression: an under-utilised tool for the assessment of welfare in mammals[J]. ALTEX-Alternatives to Animal Experi-mentation, 2017, 34(3): 409–429 [Google Scholar]
  8. SWANSON G E, TOMKINS S S, KARON B P. Affect, imagery, consciousness: the positive affects[J]. American Sociological Review, 1963, 28(4): 661 [Article] [CrossRef] [Google Scholar]
  9. NAKAJIMA K, MINAMI T, NAKAUCHI S. Interaction between facial expression and color[J]. Scientific Reorts, 2017, 7: 41019 [Article] [CrossRef] [Google Scholar]
  10. LEACH M C, COULTER C A, RICHARDSON C A, et al. Are we looking in the wrong place? Implications for behavioural-based pain assessment in rabbits(Oryctolagus cuniculi) and beyond?[J]. Plos One, 2011, 6(3): e13347 [Article] [NASA ADS] [CrossRef] [Google Scholar]
  11. KRISTA M M, AMY L M, EMANUELA D C, et al. Conceptual and methodological issues relating to pain assessment in mammals: The development and utilisation of pain facial expression scales[J]. Applied Animal Behaviour Science, 2019, 217: 1–15 [Article] [CrossRef] [Google Scholar]
  12. SHI Lin. A review of several issues in emotional research[J]. Advances in Psychological Science, 2000, 8(1): 63–68 [Article] (in Chinese) [Google Scholar]
  13. 闫靓, 周卉婷, 范豪炜, 等. 声音诱发情绪反应测试与评价系统[简称: 声音情绪测评]V1.0: 中国, 2022SR0398977[P]. 2021-09-09 [Google Scholar]
  14. ZHONG Chen, LI Guoqi, LU Hongyao. Research on soundscape theory and sound classification[J]. Radio & TV Broadcast Engineering, 2003, 30(12): 61–64 [Article] (in Chinese) [Google Scholar]
  15. WEI Wei. Discussion on emotional expression of network emoticons[J]. Public Communication of Science & Technology, 2014, 6(13): 24–26 [Article] (in Chinese) [Google Scholar]
  16. BAI Lu, MA Hui, HUANG Yuxia, et al. The development of native chinses affective picture system-a pretest in 46 college students[J]. Chinese Mental Health Journal, 2005, 19(11): 719–722 [Article] (in Chinese) [Google Scholar]
  17. American National Standards Institute, Acoustical Society of America. Criteria for Evaluating Room Noise[S]. ANSI/ASA S12.2-2019 [Google Scholar]
  18. EKMAN P, LEVENSON R, FRIESEN W. Autonomic nervous system activity distinguishes among emotions[J]. Science, 1983, 221(4616): 1208–1210 [NASA ADS] [CrossRef] [Google Scholar]
  19. SHAO Z, LIU Z, CAI J, et al. JAA-Net: Joint facial action unit detection and face alignment via adaptive attention[J]. International Journal of Computer Vision, 2021, 129(2): 321–340 [CrossRef] [Google Scholar]
  20. LI W, ABTAHI F, ZHU Z, et al. EAC-Net: deep nets with enhancing and cropping for facial action unit detection[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2018, 40(11): 2583–2596 [CrossRef] [Google Scholar]

All Tables

表1

各声样本参数及分类

表2

声样本烦恼度分析结果

表3

与烦恼相关AUs及其中心点与关键点对应关系

All Figures

thumbnail 图1

实验流程图

In the text
thumbnail 图2

实验现场

In the text
thumbnail 图3

人脸面部图像处理中的关键点

In the text
thumbnail 图4

FACS中各AUs的中心区域

In the text
thumbnail 图5

烦恼度程度尺度条对应面部情绪表情尺度

In the text
thumbnail 图6

不同ANOYI等级声样本影响下听音者面部AUs运动出现的平均频次

In the text

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.