Музыка и речь являются одними из наиболее частых типов звуков, которые мы слышим. Но как нам определить, что, по нашему мнению, является различиями между ними?
Международная группа исследователей наметила этот процесс с помощью серии экспериментов, что позволило получить информацию, которая предлагает потенциальные средства оптимизации терапевтических программ, использующих музыку для восстановления способности говорить при лечении афазии. Это языковое расстройство ежегодно поражает более одного из 300 американцев, включая Венди Уильямс и Брюса Уиллиса.
«Хотя музыка и речь во многом различаются — от высоты звука до тембра и текстуры звука, наши результаты показывают, что слуховая система использует поразительно простые акустические параметры, чтобы различать музыку и речь», — объясняет Эндрю Чанг, научный сотрудник Нью-Йоркского университета. Кафедра психологии и ведущий автор статьи, опубликованной в журнале PLOS Biology. «В целом, более медленные и устойчивые звуковые фрагменты, состоящие из простого шума, больше похожи на музыку, в то время как более быстрые и нерегулярные клипы больше похожи на речь».
Ученые измеряют скорость сигналов с помощью точных единиц измерения: герц (Гц). Большее число Гц означает большее количество вхождений (или циклов) в секунду, чем меньшее число. Например, люди обычно ходят со скоростью от 1,5 до 2 шагов в секунду, что составляет 1,5–2 Гц. Частота хита Стиви Уандера 1972 года « Superstition » составляет примерно 1,6 Гц, а хита Анны Карины 1967 года « Roller Girl » — 2 Гц. Речь, напротив, обычно в два-три раза быстрее, чем речь при частоте 4–5 Гц.
Хорошо известно , что громкость песни с течением времени — так называемая « амплитудная модуляция » — относительно стабильна и составляет 1–2 Гц. Напротив, амплитудная модуляция речи обычно составляет 4–5 Гц, а это означает, что ее громкость часто меняется.
Несмотря на повсеместное распространение и известность музыки и речи, ранее у ученых не было четкого понимания того, как мы легко и автоматически идентифицируем звук как музыку или речь.
Чтобы лучше понять этот процесс в своем исследовании PLOS Biology, Чанг и его коллеги провели серию из четырех экспериментов, в которых более 300 участников слушали серию аудиосегментов синтезированного музыкально- и речевого шума с различной скоростью и регулярностью амплитудной модуляции.
Аудиоклипы с шумом позволяли определять только громкость и скорость. Участников попросили оценить, звучат ли эти неоднозначные шумовые клипы, которые, как им сказали, были музыкой или речью с шумовой маской, музыкой или речью. Наблюдение за тем, как участники сортировали сотни шумовых клипов на музыку или речь, показало, насколько сильно каждая характеристика скорости и/или регулярности влияла на их суждения о музыке и речи.
Это слуховая версия «видения лиц в облаке», заключают ученые: если в звуковой волне есть определенная особенность, которая соответствует представлению слушателей о том, какой должна быть музыка или речь, даже клип с белым шумом может звучать как музыка или речь. Примеры музыки и речи можно скачать со страницы исследования.
Результаты показали, что наша слуховая система использует удивительно простые и базовые акустические параметры для различения музыки и речи: для участников клипы с более медленными темпами (<2 Гц) и более регулярной амплитудной модуляцией звучали больше как музыка, тогда как клипы с более высокими темпами (~ 4 Гц) и более нерегулярная амплитудная модуляция больше походила на речь.
Авторы отмечают, что знание того, как человеческий мозг различает музыку и речь, потенциально может принести пользу людям со слуховыми или языковыми расстройствами, такими как афазия. Мелодическая интонационная терапия, например, является многообещающим подходом к обучению людей с афазией петь то, что они хотят сказать, используя свои неповрежденные «музыкальные механизмы» в обход поврежденных речевых механизмов. Следовательно, знание того, что делает музыку и речь в мозгу похожими или разными, может помочь разработать более эффективные программы реабилитации.