はじめによんでください

音楽意味論と音楽統語論

Musical semantics and Musical syntax


池田光穂

☆音楽意味論(Music semantics)とは、音楽が意味的な意味を伝える能力のことである。意味論は言語の重要な特徴であり、音楽が意味を誘発し伝達する能力を共有しているかどうかは、最近の研究の主題となっている[1]。

★音楽統語論(Musical syntax)とは、言語学における統語論からその推論モデルを借りて、音楽にも文章を構成するような統語法則があることを発見したり、その理論にもとづいて研究する議論のことである。音楽の規則性や構造、脳における音楽の処理を分析するとき、ある発見が、音楽は言語的構文と比較できる構文に基づいているのかという疑問につながる。この 疑問に近づくためには、言語における構文の基本的な側面を見てみる必要がある。音楽がそれに匹敵する構文を持つのであれば、言語構文の基本的な側面に相当 するものを、音楽構造の中に見出さなければならない。暗黙の了解として、言語と比較した場合の音楽の処理は、音楽の構造に関する情報を与える可能性もあ る。

Music semantics refers to the ability of music to convey semantic meaning. Semantics are a key feature of language, and whether music shares some of the same ability to prime and convey meaning has been the subject of recent study.[1]


音楽意味論とは、音楽が意味的な意味を伝える能力のことである。意味論は言語の重要な特徴であり、音楽が意味を誘発し伝達する能力を共有しているかどうかは、最近の研究の主題となっている[1]。
Evolutionary antecedents

Primate vocalizations are mainly determined by music-like features (such as pitch, amplitude-and frequency-modulations, timbre and rhythm), and it is assumed that human musical abilities played a key phylogenetical part in the evolution of language. Likewise, it is assumed that, ontogenetically, infants’ first steps into language are based on prosodic information, and that musical communication in early childhood (such as maternal music) has a major role for emotional, cognitive and social development of children. The music faculty is in some respects unique to the human species; only humans compose music, learn to play musical instruments and play instruments cooperatively together in groups. Playing a musical instrument in a group is a tremendously demanding task for the human brain that potentially engages all cognitive processes that we are aware of. It involves perception, action, learning, memory, emotion, etc., making music an ideal tool to investigate human cognition and the underlying brain mechanisms. The relatively young discipline of 'neurocognition of music' includes a wide field of biopsychological research, beginning with the investigation of psychoacoustics and the neural coding of sounds, and ending with brain functions underlying cognition and emotion during the perception and production of highly complex musical information.
進化的先行要因

霊長類の発声は主に音楽的特徴(ピッチ、振幅や周波数の変調、音色やリズムなど)によって決定され、ヒトの音楽的能力が言語の進化において系統発生的に重 要な役割を果たしたと考えられている。同様に、先天的に、乳児の言語への第一歩は韻律情報に基づいており、幼児期の音楽コミュニケーション(母親の音楽な ど)は、子どもの情緒的、認知的、社会的発達に大きな役割を果たすと考えられている。作曲をし、楽器の演奏を学び、集団で協力して楽器を演奏するのは人間 だけである。集団の中で楽器を演奏することは、人間の脳にとってとてつもなく負荷のかかる作業であり、私たちが認識しているすべての認知過程に関与する可 能性がある。知覚、行動、学習、記憶、感情などが含まれるため、音楽は人間の認知とその根底にある脳のメカニズムを調べるのに理想的なツールなのだ。音楽 の神経認知」という比較的若い学問分野には、音響心理学や音の神経コーディングの研究から始まり、非常に複雑な音楽情報の知覚や生成における認知や感情の 根底にある脳機能まで、幅広い生物心理学的研究が含まれている。
Semantic priming effect

A sentence such as Sissy sings a song disburdens the neural processing of semantically related words like music, whereas it does not alleviate processing of semantically unrelated words like carpet. This effect is known as the semantic priming effect; it refers to the highly consistent processing advantage seen for words that are preceded by a semantically related context. This semantic processing effect is electrophysically reflected by the N400 component of event related potential (ERP) measurements. The N400 is a negative polarity ERP component that is maximal over centro-parietal electrode sites. It emerges at around 250 ms after the onset of word stimulation and reaches is maximal amplitude at about 400 ms. When a word is preceded by a semantic context, the amplitude of the N400 is inversely related to the degree of semantic congruousness between the word and is preceding semantic context. The processing of almost any type of semantically meaningful information seems to be associated with an N400 effect (Kutas, M. et al.: Electrophysiology reveals semantic memory use in language comprehension, Trends Cogn. Sci., 2000).

Semantic information is clearly a key feature of language, but is this kind of information also an important aspect of music?

Most music theorists posit at least four different aspects of musical meaning:

1. meaning that emerges from a connection across different frames of reference suggested by common patterns or forms (sound patterns in terms of pitch, dynamics, tempo, timbre etc. that resemble features of objects like rushing water, for example)
2. meaning that arises from the suggestion of a particular mood
3. meaning that results from extra-musical associations (national anthem, for example)
4. meaning that can be attributed to the interplay of formal structures in creating patterns of tension and resolution.

Most linguists, however, would reject the notion that music can transfer specific semantic concepts (Pinker, Norton, New York 1997, How the Mind Works). Though the study of Koelsch et al. in 2004 could provide strong behavioural and electrophysiological evidence that music is able to transfer semantic information.

Intuitively, it seems plausible that certain passages of Holst´s The Planets or Beethoven´s symphonies prime the word "hero", rather than the word "flea". As primes Koelsch et al., as already mentioned above, used sentences and musical excerpts that were, with respect to their meaning, either related or unrelated to a target word. Half of the targets were abstract, the other half were concrete words. Most of the stimuli that primed concrete words resembled sounds (e.g., bird) or qualities of objects (e.g., low tones associated with basement or ascending pitch steps associated with staircase). Some musical stimuli (especially those used as primes for abstract words) resembled prosodic and possibly gestural cues that can be associated with particular words (e.g., sigh, consolation). Other stimuli presented stereotypic musical forms or styles that are commonly associated with particular words (e.g., a church anthem and the word devotion).

Importantly, participants were not familiar with the musical excerpts, so meaning could not simply be ascribed by extra-musical associations that had an explicit, direct link to language (such as titles or lyrics). As priming of words could not rely on direct associations between musical primes and target words, Koelsch et al. were enabled to investigate whether the N400 can also be elicited by stimuli that are not directly linked to language.

Behaviourally, subjects categorized 92% of the target words correctly when target words were presented after a sentence. When target words were preceded by musical excerpts, 80% of the targets were categorized correctly. Further behavioural data was collected by a pre-experiment in which the subjects had to rate the semantic relatedness between prime and target words by using a scale ranging from -5 to +5, and an additional experiment in which the subjects were instructed to choose the word semantically most closely related to the prime out of a five-word list. The Pre-experiment and the additional experiment could maintain the results of the behavioural performance during the first EEG experiment.

Semantic processing was measured using EEG (ElectroEncephaloGram). Target words elicited an N400 when elicited after semantically unrelated sentences. Likewise, an N400 effect was elicited when target words were preceded by semantically unrelated musical excerpts, showing that music can transfer semantically meaningful information by priming representations of meaningful concepts. The ERPs of the target words showed, as expected, larger N400s when the targets were presented after semantically unrelated sentences compared to those after semantically related sentences. As when preceded by the sentences, the target words also elicited larger N400s when presented after an unrelated musical excerpt compared to when presented after a related excerpt. In both, language and music, both concrete and abstract target words elicited significant N400 effects.

The N400 effect (that means, the effect of unprimed versus primed target words) did not differ between the language domain (sentences followed by target words) and the music domain (musical excerpts followed by target words), concerning amplitude, latency or scalp distribution. In both domains, a bilateral N400 was maximal around 410ms over centro-parietal electrode sites. The N400 effects did not differ between the prime-target pairs with and without balanced content, neither in the language nor in the music domain. This findings rules out the possibility that the musical excerpts merely primed an emotional state that was (in)consistent with the emotional content of the target word.

The sources of electric brain activity underlying the N400 effect did not statistically differ between the language and the music domain, neither with respect to locations, nor with respect to orientations, strengths, time point of maximum or explanation of variance. The source analysis of the N400 effect indicated generators located in the posterior portion of the middle temporal gyrus (MTG, Brodmann´s area 21/37), quite close to the superior temporal sulcus. This localization concurs with numerous studies on the functional neuroanatomy of semantic processes at the level of both words and sentences.


意味プライミング効果

Sissy sings a song(シシーは歌を歌う)のような文は、musicのような意味的に関連する単語の神経処理を軽減するが、carpetのような意味的に関連しない単 語の処理は軽減しない。この効果はセマンティック・プライミング効果として知られており、意味的に関連する文脈が先行する単語に対して見られる、一貫性の 高い処理優位性を指す。この意味処理効果は、事象関連電位(ERP)測定のN400成分によって電気生理学的に反映される。N400は陰性極性のERP成 分で、遠心頭頂電極部位で格律となる。単語刺激開始後約250msで出現し、約400msで格律に達する。単語の前に意味文脈がある場合、N400の振幅 は単語と先行する意味文脈との間の意味的一致の程度に反比例する。意味的に意味のある情報のほとんどすべての種類の処理は、N400効果と関連しているよ うである(Kutas, M. et al: Kutas, M. et al.: Electrophysiology reveals semantic memory use in language comprehension, Trends Cogn. Sci.、2000年)。

意味情報は明らかに言語の重要な特徴であるが、この種の情報は音楽の重要な側面でもあるのだろうか?

ほとんどの音楽理論家は、音楽の意味について少なくとも4つの異なる側面を仮定している:

1. 共通のパターンや形態(例えば、水の流れのような物体の特徴に似た、ピッチ、ダイナミクス、テンポ、音色などの音のパターン)によって示唆される、異なる参照枠を超えたつながりから生じる意味。
2. 特定のムードの暗示から生じる意味。
3. 音楽外の連想から生じる意味(例えばナショナリズム)。
4.緊張と決着のパターンを生み出す形式構造の相互作用に起因する意味。

しかし、ほとんどの言語学者は、音楽が特定の意味概念を伝達するという考え方を否定するだろう(Pinker, Norton, New York 1997, How the Mind Works)。しかし、2004年のKoelschらの研究は、音楽が意味情報を伝達できるという行動学的、電気生理学的な強力な証拠を示している。

直感的には、ホルストの『惑星』やベートーヴェンの交響曲の特定のパッセージが、「ノミ」という言葉ではなく「英雄」という言葉を呼び起こすというのは、 もっともらしく思える。前述したように、Koelschらはプライムとして、意味上、ターゲットとなる単語と関連があるかないかのどちらかである文章や音 楽の抜粋を使用した。ターゲットの半分は抽象的で、残りの半分は具体的な単語であった。具体的な単語を誘発する刺激のほとんどは、音(例:鳥)や物の性質 (例:地下室を連想させる低音や階段を連想させる上昇音)に似ていた。いくつかの音楽刺激(特に抽象的な単語のプライムとして使用されるもの)は、韻律 や、おそらくはジェスチャーの合図に似ており、それらは個別主義的な単語と関連づけられる(例:ため息、慰め)。他の刺激では、個別主義的な音楽形式やス タイルが提示され、一般的に特定の単語と関連づけられた(例:教会の賛美歌とdevotionという単語)。

重要なことは、参加者は音楽の抜粋に精通していなかったため、言語と明示的かつ直接的な関連性を持つ音楽以外の連想(タイトルや歌詞など)によって意味を 単純に帰属させることができなかったことである。Koelschらは、言葉のプライミングが音楽のプライムとターゲットとなる言葉との間の直接的な関連に 依存することができないため、N400が言語と直接関連しない刺激によっても誘発されるかどうかを調べることができた。

主体性は、対象語が文の後に提示された場合、92%の対象語を正しく分類した。対象語の前に音楽が提示された場合、対象語の80%が正しく分類された。さ らなる行動データは、主体性にプライム語とターゲット語の意味的関連性を-5から+5までの尺度を用いて評価させる事前実験と、5つの単語リストからプラ イム語と意味的に最も近い単語を選ぶよう指示する追加実験によって収集された。予備実験と追加実験は、最初の脳波実験中の行動パフォーマンスの結果を維持 することができた。

意味処理はEEG(ElectroEncephaloGram)を用いて測定された。対象語は、意味的に無関係な文の後に誘発されるとN400を誘発し た。同様に、意味的に無関係な音楽の抜粋が目的語の前にあるとN400効果が誘発され、音楽が意味のある概念の表象をプライミングすることによって、意味 的に意味のある情報を伝達できることが示された。ターゲット語のERPは、予想通り、意味的に関連する文の後に比べて、意味的に関連しない文の後にター ゲット語が提示された場合に、より大きなN400を示した。また、文に先行する場合と同様に、関連性のない音楽の抜粋の後に標的語を提示した場合にも、関 連性のある抜粋の後に提示した場合と比較して、より大きなN400が誘発された。言語と音楽の両方において、具体的な単語と抽象的な単語の両方が有意な N400効果を引き起こした。

N400効果(つまり、プライムされていない標的語とプライムされた標的語の効果)は、振幅、潜時、頭皮分布に関して、言語領域(文の後に標的語が続く) と音楽領域(音楽の抜粋の後に標的語が続く)の間で異なっていなかった。両領域において、両側N400は頭頂-頭頂中心電極上で410ms付近に格律を示 した。N400の効果は、言語領域でも音楽領域でも、バランスのとれた内容のプライム-ターゲットのペアとそうでないペアの間で異なることはなかった。こ の所見から、音楽的抜粋が、単に標的語の感情内容と(中略)一致した感情状態をプライミングしただけの可能性は排除された。

N400効果の基礎となる電気的な脳活動のソースは、言語領域と音楽領域の間で、場所、方向、強さ、最大になる時間、分散の説明のいずれに関しても、統計 的に異なっていなかった。N400効果の発生源分析では、上側頭溝にかなり近い中側頭回(MTG、Brodmann領域21/37)の後部に発生源がある ことが示された。この局在は、単語と文の両レベルにおける意味過程の機能的神経解剖学に関する多くの研究と一致している。

Further reading
Jones, M.R. et al.: Cognitive Bases of Musical Communication, American Psychological Association, 1992
Swain, J.: Musical languages, New York, 1997
Raffmann, D.: Language, Music and Mind, MIT Press, 1993
Meyer, L.B.: Emotion and Meaning in Music, Univ. of Chicago Press, 1956
Hevner, K.: The affective value of pitch and tempo in music, Am. J. Psych., 1937
Peirce, C.: The Collected Papers of C.S. Peirce, Harvard Univ. Press, 1958
Zbikowski, L.: Conceptualizing Music: Cognitive Structure, Theory and Analysis, Oxford Univ. Press, 2002
Friederici, A.D.: Towards a neural basis of auditory sentence processing, Trends. Cogn. Sci., 2002
Démonet, J. et al.: The anatomy of phonological and semantic processing in normal subjects, Brain, 1992
Price, C. et al.: Segregating semantic from phonological processes during reading, J. Cogn. Neurosci., 1997
Friederici, A.D. et al.: Segregating semantic and syntactic aspects of processing in the human brain: an fMRI investigation of different word types, Cereb. Cortex, 2000
Ni, W. et al.: An event-related distinguishing form and content in sentence processing, J. Cogn. Neurosci., 2000
Kuperberg, G. et al.: Common and distinct neural substrates for pragmatic, semantic and syntactic processing of spoken sentences: an fRMI study, J. Cogn. Neurosci. 2000
Baumgaertner, A. et al.: An event-related fMRI reveals cortical sites involved in contextual sentence integration, Neuroimage, 2002
Halgren, E. et al.: N400-like magnetoencephalography responses modulated by semantic context, word frequency and lexical class in sentences, Neuroimage, 2002
Helenius, P. et al.: Distinct time courses of word and context comprehension in the left temporal cortex, Brain, 1998
さらに読む
ジョーンズ、M.R.ほか: 音楽コミュニケーションの認知的基盤、アメリカ心理学会、1992年
Swain, J.: 音楽言語, ニューヨーク, 1997
ラフマン、D: 言語・音楽・心, MIT出版, 1993
Meyer, L.B.: Emotion and Meaning in Music, Univ. of Chicago Press, 1956.
Hevner, K.: 音楽におけるピッチとテンポの感情的価値, Am. J. Psych., 1937
パース、C: パース論文集, ハーバード大学出版局, 1958.
Zbikowski, L.: Conceptualizing Music: 認知構造、理論、分析、オックスフォード大学出版局、2002年
フリーデリチ、A.D: 聴覚文処理の神経基盤に向けて, Trends. Cogn. 科学, 2002
Démonet, J. et al: 健常者における音韻・意味処理の解剖学, 脳, 1992
プライス、C: 音韻処理と意味処理の分離, J. Cogn. 神経科学, 1997
フリーデリチ、A.D.ら: 脳における意味処理と統語処理の分離:異なる単語タイプのfMRI研究, Cereb. Cortex, 2000
Ni,W.ほか: 文処理における形式と内容を区別する事象関連, J. Cogn. 神経科学, 2000
クパーバーグ、G.ら: このような神経回路を持つ脳は、脳神経系と脳内神経系との相互作用が強く、その結果、脳神経系と脳内神経系との相互作用が強くなり、脳神経系と脳内神経系との相互作用が強くなる。Neurosci. 2000
バウムガートナー(Baumgaertner)ら: 事象関連fMRIが文脈文統合に関与する皮質部位を明らかにした, Neuroimage, 2002
Halgren, E. et al: 文の意味文脈、単語頻度、語彙クラスによって変調されるN400様脳磁図反応, Neuroimage, 2002
ヘレニウス、P: 左側頭皮質における単語理解および文脈理解の異なる時間経過、Brain、1998年
https://en.wikipedia.org/wiki/Musical_semantics

++++

Musical syntax

【再掲】音楽統語論(Musical syntax) とは、言語学における統語論からその推論モデルを借りて、音楽にも文章を構成するような統語法則があることを発見したり、その理論にもとづいて研究する議 論のことである。音楽の規則性や構造、脳における音楽の処理を分析するとき、ある発見が、音楽は言語的構文と比較できる構文に基づいているのかという疑問 につながる。この 疑問に近づくためには、言語における構文の基本的な側面を見てみる必要がある。音楽がそれに匹敵する構文を持つのであれば、言語構文の基本的な側面に相当 するものを、音楽構造の中に見出さなければならない。暗黙の了解として、言語と比較した場合の音楽の処理は、音楽の構造に関する情報を与える可能性もあ る。

When analysing the regularities and structure of music as well as the processing of music in the brain, certain findings lead to the question of whether music is based on a syntax that could be compared with linguistic syntax. To get closer to this question it is necessary to have a look at the basic aspects of syntax in language, as language unquestionably presents a complex syntactical system. If music has a matchable syntax, noteworthy equivalents to basic aspects of linguistic syntax have to be found in musical structure. By implication the processing of music in comparison to language could also give information about the structure of music.
音楽の規則性や構造、脳における音楽の処理を分析すると き、ある発見が、音楽は言語的構文と比較できる構文に基づいているのかという疑問につながる。この疑問に近づくためには、言語における構文の基本的な側面 を見てみる必要がある。音楽がそれに匹敵する構文を持つのであれば、言語構文の基本的な側面に相当するものを、音楽構造の中に見出さなければならない。暗 黙の了解として、言語と比較した場合の音楽の処理は、音楽の構造に関する情報を与える可能性もある。
Comparison to linguistic syntax
Syntax in general can be referred to as a study of the principles and rules needed for the construction of a language or as a term in particular describing these principles and rules for a special language.

Linguistic syntax – three principles

Linguistic syntax is especially marked by its structural richness, which becomes apparent in its multi layered organization as well as in the strong relationship between syntax and meaning. That is that there are special linguistic syntactic principles that define how the language is formed out of different subunits, such as words out of morphemes, phrases out of words and sentences out of phrases. Furthermore, linguistic syntax is featured by the fact that a word can take on abstract grammatical functions that are less defined through properties of the word itself and more through the context and structural relations. This is for example that every noun can be used as a subject, object or indirect object, but without a sentence as the normal context of a word, no statement about its grammatical function can be made. At last, linguistic syntax is marked by abstractness. This means that only conventional structural relations and not psychoacoustic relationships are the basis for the linguistic syntax.[1]
言語構文との比較
一般に統語論とは、言語を構築するために必要な原理と規則を研究する学問であり、また、個別主義として、特殊な言語についてこれらの原理と規則を説明する用語である。

言語構文 - 3つの原則

言語統語論は、その構造的な豊かさが特に特徴的であり、それは多層的な構成や、統語論と意味の間の強い関係において明らかになる。つまり、形態素から単 語、単語からフレーズ、フレーズから文というように、異なるサブユニットからどのように言語が形成されるかを定義する特別な言語統語原理が存在する。さら に、言語統語論は、単語が抽象的な文法的機能を持ちうることを特徴としており、この機能は単語自体の特性によって定義されることは少なく、文脈や構造的関 係によって定義される。たとえば、すべての名詞は主体性、目的語、間接目的語として使用できるが、単語の通常の文脈としての文がなければ、その文法的機能 についての記述はできない。最後に、言語構文は抽象性を特徴とする。つまり、言語統語の基礎となるのは従来の構造的関係のみであり、音響心理的関係ではな い[1]。
Musical syntax

Concerning musical syntax these three aspects of richness in linguistic syntax as well as the abstractness should be found in music too, if one wants to claim that music has a comparable syntax. An annotation that has to be made concerns the fact that most of the studies dealing with musical syntax are confined to the consideration of Western European tonal music. Thus this article can also only focus on Western tonal music.[1]

Multilayered organization
Considering the multilayered organization of music, three levels of pitch organization can be found in music.

Scale degrees
The lowest level are musical scales, which consist of seven tones or "scale degrees" per octave and have an asymmetric pattern of intervals between them (for example the C-major scale). They are built up out of the 12 possible pitch classes per octave (A, A♯,B, C, C♯, D, D♯, E, F, F♯, G, G♯) and the different scale tones are not equal in their structural stability. Empirical evidence indicates that there is a hierarchy concerning the stability of the single tones. The most stable one is called the "tonic" and embodies the tonal centre of the scale. The most unstable tones were the ones closest to the tonic (scale degrees 2 and 7), which are called the "supertonic" and the "leading tone". In studies scale degrees 1, 3 and 5 have been judged as closely related. It was also shown that an implicit knowledge of scale structure has to be learned and developed in childhood and is not inborn.

Chord structure

The next superordinate level of pitch organization is the chord structure, which means that three scale tones with a distance of two scale steps each are played simultaneously and are therefore combined into chords. When building up chords on the basis of a musical scale there are three different kinds of chords resulting, namely "major"(e.g. C-E-G), "minor" (e.g. D-F-A) and "diminished" (e.g. B-D-F) triads. This is due to the asymmetric intervals between the scale tones. These asymmetric intervals effect, that a distance of two scale steps can comprise either three or four semitones and therefore be an interval of a minor (with three semitones) or a major (with four semitones) third. A major triad consists of a major third followed by a minor third and is built on scale degrees 1, 3 and 5 (or 4, 6 and 1, for the subdominant, and 5, 7 and 2, for the dominant, the other two major triads that can be formed from the major scale). A minor triad consists of a minor third followed by a major third and is built on scale degrees 2, 4 and 6 (or 3, 5 and 7, for the mediant, and 6, 1 and 4, for the submediant). Only on scale degree 7 the triad consists of two minor thirds and is therefore defined as a diminished triad. Chordal syntax touches mainly four basic aspects. The first is, that the lowest note in each triad functions as a fundament of the chord and therefore as the structural most important pitch. The chord is named after this note as well as the chord's harmonic label is grounded on it. The second aspect is, that chord syntax provides norms for altering chords by additional tones. One example is the addition of a fourth tone to a triad, which is the seventh tone of the scale (e.g. in a C-major scale the addition of F to the triad G-B-D would lead to a so-called "dominant seventh chord"). Concerning norms for the progression of chords in time the third aspect focuses on the relationship between chords. The patterning of chords in a cadence for example indicates a movement from a V chord to a I chord. The fact that the I chord is perceived as a resting point in a musical phrase implicates, that the single chords built up on notes of a scale are not equal in there stability but show the same differences in stability as the notes of the scale do. This describes the fourth basic aspect of chordal syntax. The tonic chord (the one built on the tonic, C-E-G in C-major, for example) is the most stable and central chord, followed by the dominant chord (built on the 5th scale degree) and the subdominant chord (built on the 4th scale degree). "
音楽の構文

音楽統語論に関して、音楽にも同等の統語論があると主張したいのであれば、言語統語論における豊かさと抽象性という3つの側面が、音楽にも見出されるはず である。注釈を加えなければならないのは、音楽統語論を扱った研究のほとんどが、西欧の調性音楽の考察に限定されているという事実である。したがって、こ の論文も西洋の調性音楽にしか焦点を当てることができない[1]。

重層的な構成
音楽の多層的な編成を考えると、音楽には3つのレベルの音高編成が見られる。

音階度
最も低いレベルは音階で、1オクターブあたり7つの音または「音階度」で構成され、その間の音程のパターンは非対称である(例えばハ長調の音階)。これら の音階は、1オクターブあたり12種類の音高(A、A♯、B、C、C♯、D、D♯、E、F、F♯、G、G♯)から構成され、異なる音階音の構造的安定性は 等しくない。経験的な証拠によれば、単一音色の安定性には階層がある。最も安定したものは 「トニック 」と呼ばれ、音階の音色の中心を体現している。最も不安定な音は、トニックに最も近いもの(音階度2と7)で、「スーパートニック」や「リーディングトー ン」と呼ばれる。研究においては、音階度1、3、5は密接に関連していると判断されている。また、音階構造に関する暗黙の知識は幼少期に学習・発達させる 必要があり、先天的なものではないことが示された。

和音構造

音程構成の次の上位レベルは和音構造であり、これは、それぞれ2音階ステップの距離を持つ3つの音階音が同時に演奏されることを意味し、したがって和音に 組み合わされる。音階に基づいて和音を構成する場合、「メジャー」(C-E-Gなど)、「マイナー」(D-F-Aなど)、「ディミニッシュ」(B-D-F など)の3種類の和音が生じる。これは、音階音間の音程が非対称であることに起因する。この非対称音程は、2つの音階ステップの距離が3または4つの半音 で構成されるため、マイナー(半音3つ)またはメジャー(半音4つ)の3分の1の音程になることを意味する。メジャー・トライアドは、メジャー・サードに 続くマイナー・サードで構成され、スケール度1、3、5(サブドミナントの場合は4、6、1、ドミナントの場合は5、7、2。) マイナー・トライアドは、マイナー・サードに続くメジャー・サードで構成され、スケール度2、4、6(メディエントの場合は3、5、7、サブメディエント の場合は6、1、4)で作られる。スケール度7においてのみ、トライアドは2つのマイナー・サードで構成されるため、ディミニッシュ・トライアドと定義さ れる。和音構文は主に4つの基本的な側面に触れる。1つ目は、各三和音の最も低い音が和音の基礎として機能し、したがって構造的に最も重要な音程として機 能することである。和音はこの音にちなんで命名され、和音の和声ラベルもこの音に基づく。第二の側面は、和音の構文が、付加音によって和音を変化させるた めの規範を提供していることである。その一例が、スケールの第7音であるトライアドに第4音を加えることである(例えば、Cメジャー・スケールでは、トラ イアドG-B-DにFを加えると、いわゆる「ドミナント・セブンス・コード」になる)。和音進行の規範に関する3つ目の側面は、和音間の関係に焦点を当て る。例えば、カデンツにおける和音のパターンは、V和音からI和音への移動を示している。Iコードが音楽フレーズの休符として認識されるという事実は、音 階の音符の上に構築された単一の和音は、その安定性において平等ではなく、音階の音符がそうであるように、安定性において同じ差異を示すことを暗示してい る。これは和音構文の4つ目の基本的な側面を表している。トニック・コード(トニックの上に作られるコード、例えばハ長調のC-E-G)は最も安定した中 心的なコードであり、ドミナント・コード(5音階度の上に作られる)、サブドミナント・コード(4音階度の上に作られる)がそれに続く。"
Key structure
The highest level of pitch organization can be seen in key structure. In Western European tonal music the key is based on a scale with its associated chords and chord relations. Scales can be built up as minor or major scales (differing in the succession of intervals between the scale tones) on each of the 12 pitch classes and therefore there are 24 possible keys in tonal music. Analysing key structure in context of musical syntax means to examine the relationship between keys in a piece of music. Usually, not only one key is used to build up a composition, but also so-called key "modulations" (in other words the alteration of keys) are utilized. In these modulations a certain recurring pattern can be perceived. Switches from one key to another are often found between related keys. Three general principles for relationship between keys can be postulated on the basis of perceptual experiments and also neural evidence for implicit knowledge of key structure. Looking at the C-major key as an example, there are three close related keys: G-major, A-minor and C-minor. C-major and G-major are keys whose 1st scale degrees are separated by a musical fifth (the pattern of relations is represented in the circle of fifths" for major keys). A-minor and C-major share the same notes of the scale but with a different tonic (so-called relative minor key, i.e. C-major and A-minor). And C-major and C-minor have the same tonic in their scales. All in all it can be said that music like the human language has a considerable multi layered organization.

Hierarchical structure
Considering the last two basic aspects of linguistic syntax, namely the considerable significance of the order of subunits for the meaning of a sentence as well as the fact that words undertake abstract grammatical functions defined through context and structural relations, it seems to be useful to analyse the hierarchical structure of music to find correlations in music.

Ornamentation
One aspect of hierarchical structure of music is the ornamentation. The meaning of the word "ornamentation" points to the fact that there are events in a musical context that are less important to form an idea of the general gist of a sequence than others. The decision on the importance of events not only comprises harmonic considerations, but also rhythmic and motivic information. But a classification of events simply into ornamental and structural events would be too superficial. In fact the most common hypothesis implies, that music is organized into structural levels, which can be pictured as branches of a tree. A pitch that is structural at a higher level may be ornamental at a deeper level. This can be compared with the hierarchical syntactic structure of a sentence in which there are structural elements that are necessary to build up a sentence like the noun phrase and the verb phrase but looking at a deeper level the structural elements also contain additional or ornamental constituents.


キーストラクチャー
音高編成の最高レベルは調の構造に見られる。西ヨーロッパの調性音楽では、調は音階とそれに関連する和音および和音関係に基づいている。音階は、12の ピッチ・クラスそれぞれにおいて、短音階または長音階(音階音間の音程の連続が異なる)として構築することができるため、調性音楽には24の調が存在す る。音楽構文の文脈で調の構造を分析することは、楽曲における調の関係を調べることを意味する。通常、1つの調だけでなく、いわゆる調の「転調」(言い換 えれば、調の変化)も作曲に利用される。このような転調には、一定のパターンが繰り返される。ある調から別の調への切り替えは、関連する調の間でしばしば 見られる。知覚実験と、調の構造に関する暗黙知の神経的証拠に基づいて、調と調の関係に関する3つの一般原則を仮定することができる。ハ長調を例にとる と、関連性の高い3つの調がある: ト長調、イ短調、ハ短調である。ハ長調とト長調は、第1音階の度数が第5音節で区切られた調である(この関係パターンは、長調の「第5音節の円」で表され る)。A-minorとC-majorは音階の音は同じだが、トニックが異なる(いわゆる相対短調、すなわちC-majorとA-minor)。また、ハ 長調とハ短調は音階のトニックが同じである。総じて言えるのは、人間の言語と同じように、音楽もかなりの多層構造を持っているということだ。

階層構造
言語構文の最後の2つの基本的な側面、すなわち、文の意味に対する下位単位の順序の重要性と、単語が文脈と構造的関係を通して定義される抽象的な文法的機 能を引き受けるという事実を考慮すると、音楽における相関関係を見つけるために音楽の階層構造を分析することは有用であると思われる。

装飾
音楽の階層構造の一つの側面は装飾である。装飾」という言葉の意味は、音楽的な文脈の中で、シークエンスの全体的な要点のアイデアを形成する上で、他のも のよりも重要度の低い出来事があるという事実を指し示している。事象の重要性の判断は、和声的な考慮だけでなく、リズムや動機の情報も含んでいる。しか し、単に装飾的な事象と構造的な事象に分類するのは、あまりに表面的である。実際、最も一般的な仮説では、音楽は構造的なレベルに整理されており、それは 木の枝のように描くことができる。より高いレベルでは構造的な音程でも、より深いレベルでは装飾的な音程になる。これは、名詞句や動詞句のような文を構成 するのに必要な構造的要素がありながら、より深いレベルを見ると、構造的要素には付加的または装飾的な構成要素も含まれているという、文の階層的構文構造 と比較することができる。


Tension and resolution
Searching for other aspects of hierarchical structure of music there is a controversial discussion, if the organization of tension and resolution in music can be described as hierarchical structure or only as a purely sequential structure. According to Patel[1] research in this area has produced apparently contradictory evidence, and more research is needed to answer this question. The question concerning the kind of structure that features tension and resolution in music is linked very close to the relationship between order and meaning in music. Considering tension and resolution as one possible kind of meaning in music a hierarchical structure would imply that a change of order of musical elements would have an influence on the meaning of the music.

Abstractness
The last aspect to examine is the abstractness of linguistic syntax and its correlate in music. There are two contradicting points of views. The first one claims that the foundation for musical scales and for the existence of a tonal centre in music can be seen in the physical basis of overtone series or in the psychoacoustic properties of chord in tonal music respectively. But in recent time there is strong evidence for the second point of view that syntax reflects abstract cognitive relationships.

All in all the consideration of syntax in music and language shows, that music has a syntax comparable to the linguistic syntax especially concerning a great complexity and a hierarchical organization. Nevertheless, it has to be emphasized, that musical syntax is not a simple variant of linguistic syntax, but a similar complex system with its own substance. That means that it would be the wrong way just to search for musical analogies of linguistic syntactic entities such as nouns or verbs.


緊張と解決
音楽の階層構造の他の側面を探すと、音楽における緊張と決着の組織は階層構造として記述できるのか、それとも純粋に連続的な構造としてのみ記述できるの か、論争的な議論がある。Patel[1]によれば、この分野の研究では明らかに矛盾した証拠が得られており、この疑問に答えるにはさらなる研究が必要で ある。音楽における緊張と解決を特徴とする構造の種類に関する問題は、音楽における秩序と意味の関係と非常に密接に結びついている。緊張と解決を音楽にお ける意味の1つの可能性として考えると、階層的な構造は、音楽要素の順序の変化が音楽の意味に影響を与えることを意味する。

抽象性
最後に考察するのは、言語的構文の抽象性と音楽におけるその関連性である。矛盾する2つの見解がある。ひとつは、音階の基礎は倍音系列の物理的基礎に、音 楽における調性中心の存在は調性音楽における和音の心理音響的特性に、それぞれ見ることができると主張するものである。しかし最近では、統語論は抽象的な 認知関係を反映しているという第二の視点に対する強力な証拠がある。

音楽と言語における統語論を総合的に考察すると、音楽には言語的統語論に匹敵する統語論があり、特にその複雑さと階層的な構成は言語的統語論に匹敵する。 とはいえ、音楽統語論は言語統語論の単純な変形ではなく、独自の実体を持つ同様の複雑なシステムであることを強調しなければならない。つまり、名詞や動詞 のような言語的統語論的実体の音楽的類似性を探すのは間違った方法だということだ。


Neuronal processing of musical and linguistic syntax
Investigating the neuronal processing of musical syntax can serve two proposed aspects.[2] The first is to learn more about the processing of music in general. That is, which areas of the brain are involved and if there are specific markers of brain activity due to the processing of music and musical syntax. The second aspect is to compare the processing of musical and linguistic syntax to find out, if they have an effect upon each other or if there even is a significant overlap. The verification of an overlap would support the thesis, that syntactic operations (musical as well as linguistic) are modular. "Modular" means, that the complex system of processing is decomposed into subsystems with modular functions. Concerning the processing of syntax this would mean, that the domain of music and language each have specific syntactic representations, but that they share neural resources for activating and integrating these representations during syntactic processing.


音楽的構文と言語的構文の神経細胞処理
音楽統語の神経細胞処理を調査することは、2つの側面から提案された役割を果たすことができる。つまり、脳のどの領域が関与しているのか、音楽と音楽構文 の処理による脳活動の特異的なマーカーが存在するのかどうかということである。第二の側面は、音楽的構文と言語的構文の処理を比較し、それらが互いに影響 し合っているのか、あるいは有意な重複があるのかを調べることである。重複の検証は、統語的操作(音楽的操作と言語的操作)はモジュール化されているとい うテーゼを支持するだろう。「モジュラー」とは、複雑な処理システムがモジュラー機能を持つサブシステムに分解されることを意味する。構文の処理に関して 言えば、音楽と言語の領域はそれぞれ特定の構文表現を持っているが、構文処理中にこれらの表現を活性化し統合するための神経資源を共有しているということ になる。

Processing of music and musical syntax
Requirements
Processing of music and musical syntax comprises several aspects concerning melodic, rhythmic, metric, timbral and harmonic structure. For the processing of chord functions four steps in processing can be described. (1)Primarily, a tonal centre has to be detected out of the first chords of a sequence. Often the first chord is interpreted as the tonal centre of a sequence and a reevaluation is necessary, if the first chord has another harmonic function. (2)Successive chords are related to this tonal centre concerning their harmonic distance from the tonal centre. (3)As described above (Does music have a syntax?), music has a hierarchical structure in terms of pitch organization and organization of tensioning and releasing in music. Pitch organization concerning chords means, that in a musical phrase the tonic is the most stable chord and experienced as the resting point. The dominant and subdominant anon are more stable than the submediant and the supertonic. The progression of chords in time forms a tonal structure based on pitch organization, in which moving away from the tonic is perceived as tensioning and moving towards the tonic is experienced as releasing. Therefore, hierarchical relations may convey organized patterns of meaning. (4)Concerning harmonic aspects of major-minor tonal music, Musical syntax can be characterized by statistical regularities in the succession of chord functions in time, that is probabilities of chord transitions. As these regularities are stored in a long-term memory, predictions about following chords are made automatically, when listening to a musical phrase.


音楽と音楽構文の処理
必要条件
音楽と音楽構文の処理は、旋律、リズム、拍子、音色、和声構造に関するいくつかの側面から構成される。和音機能の処理については、4つのステップを説明す ることができる。(1)第一に、シーケンスの最初の和音から調性の中心を検出しなければならない。多くの場合、最初の和音はシーケンスの調性中心と解釈さ れ、最初の和音に別の和声機能がある場合は再評価が必要である。(2)連続する和音は、調性中心からの和声的距離に関して、この調性中心に関係する。 (3)前述したように(音楽には構文があるのか)、音楽には音高編成や緊張と解放の編成という点で階層構造がある。和音に関する音程構成とは、音楽フレー ズにおいてトニックが最も安定した和音であり、休符として経験されることを意味する。ドミナントとサブドミナントは、サブメディエントやスーパートニック よりも安定している。時間の中での和音の進行は、トニックから離れると緊張し、トニックに向かうと解放されるように知覚される、音程構成に基づく調性構造 を形成する。したがって、階層的な関係は、意味の組織化されたパターンを伝える可能性がある。(4)メジャー・マイナー調性音楽の和声的側面に関して、音 楽統語論は、和音機能の時間的連続における統計的規則性、すなわち和音遷移の確率によって特徴づけられる。これらの規則性は長期記憶に保存されているた め、音楽フレーズを聴いたときに、次の和音に関する予測が自動的に行われる。

MMN and ERAN
Source:[3]

The violation of these automatically made predictions lead to the observation of so-called ERPs (event related potential, a stereotyped electrophysiological response to an internal or external stimulus). Two forms of ERPs can be detected in the context of processing music. One is the MMN (mismatch negativity), which has first been investigated only with physical deviants like frequency, sound intensity, timbre deviants (referred to as phMMN) and could now also be shown for changes of abstract auditory features like tone pitches (referred to as afMMN). The other one is the so-called ERAN (early right anterior negativity), which can be elicited by syntactic irregularities in music. Both the ERAN and the MMN are ERPs indicating a mismatch between predictions based on regularities and actually experienced acoustic information. As for a long time it seemed to be, that the ERAN is a special variant of the MMN, the question arises, why they are told apart today. There are several differences between the MMN and the ERAN found in the last years:
MMNとERAN
出典:[3]

このような自動的な予測の違反は、いわゆるERP(事象関連電位、内的または外的刺激に対する定型的な電気生理学的反応)の観察につながる。音楽を処理す る文脈では、2種類のERPが検出される。ひとつはMMN(mismatch negativity)で、周波数、音の強さ、音色の逸脱といった物理的な逸脱(phMMNと呼ばれる)に対してのみ研究されてきたが、現在では音高のよ うな抽象的な聴覚的特徴の変化(afMMNと呼ばれる)に対しても示されるようになった。もうひとつは、いわゆるERAN(early right anterior negativity)で、音楽の構文の不規則性によって誘発される。ERANもMMNも、規則性に基づく予測と実際に経験した音響情報とのミスマッチを 示すERPである。長い間、ERANはMMNの特殊な変種であると考えられてきたが、今日、なぜ両者が区別して語られるようになったのかという疑問が生じ る。MMNとERANには、ここ数年の間にいくつかの異なる点が見つかっている:
Differences – occurrence
Even though music syntactic regularities are often simultaneously acoustical similar and music syntactic irregularities are often simultaneously acoustical different, an ERAN but not an MMN can be elicit, when a chord does not represent a physical but a syntactic deviance. To demonstrate this, so-called "Neapolitan sixth chords" are used. These are consonant chords when played solitary, but which are added into a musical phrase of in which they are only distantly related to the harmonic context. Added into a chord sequence of five chords, the addition of a Neapolitan sixth chord at the third or at the fifth position evokes different amplitudes of ERANs in the EEG with a higher amplitude at the fifth position. Nevertheless, when creating a chord sequence in which the Neapolitan chord at the fifth position is music-syntactically less irregular than a Neapolitan chord at the third position, the amplitude is higher at the third position (see figure 4...). In opposition to the MMN, a clear ERAN is also elicited by using syntactically irregular chords, which are acoustically more similar to a proceeding harmonic context than syntactically regular chords. Therefore, the MMN seems to be based on an on-line establishment of regularities. That means, that the regularities are extracted on-line from the acoustic environment. In opposition, the ERAN rests upon representations of music-syntactic regularities which exist in a long-term memory format and which are learned during early childhood.
異なる音 - 発生
音楽の統語的規則性はしばしば同時に音響的に類似し、音楽の統語的不規則性はしばしば同時に音響的に異なるにもかかわらず、和音が物理的ではなく統語的な 逸脱を表す場合、ERANは引き出されるが、MMNは引き出されないことがある。これを実証するために、いわゆる「ナポリ6和音」が使われる。これらの和 音は、単独で演奏されるときは子音和音だが、和声的な文脈とは遠縁のものでしかない音楽フレーズに付加される。5つの和音で構成される和音列にナポリ6和 音を追加すると、3番目の位置と5番目の位置で異なるERANの振幅が脳波に呼び起こされ、5番目の位置で振幅が大きくなる。それにもかかわらず、第5ポ ジションのナポリタン和音が第3ポジションのナポリタン和音よりも音楽的合成的に不規則でない和音列を作る場合、振幅は第3ポジションの方が高くなる(図 4...参照)。MMNとは反対に、構文的に規則的な和音よりも、音響的に進行する和声的文脈に近い、構文的に不規則な和音を使うことによっても、明確な ERANが引き出される。したがって、MMNは規則性をオンラインで確立することに基づいているようだ。つまり、規則性は音響環境からオンラインで抽出さ れる。これに対してERANは、幼児期に学習された長期記憶形式の音楽統語的規則性の表現に基づいている。
Differences – development
This is represented in the development of the ERAN and MMN. The ERAN cannot be verified in newborn babies, whereas the MMN can actually be demonstrated in fetus. In two-year-old children, the ERAN is very small, in five-year-old children a clear ERAN is found, but with a longer latency than in adults. With the age of 11 years children show an ERAN similar to ERANs in adults. Out of these observation the thesis can be built that the MMN is essential for the establishment and maintenance of representations of the acoustic environment and for processes of the auditory scene analysis. But only the ERAN is completely based on learning to build up a structural model, which is established with reference to representations of syntactic regularities already existing in a long-term memory format. Considering effects of training both the ERAN and the MMN can be modulated by training.


異なる点 - 開発
これはERANとMMNの発達に表れている。ERANは新生児では確認できないが、MMNは胎児で実際に確認できる。2歳児ではERANは非常に小さく、 5歳児では明確なERANが認められるが、成人よりも潜伏期間が長い。11歳になると、成人のERANと同様のERANが認められる。これらの観察から、 MMNは音響環境の表象の確立と維持、および聴覚情景の分析過程に不可欠であるという論文が構築される。しかし、ERANだけは完全に構造モデルを構築す る学習に基づくものであり、長期記憶フォーマットにすでに存在する統語的規則性の表象を参照して確立される。訓練の効果を考慮すると、ERANもMMNも 訓練によって調節することができる。


Differences – neural sources
Differences between the ERAN and the MMN also exist in the neural sources for the main contributions to the ERPs. The sources for the ERAN are located in the pars opercularis of the inferior fronto-lateral cortex (inferior Brodmann's area with contributions from the ventrolateral premotor cortex and the anterior superior temporal gyrus, whereas the MMN receives its main contributions from and within the vicinity of the primary auditory cortex with additional sources in the frontal cortical areas. Therefore, the sources for the ERAN basically lie in the frontal cortex whereas the sources for the MMN are located in the temporal lobe. Other hints for this thesis emerge from the fact that under a propofol sedation which mainly affects the frontal cortex, the ERAN is abolished while the MMN is only reduced. At last, the amplitude of the ERAN is reduced under ignore conditions whereas the MMN is largely unaffected by attentional modulations.
異なる神経源
ERANとMMNの間には、ERPへの主な寄与の神経源にも異なる点がある。ERANの神経発生源は下前外側皮質のpars opercularis(下ブロードマン野)にあり、腹外側運動前野と上側頭回前部が寄与しているのに対し、MMNは一次聴覚野とその近傍にあり、さらに 前頭皮質が寄与している。したがって、ERANの発生源は基本的に前頭皮質にあるのに対し、MMNの発生源は側頭葉にある。この論文に対する他のヒント は、主に前頭皮質に作用するプロポフォール鎮静下で、ERANが消失する一方、MMNは減少にとどまるという事実から浮かび上がってくる。最後に、 ERANの振幅は無視条件下で減少するのに対して、MMNは注意調節の影響をほとんど受けない。
Processes to elicit the MMN or ERAN
(1)First, a separation of sound sources, an extraction of sound features and the establishment of representations of auditory objects of the incoming acoustic input have to be made. The same processes are required for the MMN and ERAN.

(2)For the MMN regularities are filtered on-line out of the input to create a model of the acoustic environment. At this point, there is a difference to the ERAN as for the ERAN representations of regularities already exist in a long-term memory format and the incoming sound is integrated into a pre existent model of musical structure.

(3)According to the model of musical structure, predictions concerning forthcoming auditory events are formed. This process is similar for the ERAN and for the MMN.

(4)At least a comparison between the actually incoming sound and the predictions based on the model is made. This process is partly the same for the MMN and the ERAN as well.


MMNまたはERANを引き出すプロセス
(1)まず、音源の分離、音の特徴の抽出、入力された音響の聴覚的対象の表象の確立を行う。これはMMNでもERANでも同じである。

(2)MMNでは、入力から規則性をオンラインでフィルタリングし、音響環境のモデルを作成する。この時点でERANとは異なり、ERANでは規則性の表現がすでに長期記憶のフォーマットとして存在し、入力された音はあらかじめ存在する音楽構造のモデルに統合される。

(3)音楽構造のモデルに従って、これから起こる聴覚的な出来事に関する予測が形成される。このプロセスはERANでもMMNでも同様である。

(4)少なくとも、実際に入力された音と、モデルに基づく予測との比較が行われる。このプロセスはMMNでもERANでも一部同じである。


Comparison of the processing of musical and linguistic syntax
Source:[1]

As the ERAN is similar to an ERP called ELAN which can be elicited by violation of linguistic syntax it seems to be obvious that the ERAN really represents syntactic processing. Deduced from this thought an interaction between music-syntactic and language-syntactic processing would be very likely.There are different possibilities in neuroscience to approach to an answer to the question of an overlap between the neuronal processing of linguistic and musical syntax.
音楽的構文と言語的構文の処理の比較
出典:[1]

ERANは、言語構文の違反によって誘発されるELANと呼ばれるERPと類似しているため、ERANが本当に構文処理を表していることは明らかであるよ うに思われる。この考えから推測すると、音楽-統語処理と言語-統語処理の間の相互作用は非常にありそうだ。神経科学では、言語統語と音楽統語の神経細胞 処理の重複という疑問に対する答えに近づくために、異なる可能性がある。
Neuropsychological approach
This method deals with the question, how structure and function of the brain relate to outcomes in behaviour and other psychological processes. From this area of research there has been evidence for the dissociation between musical and linguistic syntactic abilities. In case reports it was possible to show that amusia ( a deficiency in fine-grainded perception of pitch which leads to musical tone-deafness and can be congenital or acquired later in life as from brain damage) is not necessarily linked to aphasia (severe language impairments following brain damage) and vice versa. This means that individuals with normal speech and language abilities showed musical tone-deafness as well as individuals with language impairments had sufficient means of musical syntactic abilities. The problem of neuropsychologic research is that there has not been a former case report which showed that aphasia does not necessarily entail amusia in non-musicians, to the contrary newer findings suggest that amusia is almost always linked to aphasia.
神経心理学的アプローチ
この方法は、脳の構造と機能が、行動やその他の心理的プロセスの結果にどのように関係しているかという問題を扱う。この分野の研究から、音楽的能力と言語 的統語能力の間に解離があることが証明されている。症例報告では、無音症(先天性または後天性の脳損傷による音楽的音痴につながる、微細な音感知覚の欠 損)が必ずしも失語症(脳損傷に伴う重度の言語障害)と関連しているとは限らず、その逆もまた然りであることを示すことができた。つまり、正常な言語能力 を持つ人が音楽的音痴を示すだけでなく、言語障害を持つ人が十分な音楽的統語能力を持つということである。神経心理学的研究の問題点は、失語症が必ずしも 非音楽家における無音症を伴わないことを示したかつての症例報告がないことであり、それどころか、新しい知見は、無音症がほとんど常に失語症と関連してい ることを示唆している。
Neuroimaging
Furthermore, results from neuroimaging led to the "shared syntactic integration resource hypothesis" (SSIRH), which supports the presumption, that there is an overlap between the processing of musical and linguistic syntax and that syntactic operations are modular. Furthermore, research using the method of electroencephalography has shown that a difficulty or irritation in musical as well as in linguistic syntax elicit ERPs which are similar to each other.

How can the discrepancy between neuropsychology and neuroimaging be explained?
ニューロイメージング
さらに、神経イメージングの結果は、音楽的構文と言語的構文の処理には重複があり、構文操作はモジュール化されているという推定を支持する「共有構文統合 資源仮説」(SSIRH)につながった。さらに、脳電図法を用いた研究では、音楽的構文と言語的構文における困難や刺激が、互いに類似したERPを引き起 こすことが示されている。

神経心理学と神経画像との食い違いはどのように説明できるのだろうか?
Modularity
In fact, the concept of modularity itself can help to understand the different and apparently contradicting findings in neuropsychologic research and neuroimaging. Introducing the concept of a dual system, in which there is a distinction between syntactic representation and syntactic processing, this could mean, that there is a distinction between long-term structural knowledge in a domain (representation) and operations conducted on that knowledge (syntactic processing). A damage in an area representing long-term musical knowledge would lead to amusia without aphasia, but a damage in an area representing syntactic processing would cause an impairment of both musical and linguistic syntactic processing.
モジュール性
実際、モジュール性という概念そのものが、神経心理学的研究と神経画像診断における異なる、そして一見矛盾する所見を理解するのに役立つ。統語的表現と統 語的処理の間に区別があるという二重システムの概念を導入すると、ある領域における長期的な構造的知識(表現)と、その知識に基づいて行われる操作(統語 的処理)の間に区別があるということになる。長期的な音楽的知識を表す領域が損傷すれば、失語症を伴わない無気力症が生じるが、構文処理を表す領域が損傷 すれば、音楽的構文処理と言語的構文処理の両方が障害されることになる。
Comparison of syntactic processing-three theories
The comparison of the syntactic processing of language and music is based on three theories which should be mentioned but which are not explained in detail. The first two, the "dependency locality theory" and the "expectancy theory" refer to syntactic processing in language, whereas the third one, the "tonal pitch space theory", relates to the syntactic processing in music.

The language theories contribute to the concept that in order to conceive the structure of a sentence, resources are consumed. If the conception of a this structure is difficult due to the fact that distant words belong to each other or an expected structure of the sentence is violated, more resources, namely the ones for activating low-activation items, are consumed.

Violating an anticipated structure in music could mean a harmonically unexpected note or chord in a musical sequence. As in language this is associated with a "processing cost due to the tonal distance" (Patel, 2008) and therefore means that more resources are needed for activating low-activation items.

構文処理の比較-3つの理論
言語と音楽の構文処理の比較は、3つの理論に基づいている。最初の2つ、「従属性局所性理論」と「期待理論」は言語の構文処理に関するものであり、3つ目の「音調ピッチ空間理論」は音楽の構文処理に関するものである。

言語理論は、文の構造を構想するために資源が消費されるという概念に寄与している。離れた単語が互いに属していたり、文の予想される構造に反していたりす るために、この構造の構想が困難な場合、より多くのリソース、すなわち低活性化項目を活性化するためのリソースが消費される。

音楽で予想される構造に違反するということは、音楽のシーケンスにおいて、和声的に予期せぬ音や和音を意味する。言語と同様、これは「調性の距離による処 理コスト」(Patel, 2008)と関連しているため、低活性化項目を活性化するためにより多くのリソースが必要になることを意味する。


SSIRH – the leading concept
Overall these theories lead to the "shared syntactic integration resources hypothesis" as the areas from which low-activation items are activated could be the correlate to the overlap between linguistic and musical syntax. Strong evidence for the existence of this overlap comes from studies, in which music-syntactic and a linguistic-syntactic irregularities were presented simultaneously. They showed an interaction between the ERAN and the LAN (left anterior negativity;ERP which is elicited by linguistic-syntactic irregularities). The LAN elicited was reduced when an irregular word was presented simultaneously with an irregular chord compared to the condition when an irregular word was presented with a regular chord. Contrary to this finding the phMMN elicited by frequency deviants did not interact with the LAN.

From this facts it can be reasoned that the ERAN relies on neural resources related to syntactic processing (Koelsch 2008). Furthermore, they give strong evidence for the thesis, that there is an overlap between the processing of musical and linguistic syntax and therefore that syntactic operations (musical as well as linguistic) are modular.

SSIRH-先行概念
これらの理論を総合すると、低活性化項目が活性化される領域が、言語統語と音楽統語の重なりに相関する可能性があるとして、「統語統合資源の共有仮説」が 導かれる。この重複の存在を示す強力な証拠は、音楽統語と言語統語の不規則性を同時に提示した研究から得られている。その結果、ERANとLAN(左前部 陰性:言語的・統語的不規則性によって誘発されるERP)の間に相互作用が見られた。不規則な単語と不規則な和音が同時に呈示された場合、不規則な単語と 規則的な和音が同時に呈示された場合に比べ、誘発されるLANは減少した。この所見とは逆に、頻度偏差によって誘発されるphMMNはLANと相互作用し なかった。

この事実から、ERANは構文処理に関連する神経資源に依存していると推論できる(Koelsch 2008)。さらに、音楽的統語と言語的統語の処理には重複があり、したがって統語的操作(音楽的操作と言語的操作)はモジュール化されているというテー ゼの強力な証拠となる。

1. Patel, A.D. (2008). Music, Language, and the Brain. Oxford University Press, USA
2. Patel, A.D. (2003). Language, music, syntax and the brain]. Nature Neuroscience. 6(7):674-681
3. Koelsch, S. (2009). "Music-syntactic Processing and Auditory Memory – Similarities and Differences between ERAN and MMN". Psychophysiology, 46(1): 179-190.
1. Patel, A.D. (2008). 音楽、言語、そして脳。オックスフォード大学出版局、米国
2. Patel, A.D. (2003). 言語、音楽、構文と脳]。Nature Neuroscience. 6(7):674-681
3. Koelsch, S. (2009). 「音楽統語処理と聴覚記憶-ERANとMMNの類似点と相違点". Psychophysiology, 46(1): 179-190.
https://en.wikipedia.org/wiki/Musical_syntax

リ ンク

リ ンク

文 献

そ の他の情報


Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099

Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099

Mitzub'ixi Quq Chi'j