Konstituenz ist eine Art, die Tatsache zu konzeptualisieren, daß in einer Kette von Zeichen einige enger zusammengehören als andere. Gleichzeitig aber ist, wie in Kap. 2.3.2 festgestellt worden war, die Reihenfolge der Konstituenten in Konstituentenstrukturregeln signifikant. Die Regeln drücken also eigentlich zwei Dinge gleichzeitig aus, nämlich erstens die hierarchische Struktur und zweitens die Reihenfolge der eingeführten Konstituenten. Das sind jedoch zwei Dinge, die prinzipiell nicht Hand in Hand zu gehen brauchen.
B1. | a. | Habt ihr von Peter jemals eine Spur gefunden? |
b. | Wir sind nach Amerika geschwommen. | c. | Sie zog eine Schau ab. |
Die Sätze von B1 enthalten je zwei Konstituenten - hier unterstrichen -, die eine unmittelbare syntaktische Beziehung zueinander haben, jedoch nicht nebeneinander stehen. Sie sind also Beispiele für diskontinuierliche Strukturen. Ein Sprachzeichen (inkl. eines Syntagmas) ist diskontinuierlich gdw. sein Significans aus nicht aneinandergrenzenden Teilen besteht. In einer Konstituentenstrukturgrammatik gibt es keine Möglichkeit, die Zusammengehörigkeit der unterstrichenen Konstituenten von B1 unmittelbar zu repräsentieren.
Dafür, daß diese diskontinuierlichen Konstituenten wirklich syntaktisch zusammenhängen, bieten solche alternativen Formulierungen der entsprechenden Strukturen ein Argument, in denen die diskontinuierlichen Konstituenten kontinuierlich sind. So findet man für B1 die alternativen Strukturen von B2.
B2. | a. | Habt ihr jemals eine Spur von Peter gefunden? |
b. | daß wir nach Amerika geschwommen sind | |
c. | daß sie eine Schau abzog |
Für B2 macht eine konstituentenstrukturelle Darstellung keine Schwierigkeiten. Damit ist freilich das Problem von B1 noch nicht gelöst. Eine Möglichkeit, es zu lösen, bieten die Transformationen. Eine solche Regel könnte beispielsweise B2.b in B1.b überführen. Informell müßte sie ungefähr wie folgt lauten: Bei der Transformation eines Nebensatzes in einen Hauptsatz ist folgende Umstellung vorzunehmen: Wenn die finite Verbform des Nebensatzes die periphrastische Struktur 'Partizip Perfekt + finites Hilfsverb' hat, so nimmt im Hauptsatz nur das Hilfsverb die (übliche zweite) Position des finiten Verbs ein, während das Partizip die Stellung wie im Nebensatz behält, nun also am Ende des Satzes steht. Diese Regel können wir wie folgt formalisieren:
[ | daß | W | X | [ YV.inf | ZAux ]V ]S | → | [ W | Z | X | Y ]S |
Bedingung: W ist genau eine Konstituente. |
Ähnliche Regeln könnten wir für B1 und B2 .a und c schreiben.
Die vorgeführten Transformationen haben gemeinsam, daß links des Pfeils mehr als ein Symbol steht; das Entsprechende ist für Konstituentenstrukturregeln verboten. Das besagt nichts anderes, als daß syntaktische Strukturen durch Konstituentenstrukturregeln allererst gebildet, durch Transformationen bloß noch abgeändert werden. Ferner zeigt die Formalisierung anschaulich, daß der Input der Regel strukturiert ist und daß die Regel, indem sie Diskontinuität herbeiführt, diese Struktur zerstört.
Transformationen kann man noch zur Beschreibung weiterer Eigenschaften syntaktischer Strukturen benutzen; darauf brauchen wir hier nicht einzugehen. Wir sollten uns stattdessen noch klarmachen, auf welche Weise das Problem der diskontinuierlichen Strukturen durch die Transformationen gelöst wird:
Es gibt eine Menge von syntaktischen Strukturen, die man direkt beschreibt, d.h. denen man mithilfe der Konstituentenstrukturregeln unmittelbar eine syntaktische Struktur zuweisen kann. Eine andere Menge syntaktischer Strukturen - darunter alle diskontinuierlichen Strukturen - beschreibt man nur indirekt, indem man sie mithilfe von Transformationen aus den direkt beschriebenen ableitet. Das bedeutet aber, daß die direkt beschriebenen vor den transformierten Strukturen einen besonderen grammatiktheoretischen Status erhalten; sie gelten als "Kern" der syntaktischen Strukturen der Sprache oder, in anderen Modellen, als "Tiefenstrukturen" (oder was der terminologischen Varianten mehr sind).1 Dieser Sonderstatus ist jedoch nicht sprachtheoretisch begründet in dem Sinne, daß die durch Transformation beschriebenen Sätze tatsächlich irgendwie strukturlos oder komplexer oder marginaler oder sonst etwas wären; sondern er ist allein eine Konsequenz der Tatsache, daß unser Grammatikmodell eine Konstituentenstrukturgrammatik involviert und daß diese die betreffenden Sätze nicht anders zu beschreiben erlaubt. Sie erlaubt dies nicht, weil sie die Annahme enthält, solche Sprachzeichen, die syntaktisch aufeinander bezogen sind, müßten auch unmittelbar nebeneinander stehen.
Die Konstituentenstrukturgrammatik ist von anglophonen Linguisten für das Englische ersonnen worden. Das Englische hat eine vergleichsweise feste Wortstellung, wo das syntaktisch Zusammengehörige i.a. auch nebeneinander steht. Hier kommt man mit einer Konstituentenstrukturgrammatik ziemlich weit. Eine Vielzahl von Sprachen hat jedoch eine viel freiere Wortstellung. Unter den indogermanischen Sprachen gehören dazu etwa Latein und Altindisch, unter den australischen Walbiri und Djirbal. Das Nebeneinanderstehen des syntaktisch Zusammengehörigen ist hier nur ein möglicher Fall neben vielen anderen möglichen Anordnungen der Sprachzeichen. Eine Konstituentenstrukturgrammatik wäre solchen Sprachsystemen unangemessen. Wie B1 gezeigt hat, kommt man bereits für das Deutsche in Schwierigkeiten.
Das grammatiktheoretische Fazit ist, daß Transformationen nützlich sind, um syntaktische Paradigmen zu beschreiben. Das setzt voraus, daß die Konstruktionen, welche in paradigmatischer Beziehung stehen, zunächst separat beschrieben werden. Die Transformation macht dann nur noch ihre Beziehung explizit. Die Transformation ist insoweit dann nicht gerichtet; sie könnte ebensowohl A
in B
wie B
in A
transformieren. Kann jedoch eine Grammatiktheorie (z.B. die Konstituentenstrukturgrammatik) eine Menge von Konstruktionen überhaupt nur dadurch beschreiben, daß sie sie transformationell aus anderen Konstruktionen ableitet, so ist sie ceteris paribus komplexer (und somit schlechter) als eine andere Grammatiktheorie (z.B. die Dependenzgrammatik), welche alle Konstruktionen direkt beschreiben kann.
1. | Komplexe Verben |
1 Angenommen, die Aufgabe einer formalen Grammatik ist es, die Sätze einer Sprache aufzuzählen (zu “generieren”). Eine solche formale Grammatik kann man aus zwei Komponenten zusammensetzen. Die erste Komponente besteht aus einer Menge von Formationsregeln, welche eine Menge von Sätzen bilden. Die zweite Komponente besteht aus einer Menge von Transformationsregeln, welche die zuerst gebildeten Sätze in weitere umformen. Die Formationsregeln können als Expansions- und somit als Konstituentenstrukturregeln formuliert werden.