Als ich vor 20 Jahren anfing, ernsthaft Musik zu machen, erwählte ich mir zwei Instrumente, die auf dem ersten Blick kaum verschiedener sein könnten: die Singstimme und das Keyboard bzw. den Synthesizer. Man sollte meinen, dass diese beiden Instrumente nichts miteinander gemein haben: die Stimme ist das älteste und natürlichste, der Synthesizer das jüngste und "unnatürlichste" (obwohl Klaus Schulze bekanntlich festgestellt hat, dass Geigen auch nicht auf Bäumen wachsen), technisch am höchsten entwickelte Instrument. Doch haben beide Instrumente, wie ich bald feststellte, trotz allem vieles gemeinsam!
Warum kann eine Geige (oder fast jedes andere Instrument) nicht sprechen? Warum besteht der wichtigste Unterschied zwischen Vokal- und Instrumentalmusik darin, dass der Sänger mit der Musik (in der Regel) einen sprachlichen Text vorträgt, der Instrumentalist hingegen nicht? Warum also ist Instrumentalmusik Musik ohne Worte? Das liegt daran, dass beim Instrument die Formanten, also die die Klangfarbe bestimmenden Frequenzbereiche, in denen die Obertöne verstärkt werden, durch die Konstruktion des Instruments fest vorgegeben sind. Bei der menschlichen Stimme sind die Formanten hingegen variabel, indem der Sprecher oder Sänger durch Bewegungen der Lippen und der Zunge die Form und damit das Resonanzverhalten des Vokaltrakts verändert. Dadurch lassen sich verschiedene Klangfarben und damit die verschiedenen Sprachlaute erzeugen.
Ein Synthesizer hingegen kann sprechen. Sogar ein relativ einfacher Synthesizer. In den 80er Jahren gab es einen Heimcomputer, den Commodore 64, mit damals achtbaren Leistungsdaten - und einem eingebauten kleinen Synthesizer. Für dieses Gerät gab es ein Programm namens SAM/Reciter, das diesen Synthesizer (mit einer zwar unnatürlichen, aber verständlichen Stimme) zum Sprechen brachte. Warum aber kann ein Synthesizer sprechen? Ganz einfach: weil seine Formanten nicht fest vorgegeben, sondern wie bei der menschlichen Stimme variabel sind. Auf diese Weise funktioneren Sprachsynthesizer und auch der Vocoder, ein Gerät, das die Formanten des Eingangssignals ermittelt und einen Synthesizer entsprechend ansteuert.
Das bedeutet aber im Umkehrschluss: Die menschliche Stimme ist ein Synthesizer! Man kann sie benutzen, um eine Vielzahl von Kölängen gervorzubringen, die sich durchaus mit den Klangmöglichkeiten zumindest analoger Synthesizer vergleichen lässt (digitale Synthesizer können freilich mehr, insbesondere wenn es um die Nachbildung herkömmlicher Instrumente geht). Genau das meine ich mit vokaler Klangsynthese. Zwar besteht die Einschränkung, dass die menschliche Stimme lediglich monophon ist, also nur einen Ton gleichzeitig und keine Akkorde erzeugen kann (was aber auch für die meisten frühen Synthesizer galt), und auch der Tonumfang begrenzt ist - und man natürlich nicht gleichzeitig singen und "Synthesizer spielen" kann; doch lassen sich diese "Mängel" dadurch teilweise "beheben", dass man die Stimme in einem Sampler speichert, so dass man sie wie ein herkömmliches Keyboard spielen kann.
Als Kind habe ich immer schon mit meiner Stimme die verschiedensten Geräusche, einschließlich diverser Musikinstrumente, nachgeahmt - wie das viele Kinder tun. Später habe ich mich mit solchen Experimenten zurückgehalten, zumindest in der Öffentlichkeit. Aber ganz aufgehört habe ich damit nie! Als ich dann 2005 anfing, Synthesizer zu spielen, beschäftigte ich mich auch mit der Funktionsweise und Geschichte dieses Instruments. Dabei stieß ich auf Begriffe wie den des Formanten, die ich aus einem weiteren meiner Hobbys, der Sprachwissenschaft, kannte. Ich erfuhr auch, dass Werner Meyer-Eppler, einer der "Großväter" des Synthesizers (der noch keinen Synthesizer baute, aber wesentliche Beiträge zu der zugrunde liegenden Theorie leistete), von Haus aus Phonetiker war.
Ein wesentlicher Impuls zur Entwicklung der vokalen Klangsynthese ging von einem Stimmbildungs-Workshop in dem Chor, in dem ich singe, aus. Dort händigte uns die Stimmbildnerin ein Diagramm der Gesangstechnik aus, das mich stark an das Blockdiagramm eines Synthesizers erinnerte. Gesang und Synthesizer funktionierten ganz änlich! Es gibt in der Stimme einen "Oszillator" (die Stimmlippen) und verstellbare "Filter" (den Vokaltrakt). Des weiteren sang und spielte ich in einer Band Keyboard; beim Üben zu Hause ahmte ich dann an Stellen, wo das möglich war (also da, wo ich nicht sang), mit meiner Stimme andere Instrumente, wie die Leadgitarre, nach. Auch benutzte ich die Stimme in der Band für Geräuscheffekte. Von da war es dann kein weiter Weg mehr zur Technik der vokalen Klangsynthese.
Diese Gedanken gilt es noch in die Praxis umzusetzen. Ich beabsichtige, eine DAW auf meinem Laptop zu installieren und verschiedene Klänge meiner Stimme zu samplen. Das Ergebnis wäre ein Synthesizer mit der intuitivsten Klang-"Programmierung", die man sich denken kann: man singt den Klang, den man sich vorstellt, in die Maschine, fertig!
© 2025 Jörg
Rhiemeier
Letzte Änderung: 2025-05-11