Open Access
CC BY-NC-ND 4.0 · Laryngorhinootologie 2023; 102(S 01): S3-S11
DOI: 10.1055/a-1973-5087
Referat

Hören und Kognition im Kindesalter

Article in several languages: deutsch | English
Andrej Kral
1   Institut für AudioNeuroTechnologie (VIANNA) & Abt. für experimentelle Otologie, Exzellenzcluster Hearing4All, Medizinische Hochschule Hannover (Abteilungsleiter und Institutsleiter: Prof. Dr. A. Kral) & Australian Hearing Hub, School of Medicine and Health Sciences, Macquarie University, Sydney, Australia
› Author Affiliations
 

Zusammenfassung

Nach der Geburt entwickelt sich das Gehirn weiter. Diese umfangreiche Entwicklung ist durch Hörstörungen in der Kindheit beeinträchtigt. Die Entwicklung von kortikalen Synapsen im Hörsystem ist dann verzögert und deren nachfolgender Abbau verstärkt. Neueste Arbeiten belegen, dass dabei vor allem die Synapsen betroffen sind, die für kortikokortikale Verarbeitung der Reize verantwortlich sind. Dies äußert sich in Defiziten bei der auditiven Verarbeitung. Andere Sinnessysteme sind indirekt beeinträchtigt, vor allem in der multisensorischen Kooperation. Wegen der umfangreichen Vernetzung des Hörsystems mit dem Rest des Gehirns werden interindividuell unterschiedliche kognitive Funktionen bei Hörstörungen verändert. Diese Effekte erfordern einen individualisierten Ansatz bei Therapie von Gehörlosigkeit.


1. Einführung

Hörverlust im Kindesalter hat weitreichende Folgen für die Hirn-Entwicklung [1], denn die Hirnrinde entwickelt sich abhängig von sensorischen und motorischen (d. h. aktiven) Erfahrungen [2]. So erlernen Kinder sensorimotorische Fertigkeiten und erschließen sich die Umwelt durch Entwicklung von einem internen (mentalen) Modell. Das bewusste menschliche Erleben findet in diesem Modell statt, wobei das Modell dauerhaft mit der Umwelt über die Sinnesorgane abgeglichen wird.

Ein wesentliches Werkzeug in diesen Prozess ist die menschliche Sprache, die schon in den ersten Lebensmonaten angelegt wird [3] [4]. Die Sprache erzeugt eine spezifisch menschliche abstrakte Repräsentationsebene. So kann die Realität um uns herum mit Hilfe der Sprache verstanden, mental verankert und mental in Sprachrepräsentationen auch bearbeitet werden. Für Linguisten ist daher naheliegend, dass das Denken sich der linguistischen Repräsentationen bedient. Dadurch prägt die Sprache auch das Denken (die sogenannte Sapir-Whorf Hypothese) [5] [6]. Sprachlich definierte Kategorien beeinflussen sogar die elementare sensorische Wahrnehmung und die frühe sensorische Verarbeitung von basalsten sensorischen Merkmalen wie im visuellen System zum Beispiel Farben [7] [8] [9] [10] [11].

Sprache als wesentlicher Bestandteil der Kognition steht im Austausch mit anderen kognitiven Funktionen. Sensorische Systeme stehen in Interaktion miteinander und erzeugen multisensorische Repräsentation, die weiter die Kognition speisen. Darüber hinaus haben sensorische Systeme selbst eine kardinale Funktion für Kognition, da sie eine für sie spezifische Form von Repräsentationen erzeugen und einen hochaufgelösten Subprozessor und Speicher von Informationen dem Gehirn zu Verfügung stellen [12], dessen sich auch die Kognition bedient.

Sinnesschäden in der frühen Entwicklung, vor allem angeborenen Hörschäden, könnten folglich einen Einfluss auf die Entwicklung der Kognition (direkt oder indirekt über Sprache) ausüben [13]. Dieser Text diskutiert solche Einflüsse und gibt einen Überblick über die Folgen von angeborener Gehörlosigkeit auf die Reifung des Gehirns und die Entwicklung von kognitiven Funktionen. Angeborene Gehörlosigkeit hat dabei spezifische Folgen, da die komplette sensorische Deprivation („total deprivation“) sich von teilweiser Deprivation (mit Restgehör oder eine Phase mit Restgehör) in den Konsequenzen unterscheidet [1].

2. Proximale Effekte der Gehörlosigkeit: Sprache und Gehör

Die cochleäre Funktion setzt normalerweise in der Mitte der Schwangerschaft ein [14] [15] [16]. Ab diesen Zeitpunkt kann die Entwicklung des menschlichen Gehirns durch akustische Eingänge mitgestaltet werden. Es besteht ein Unterschied zwischen den subkortikalen und den kortikalen Strukturen: normalerweise erfolgt die Entwicklung von peripher zu zentral, und die peripheren Strukturen reifen früher als die zentralen Strukturen. Einzelne Funktionen des Hörsystems entwickeln sich dabei in einer auf sich aufbauenden Sequenz von einfacheren zu komplexeren [17].

Während der Hirnstamm weitgehend seine Entwicklung intrauterin abschließt, ist die kortikale Entwicklung bei Geburt erst in einem frühen Stadium und erst im Erwachsenenalter abgeschlossen. Man kann beispielhaft erwähnen, dass die meisten Prozesse der Myelinisierung im Hirnstamm und Thalamus bei Geburt weitgehend abgeschlossen sind [18], während die Myelinisierung im Cortex bis ins Erwachsenenalter weiter läuft [19] [20]. Neuronale Verarbeitung basiert aber vorwiegend auf synaptischer Aktivität. Auch die Synaptogenese ist im Hirnstamm bei Geburt weitgehend abgeschlossen, wobei diese im Kortex bei Geburt gerade anfängt und bei Menschen erst um das 20. Lebensjahr abgeschlossen wird (Kortex Mensch: [21], Kortex Katze: [22], Übersicht in [1] [23]).

Der strukturierende Einfluss der sensorischen Erfahrung auf die Ontogenese des Hörsystems ist folglich vor allem in der Hirnrinde zu beobachten. Bei kongenital gehörlosen Katzen konnte ein Einfluss der Erfahrung auf die kortikale synaptische Entwicklung präzise untersucht werden: beim Fehlen von Hörerfahrung kam es zu Verzögerungen der Synaptogenese und letztendlich zu einem umfangreichen Verlust von funktionalen Synapsen im auditorischen Kortex [22] (Übersicht in [24]). Dieser Prozess steht im engen Zusammenhang mit der kritischen Phase in neuronaler Plastizität bei Therapie mit Cochlea-Implantaten beim gleichen Tiermodell [25] [26]. Das belegt, dass sensible Phasen durch synaptischen Abbau geschlossen werden und dadurch den kritischen Charakter erlangen (Übersicht in [1] [2]).

Kortikale Synapsen können in zwei Gruppen aufgeteilt werden: (i) thalamokortikale Synapsen, die den sensorischen Eingang in den Kortex vermitteln und einen starken Einfluss auf die kortikale Aktivität haben, und (ii) kortikokortikale Synapsen, die für die eigentliche Integration der sensorischen Eingänge in die laufende kortikale Verarbeitung vermitteln und somit für die Integrationsfunktion der kortikalen Verarbeitung (siehe unten) zuständig sind. Diese Synapsen über einen schwächeren Einfluss auf die Aktivität, jedoch wirken durch ihre Vielzahl und ihren Einfluss auf die sogenannte rekurrente Prozessierung (siehe unten).

Wenn synaptische Entwicklung eine entscheidende Rolle beim Schließen der kritischen Perioden spielt, stellt sich dann die Frage, welche Synapsen gehen bei Gehörlosigkeit eigentlich verloren – alle, zufällig verteilt, mehr die thalamokortikalen (die den sensorischen Eingang in den Kortex bilden und somit primär die Detektion von akustischen Reizen vermitteln) oder die kortikokortikalen, die spezifisch für die nachfolgende kortikale Verarbeitung sind (und somit die Diskrimination und Gestalt-Bildung ermöglichen)? Dies war bis vor kurzem weder im visuellen noch im auditorischen System geklärt.

Falls die thalamokortikalen Synapsen verloren gehen, wird die Antwortfähigkeit der Hörrinde primär beeinträchtigt. Falls es die kortikokortikalen Synapsen sind, werden die diskriminative und die „Gestalt-Bildende“ Eigenschaften der Hörrinde primär beeinträchtigt. Um eine „Gestalt“ entstehen zu lassen muss aus sensorischen (akustischen) Eigenschaften, die nach biologischer Bedeutung in den primären Hörarealen repräsentiert sind, nachfolgend ein „Objekt“ oder eine Kategorie bestimmt warden [1] [27]. Ein auditorisches Objekt wird dabei definiert als neuronale Repräsentation eines definierten akustischen Musters welche das Subjekt von Vordergrund-Hintergrund Unterscheidungen sein kann [1]. Dafür müssen die für das Objekt distinktiven (unterscheidenden) Merkmale im Reiz erkannt und die Variationen in nicht-distinktiven ignoriert werden. Kategorisierung ist dann der entsprechende Verarbeitungs-Prozess, welcher aus konkreten akustischen Ereignissen ein auditorisches Objekt (die Kategorie) erzeugt. Die resultierenden Kategorien gibt es oft in der realen Welt nicht, es gibt dort nur konkrete Beispiele dieser. William Ockham nutzte zur Veranschaulichung den Begriff „Rose“, der eine Kategorie von Blumen beschreibt und anhand von Beispielen aus der realen Welt geformt wird, aber in der Umwelt als solcher gar nicht existiert (Universalienproblem der Philosophie).

Beispiele auditiver Kategorien sind eine zufallende Tür, eine umfallende Flasche oder das Klingeln eines Telefons. Unterschiedliche Ereignisse können entsprechend unterschiedliche akustische (spektrale) Eigenschaften haben (bei der Tür im Arbeitszimmer oder der Eingangstür), und trotzdem als die gleiche Kategorie von Ereignis (zufallende Tür) identifiziert werden. Auch phonologische Einheiten sind solche Kategorien, die aus der Phonetik der Sprache durch Abstraktion gebildet werden. So wird z. B. mit Hilfe von drei Formanten eines periodisches Schallereignisses ein Vokal [28]. Variationen innerhalb der Kategorie, die normalerweise auch beim gleichen Sprecher vorkommen, werden ignoriert – wir hören immer das gleiche Phonem. Phoneme werden weiter in Silben, Morpheme, Wörter und Aussagen zusammengeschlossen. So folgt die eine Kategoriesierung auf die andere, und es entsteht ein entsprechendes hierarchisches System der Sprache. Man kann diesen hierarchischen Aufbau der Sprache entsprechend auch ein Sprachschaltkreis im Kortex definieren, wobei einzelne Bereiche (wie das Broca und Wernicke Areal) unterschiedlichen Sprachfunktionen zugeordnet werden können [29] [30] [31].

Interessanterweise erfolgt die Entwicklung des Gehirns in den betroffenen Arealen auch in einer entsprechenden zeitlichen Abfolge, anfangend mit phonologischer Analyse (im ersten Lebensjahr), nachfolgend mit morphosyntaktischer Analyse und lexikaler Analyse (im 2. Lebensjahr), um mit Satzstrukturanalyse zu enden (im 3. Lebensjahr und darüber hinaus) (Übersicht in [32]). Dabei zu beachten ist, dass diese Schritte sich typischerweise in der zeitlichen Entwicklungssequenz überlagern, d. h. bevor die vorherige abgeschlossen ist, fängt die nächste schon an.

In der auditorischen postnatalen Entwicklung zeigen sich zwei parallel ablaufenden Prozesse [27] [33] ([Abb. 1]): (i) Die Fähigkeit auf Unterschiede in akustischen Eigenschaften zu reagieren (also Reize zu diskriminieren) ist zwar durch ein entsprechendes genetisches Programm angeboren, wird aber durch Erfahrung weiter verbessert oder stabilisiert. (ii) Die Fähigkeit Unterschiede zu erkennen, die in den Lebensumständen keine Rolle spielen, geht im Laufe der Entwicklung verloren. Dabei entstehen dann die auditiven Kategorien.

Zoom
Abb. 1 Die psychophysiche Entwicklung von auditorischen Fertigkeiten kann ich zwei Bereiche aufgeteilt werden: in die Entwicklung der Fähigkeit akustische Merkmale zu unterscheiden (Diskriminationsfähigkeit) und in die Fertigkeit diese dann in auditorische Objekte zu kategorisieren. a: Bei der Fähigkeit die akustischen Merkmale zu diskriminieren kann es nach der Geburt sowohl zur Verbesserung, aber auch zum Verlust der Fähigkeit kommen. b: Die Kategorisierung ist abhängig von Erfahrung, da die Kategorien sind typischerweise erst durch die Interaktion mit der Umwelt entwickeln. Aus [27] [rerif].

Diese Entwicklungsprozesse sind auch in der Sprachentwicklung zu beobachten. Im ersten Lebensjahr entwickelt sich die Fähigkeit, Sprach-Kategorien der Phoneme (wie oben beschreiben) zu bilden. Die Bildung von Kategorien muss unweigerlich dazu führen, dass von unwichtigen akustischen Variationen abgesehen wird. Tatsächlich müssten die Kinder dadurch die Fähigkeit verlieren, Unwichtiges zu unterschieden [27]. Dies wurde tatsächlich beobachtet: Parallel zur Entstehung der Fähigkeit in der Muttersprache von unwichtigen akustischen Variationen abzusehen und dennoch die richtige phonologische Kategorie (das Phonem) zu erkennen, geht die Fähigkeit verloren, phonetische Unterschiede, die in der Muttersprache nicht distinktiv sind, zu unterschieden [3]. Dies passiert beim normalhörenden Kind um den 8. Lebensmonat [3]. Das Gehirn lernt phonologische Kategorien mit Hilfe von statistischen Zusammenhängen aus dem Sprachfluss der Eltern und Pfleger, d. h. der Häufigkeit der Phoneme und deren Übergänge von einem zum anderen Phonem [34] [35] [36]. Dabei erkennt es wahrscheinlich erst Gruppen von Phonemen („chunks“, [37] [38] [39] [40]) und die einzelnen Phoneme etablieren sich erst sekundär. Nachfolgend ist die Entwicklung des Lexikons, bei dem Wörter mit Inhalt assoziiert und abgespeichert warden [41] [42] [43]. Der entsprechende schnelle Aufbau („vocabulary spurt“) findet im 2. Lebensjahr statt. Grammatik kristallisiert sich später, im 3. Lebensjahr und den Folgejahren danach.

Der Spracherwerb zeigt eine kritische Phase: falls man bei Kindern die Hörfähigkeit nicht vor dem 3. Lebensjahr mit einem Cochlea-Implantat restituiert, sind die Erfolge limitiert ([44] [45], Übersicht in [2] [24]). Wenn die Daten zu der kritischen Periode bei dem Modell der kongenital gehörlosen Katze auf die menschliche kortikale Entwicklung extrapoliert wurde, erhielt man dabei auch das Alter von 3 Jahren [46]. Das legt den Schluss nahe, dass auch bei Kindern das Schließen der sensiblen Phase für Spracherwerb auf der synaptischen Entwicklung in den auditorischen Arealen basiert. Aber auch innerhalb der ersten 3 Jahre sind die Erfolge umso besser, je früher eine Hörtherapie anfängt [47] [48]. Die Existenz der kritischen Entwicklungsperiode unterschiedet sich im Prinzip nicht von anderen Sinnessystemen: auch im visuellen System wird z. B. die Gesichtserkennung von einer fremden Spezies nur in einer kritischen Periode effektiv erlernt [49].


3. Neuronale Prozesse der Diskrimination und Kategorisierung

Die diskutierten Daten belegen folglich, dass eine Therapie der angeborenen Gehörlosigkeit früh erfolgen muss, um die Kategorisierung von akustischen Merkmalen in phonologische Kategorien früh zu erlenen, in der Phase von hoher Lernfähigkeit des Gehirns, so dass sie dann als Fundament für nachfolgende linguistische Entwicklung dienen kann. Dies beruht auf einer Funktion, deren Korrelat im auditorischen Kortex vorliegt. Die Daten belegen zudem, dass diese kritische Periode durch den Prozess der kortikalen Synaptogenese bedingt ist, und dass die synaptische Elimination diese kritische Phase schließt.

Welche Funktion der neuronalen Netzwerke schädigt dabei die angeborene Gehörlosigkeit? Die komplexe Schallanalyse oder die nachfolgende Einbettung in die weitergehende kategoriale und sprachliche Verarbeitung? Die Erfahrungen mit spät implantierten prelingual gehörlosen Patienten belegten Defizite in der auditiven Diskrimination, aber weniger in Detektion der Reize [50] [51] [52]. Dies deutet auf Probleme der Diskrimination und der Kategorisierung, also auf integrative Leistungen der Hirnrinde, und weniger auf Probleme der Reizdetektion hin.

Um den im gehörlosen Gehirn verlorenen Synapsen auf dem Grund zu gehen, müsste die kortikokortikalen Verarbeitung experimentell von der thalamokortikalen separiert werden. Glücklicherweise gibt es die Möglichkeit, dies in neuronaler Aktivität durchzuführen: man separiert die an den Stimulus eng Zeit- und Phasen-gekoppelte Aktivität von restlicher Reiz-bedingten (aber nicht phasengekoppelten) Aktivität ([Abb. 2]). Diese zwei Aktivitäten nennt man evoziert (phasenkoppelt) und induziert (nicht phasengekoppelt). Sie sind am besten in dem Zeit-Frequenzraum abtrennbar [53] [54]. Da kortikokortikale Verarbeitung dauerhaft präsent ist und die Spontanaktivität bestimmt, die nicht mit dem präsentierten Reiz synchron abläuft, variiert deren Korrelat wenn man den Stimulus mehrfach wiederholt. Das unterscheidet sie von der thalamokortikalen Aktivität, die streng an den Reiz gekoppelt ist und bei einer wiederholten Reizung daher streng phasengekoppelt auftritt. Die Abtrennung von evozierter und induzierter Aktivität erlaubt es damit, die Aktivität, die durch thalamokortikalen Eingang verursacht ist, separat von kortikokortikalen Verarbeitung des Reizes zu betrachten.

Zoom
Abb. 2 Trennung von evozierter (thalamokortikaler) und induzierter (kortikokortikaler) Aktivität am Beispiel einer Ableitung im primären auditorischen Cortex der Katze. Links oben: 30 Wiederholungen eines auditorischen Stimulus (Kondensations-click, 50 µs, bei 0 Sek. präsentiert), einzelne Ableitungen („Trials“) in unterschiedlichen Farben dargestellt. Eine starke Phasen-gekoppelte (und daher in unterschiedlichen Trials wiederholbare) Antwort ist bei 0–0.2 Sek sichtbar. Aktivität nach ca. 0.2 Sek. unterscheidet sich aber auch von der Aktivität vor dem Reiz (-0.4–0 Sek.). Diese Aktivität ist jedoch nicht phasengekoppelt, in unterschiedliche Trials variiert sie stark. Links unten: Nach Frequenzanalyse (Morlet Wavelets) zeigt sich deutlich Aktivität um 0 Sek, aber auch zwischen 0.2–0.6 Sek. Mitte: Wenn die Zeitsignale gemittelt werden, sieht man den über Trials reproduzierbaren Teil der Aktivität (phasengekoppelt). Dieser ist auf die Zeit 0–0.2 Sek. Beschränkt. Rechts: Der Unterschied zwischen totaler und evozierter Aktivität ist die induzierte Aktivität, die von kortikokortikalen Interaktionen resultiert. Reproduziert aus [55] [rerif].

An den gehörlosen Katzen konnte so vor kurzem gezeigt werden, dass die durch Gehörlosigkeit verlorenen Synapsen weniger die thalamokortikale Synapsen betreffen, sondern viel mehr die, die für kortikokortikale Verarbeitung verantwortlich sind [55]. Nachfolgende Untersuchungen konnten dann nachweisen, dass es sich hierbei vor allem um einen Verlust der Synapsen handelt, die bei der sogenannten top-down Interaktion zwischen sekundären und primären Arealen involviert sind ([Abb. 3], siehe [56] [57]). Diese sind für den Einfluss höherer auf niedrigere Repräsentationen verantwortlich, also z. B. von auditorischen Objekt auf akustische Eigenschaften, oder beim Sprachbeispiel von Wort auf Phonem [27]. Diese funktionalen Daten zeigten auch ein Korrelat in der Morphologie der Hirnrinde: die tiefen Schichten V und VI, die Haupt-Quellen der top-down Einflüsse, zeigten eine dystrophische Veränderung in primären und auch sekundären auditorischen Arealen bei gehörlosen Katzen [58]. Die tiefe Schichten waren von den oberflächlichen Schichten funktional entkoppelt [56]. Verbindungen zwischen den oberflächlichen und tiefen Schichten sind entscheidend für die rekurrente Schaltkreise, die den Effekt der schwachen kortikokortikalen Synapsen verstärken und so die kortikale Aktivität über längere Zeiträume aufrechterhalten.

Zoom
Abb 3 Resultate der Konnektivitätsanalyse bei hörenden (links) und gehörlosen (rechts) Katzen. Sowohl das primäre Areal (A1) wie auch das sekundäre Areal (PAF) erhalten einen starken thalamischen Eingang, der die evozierte Aktivität in beiden Arealen verursacht. Nachfolgend kommt es zu einer Verrechnung im Cortex, bei dem die Areale miteinander über bottom-up (A1 ->PAF) wie auch top-down (PAF ->A1) Interaktionen verbunden sind. Beim gehörlosen Tier sind die evozierten Antworten ganz (A1) oder teilweise (PAF) erhalten, die kortiko-kortikalen Interaktionen, vor allem die top-down Interaktionen, defizient. Aus [56].

Solche Resultate stehen im Einklang mit der Theorie der prädiktiven Prozessierung [27] [59] [60] [61] [62]. Sie besagt, dass das Gehirn stätig Vorhersagen über mögliche sensorische Eingänge generiert, und diese nur dann verarbeitet, wenn sie nicht im Einklang mit der Vorhersage stehen. Das verringert den Rechenbedarf des Gehirns wesentlich. Die angeborene Gehörlosigkeit verhindert die top-down Interaktionen, die für die prädiktive Prozessierung entscheidend sind [56]. Da die Repräsentation von auditorischen Objekten sich nur durch Erfahrung etablieren kann und bei Gehörlosigkeit nicht vorhanden ist, gehen dazu notwendigen Synapsen durch Nichtgebrauch verloren oder entstehen gar nicht (ibid.). Das Fehlen der Vorhersagen macht den Hörvorgang anstrengender und benötigt dann mehr aktive bottom-up Verarbeitung, mehr Höranstrengung [27]. Diese Vorhersagen sind tatsächlich im Einklang mit Befunden die die ELU-Theorie stützen („ease of language understanding“) [63]. Der Prädiktionsfehler ist auch ein entscheidender Faktor der Kontrolle von Lernprozessen. Das Fehlen des neuronalen Substrats für top-down Interaktionen und damit der Prädiktion behindert also auch das auditive Lernen.

Das tatsächlich die auditorischen Areale (und nicht die Sprachareale) für das Schließen der kritischen Phasen bei Kindern verantwortlich sind, wird durch die Beobachtung belegt, dass die kritische Phase eng mit ereigniskorrelierten Potentialen zusammenhängt, die in den primären und sekundären Hörarealen generiert werden [64] [65]. Dies entspricht exakt den Vorhersagen des Katzenmodells [24]. Dieser Befund ist auch im Einklang mit der oben erwähnten Beobachtung, dass die Entwicklung der auditorischen Schaltkreise früher abläuft als die der Schaltkreise, die für das Lexikon oder die Grammatik zuständig sind. So ist der Flaschenhals der Entwicklung in der akustisch-phonetischen Analyse des sprachlichen Eingangs.

Durch die vielen Belege in die gleiche Richtung kann also geschlossen werden, dass die kritische Phase bei gehörlosen Kindern nicht auf die höhere Sprachverarbeitung (und damit die höheren Sprachareale) zurückzuführen ist, sondern vor allem auf die akustisch-phonetisch-phonologische Transformation. Diese muss extrem effektiv und schnell ablaufen, und ist auch die erste sprachliche Fähigkeit, die sich nach der Geburt entwickelt. Alle nachfolgende Schritte des Spracherwerbs sind von diesen abhängig und damit auch (sekundär) betroffen.


4. Distale Effekte der Gehörlosigkeit: multisensorische und kognitive Folgen

Das Hören steht im Gehirn nicht isoliert dar. Alle Strukturen des Gehirns stehen in vielfältigen Verbindungen zueinander. Dadurch wird die Integrationsleistung des Gehirns ermöglicht, und eine ganzheitliche Wahrnehmung der Welt erreicht.

Kognitive Funktionen üben auch einen top-down Einfluss auf die auditive Wahrnehmung und die Spracheverarbeitung selbst, so dass ein Teil des Sprachverständnisses von diesen Funktionen beeinflusst wird [66] [67]. Selbst bei postlingual ertaubten Patienten erlauben es die kognitiven Leistungen ein Teil der interindividuellen Variabilität der Resultate von Cochlea-Implantation aufzuklären und deswegen wird von einigen Autoren vorgeschlagen diese Funktionen klinisch zu testen [68]. Eine solche Testung ist bei Kindern natürlich komplexer, aber über Fragebogen ist dies auch quantifizierbar, selbst im Vorschulalter [69].

Nicht nur kognitive Funktionen beeinflussen das Hören, auch das Hören hat reziprok einen Einfluss auf die Kognition, ganz besonders im Kindesalter [13]. Die Kognition nutzt das Hören z. B. für Repräsentationen in dem zeitlichen Bereich, was mit einer Mahltafel modellhaft verglichen wurde [12]. Das Hören kalibriert damit sozusagen eine imaginäre Zeitachse der Denkprozesse. Dafür wird über top-down Verbindungen auf die auditiven Repräsentationen zugegriffen.

Außer proximalen Effekten der Hörschäden sind also auch distale Effekte der angeborenen Hörschäden auf andere Sinnessysteme und Kognition zu erwarten [13]. Das Hörsystems ist für zeitliche Analysen im Gehirn von entscheidender Bedeutung. So kann eine visuelle Aufgabe, die darauf beruht, Blitze (also visuelle Reize) zu zählen, durch parallel dargebotene akustische Reize gestört werden, nicht jedoch umgekehrt [70] [71]. Eine gängige Erklärung ist dabei die weit höhere Präzision des Hörsystems in der zeitlichen Dimension: das Hören repräsentiert die Phase von akustischen Reizen bis zu einer Frequenz von 4000 Hz, beim Sehen endet dies mit der Fusion der einzelnen Reize bereits im Bereich um 40–60 Hz (dabei setzt die Illusion von Bewegung ein), was faktisch einen Unterschied um Faktor 100 entspricht. Das Hören verliert gegenüber dem Sehen bei räumlichen Lokalisations-Aufgaben, wie der Bauchrednereffekt plakativ belegt [72] [73]. Hier gewinnt das viel präzisere Sehsystem, dessen räumliche Auflösung bei 1 Winkelminute liegt, was fast 100mal kleiner ist als der minimale Hörwinkel (8°), den das Hören unterscheiden kann. Multisensorischen Interaktionen (zwischen den Sinnessystemen) benötigen jedoch postnatale Erfahrung, ohne die sie sich nicht entwickeln können [74] [75] [76]. Bei angeborener Gehörlosigkeit sind tatsächlich negative Effekte auf das visuelle Sequenzlernen belegt worden [77] [78] [79] [80]. Auch multisensorische Illusionen können so bei prelingual gehörlosen Patienten betroffen sein [81], wie auch die Feinmotorik [82]. Die Beeinträchtigung in der zeitlichen Domäne ist von der genauen Aufgabe abhängig [80]. So können bei komplexeren Aufgaben mit kombinierten räumlich-zeitlichen Aufgaben die räumlichen Aspekte der Aufgabe die zeitlichen Defizite kompensieren, und dies muss man bei Planung und Interpretation der Untersuchungen bedenken [83].

Zusammengenommen hat angeborene Gehörlosigkeit also einen deutlichen Einfluss auf die zeitliche Verarbeitung in anderen Sinnessystemen. Da faktisch alle natürlichen Reize multimodal sind und die Kognition sich multimodaler und amodaler Objekte, die daraus entstehen, bedient, hat ein angeborener Hörverlust auch auf diesem Gebiet umfangreiche Konsequenzen. Im auditorischen Cortex bleiben bei Gehörlosigkeit die evozierten (d. h. thalamokortikalen) Antworten auf auditorischen Eingang erhalten [84], aber jenseits des auditorischen Cortex sind sie reduziert [85] und die multisensorische Interaktion mit dem deprivierten Sinnessystem entwickelt sich nicht [76] [86] [87]. Dies ist auch bei der Sprache zu beobachten – z. B. bei der Beeinflussung der Wahrnehmung von Silben durch das Lippenlesen, wie im McGurk Effekt. Bei prelingual gehörlosen Kindern, die nach dem 2. Lebensjahr implantiert worden sind, zeigte sich so ein Fehlen von multisensorischer Fusion und eine visuelle Dominanz in der Wahrnehmung, die bei hörenden Kontrollen nicht zu beobachten war [75]. Frühere Implantationen verhinderten diesen Effekt und ermöglichten eine effektivere multisensorische Fusion (ibid.). Dies ist für die multisensorische Verarbeitung von Sprache von großer Bedeutung.

Das Hören hat gegenüber anderen Sinnessystemen einen entscheidenden Vorteil bei der Orientierung, da es nicht von Aufmerksamkeitsfokus, Gesichtsfeld aber auch von Vegetation nicht abhängig ist. So wird die Aufmerksamkeit durch das Hören automatisch mitgesteuert, ein Effekt, der bei gehörlos Geborenen fehlt. Angeborene Gehörlosigkeit führt folglich zur Veränderung in der Verteilung der visuellen Aufmerksamkeit im Raum, mit höherer Distraktionsfähigkeit und mit mehr Aufmerksamkeit in der visuellen Peripherie [88] [89] [90]. Folglich ist die Zeit der Dauer-Aufmerksamkeit („sustained attention“) auf das gleiche Objekt mit dem Elternteil reduziert [91] [92]. Dies ist für das frühkindliche Lernen und die Entwicklung des Kindes von entscheidender Bedeutung. (Bei der reduzierten Dauer-Aufmerksamkeit kann aber auch der hörende Elternteil das Problem mit verursachen, da hörende Eltern nicht genug auf die Blickrichtung des Kindes achten [91] [93]). Im späteren Alter (um 9–10 Jahre) ist dieses Problem glücklicherweise nicht mehr zu beobachten [92]. Das damit verbundene Problem der höheren Disktraktionsfähigkeit und Impulsivität gehörloser Kinder (ein Problem der exekutiven Funktion) bleibt auch über die 9–10 Jahre vorhanden [92], was Lernprozesse negativ beeinflusst. Folglich führen angeborene Hörstörungen zu einer relevanten Reorganisation des Aufmerksamkeitssystems und der exekutiven Funktionen beim betroffenen Kind.

Das Hören ermöglicht die Etablierung von phonologischen Kategorien die weitgehend die Basis für das geschriebene Wort bilden. Gehörlose Kinder (die nicht einer oralen Erziehung unterzogen wurden) etablieren die phonologische Ebene (und andere Eigenschaften) der gesprochenen Sprache nicht [94] [95] [96]. Geschriebene Sprache ist aber von der gesprochenen Sprache abgeleitet. So ist die Lesefähigkeit der gehörlosen (gebärdender) Teenager im Vergleich mit hörenden Teenagern im Schnitt um viele Jahre verzögert [97], da sie beim Lesenlernen auch ein unbekanntes phonologisches System neu erwerben müssen (Übersicht in [98]). Es zeigt sich also, dass die akustisch vermittelte Sprache die Bildungsoptionen einer auf hörende Gesellschaft ausgerichteter Ausbildung dramatisch verbessert.

Bei den „Wolfskinder“-Kasuistiken [99] sind Berichte über interindividuelle Effekte auf Kognition bekannt, die leider nur bei wenigen dieser Personen auch detailliert untersucht sind [100] [101] und deren Ursprung nicht immer definitiv geklärt werden konnte. Bei einigen dieser Kinder (wie z. B. Peter von Hannover) wurde auch ein Autismus als Begleiterkrankung vermutet. Bei anderen Kasuistiken sind andere Begleiterkrankungen erwogen worden. Dennoch wurde bei diesen Kindern von interindividuell unterschiedlichen Defiziten in unterschiedlichen kognitiven Funktionen berichtet [102]. Solche individuell unterschiedlich ausgeprägten Defizite in einzelnen kognitiven Funktionen unter der Annahme der gleichen Erkrankung nennt man kognitive Streuung („cognitive scatter“). Eine kognitive Streuung wurde auch bei gehörlosen Kindern berichtet [103] [104] [105] [106]. Das legt nahe, dass das Fehlen vom Hören das Risiko von kognitiven Auffälligkeiten erhöht. Während die oben erwähnten Effekte der angeborenen Gehörlosigkeit auf die Aufmerksamkeit die Veränderungen in den exekutiven Funktionen und die reduzierte Impulskontrolle von gehörlosen Kindern [88] [92] gut erklären, muss die Abhängigkeit von kognitiven Funktionen von Sprachkompetenz (im Sinne der Sapir-Whorf Hypothese) weiter untersucht werden. Auch ist zu betonen, dass dies durch Tests beeinflusst werden könnte, die sprachabhängig sind [107]. Tiermodelle ermöglichen dann eine Abtrennung von Auswirkungen der Sprachdefizite und der Hördefizite auf Kognition, die auf diesem Gebiet von entscheidender Bedeutung ist. Experimente in dieser Richtung werden auch in unseren Labors durchgeführt.

Zusammenfassend kann man schlussfolgern, dass das angeboren gehörlose Gehirn nicht gleichzusetzen ist mit einem hörenden Gehirn ohne ein funktionierendes Innenohr. Das gehörlose Gehirn ist an die Gehörlosigkeit angepasst, mit weitereichenden Folgen für das Kind. Diese Anpassungen gehen über das Hörsystem hinaus und betreffen viele weitere Funktionen des Gehirns. Das Konnektom ist die Summe aller synaptischen Verbindungen im Gehirn; wenn als funktionelles Konnektom verstanden definiert dieses unser Denkprozesse und all unsere Wahrnehmung. Das Konnektom-Modell der angeborenen Gehörlosigkeit [13] schlägt vor, die Folgen des Hörverlust auf die Hirnentwicklung in der Perspektive des gesamten Gehirns zu betrachten ([Abb. 4]). Das Modell betont die hohe Interkonnektivität des Hörsystems mit dem Rest des Gehirns und deren gemeinsame reziproke Abhängigkeiten bei multisensorischen und kognitiven Funktionen inklusive Sprache, Aufmerksamkeit, Gedächtnis und exekutiven Funktionen. Diese kann (muss nicht zwingend) zu kognitiven Veränderungen bei angeborener Gehörlosigkeit führen, die möglicherweise abhängig von der „Strategie“, mit der das Gehirn das Fehlen des Hören kompensiert, abhängig ist [13]. Die kognitiven Veränderungen weisen dann typischerweise ein stark individuelles Muster (kognitive Streuung) auf.

Zoom
Abb. 4 Das Konnektom-Modell der angeborenen Gehörlosigkeit. Exemplarische Darstellung der kortikalen Verbindungen des Hörsystems mit dem Rest der Hirnrinde. Bottom-up Interaktionen sind in grüner Farbe, top-down Interaktionen in roter Farbe. Das Hörsystem ist stark mit den anderen Subsystemen des Gehirns verbunden, und bei Gehörlosigkeit müssen sich diese auf das Fehlen des Hörens adäquat anpassen. Diese Anpassung ist interindividuell unterschiedlich. Aus [13] [rerif] „Nachgedruckt von Lancet Neurology 15, Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM, Neurocognitive factors in sensory restoration of early deafness: a connectome model 610-621, Copyright (2016), mit Genehmigung von Elsevier“.

Ein Risiko von Defiziten in kognitiven Funktionen bei angeborenen Hördefiziten muss folglich bedacht, diagnostiziert und auch adressiert werden, da solche Defizite weitreichende Folgen für das spätere Leben des gehörlosen Kindes haben können. Eine wesentliche Aufgabe ist es Methoden zu entwickeln, die den kognitiven Effekten der Gehörlosigkeit entgegenwirken können. Da diese individuell unterschiedlich sind, bedarf es dabei eines individualisierten medizinischen Ansatzes bei einer Cochlea-Implantation.

Unterstützt von der Deutschen Forschungsgemeinschaft (DFG, Exzellenzcluster Hearing4All), der National Science Foundation (USA) in Zusammenarbeit mit DLR, und der Europäischen Union (ITN Comm4Child). Der Autor dankt Professoren G. O’Donoghue, W. Kronenberger und D. Pisoni für viele wissenschaftliche Diskussionen, die zu dem Vorschlag des Konnektom-Models geführt haben.




Interessenkonflikt

Der Autor gibt an, dass kein Interessenkonflikt besteht.


Korrespondenzadresse

Prof. Dr. A. Kral
VIANNA
Stadtfelddamm 34
30625 Hannover
Deutschland   

Publication History

Article published online:
02 May 2023

© 2023. The Author(s). This is an open access article published by Thieme under the terms of the Creative Commons Attribution-NonDerivative-NonCommercial-License, permitting copying and reproduction so long as the original work is given appropriate credit. Contents may not be used for commercial purposes, or adapted, remixed, transformed or built upon. (https://creativecommons.org/licenses/by-nc-nd/4.0/).

Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart, Germany


Zoom
Abb. 1 Die psychophysiche Entwicklung von auditorischen Fertigkeiten kann ich zwei Bereiche aufgeteilt werden: in die Entwicklung der Fähigkeit akustische Merkmale zu unterscheiden (Diskriminationsfähigkeit) und in die Fertigkeit diese dann in auditorische Objekte zu kategorisieren. a: Bei der Fähigkeit die akustischen Merkmale zu diskriminieren kann es nach der Geburt sowohl zur Verbesserung, aber auch zum Verlust der Fähigkeit kommen. b: Die Kategorisierung ist abhängig von Erfahrung, da die Kategorien sind typischerweise erst durch die Interaktion mit der Umwelt entwickeln. Aus [27] [rerif].
Zoom
Abb. 2 Trennung von evozierter (thalamokortikaler) und induzierter (kortikokortikaler) Aktivität am Beispiel einer Ableitung im primären auditorischen Cortex der Katze. Links oben: 30 Wiederholungen eines auditorischen Stimulus (Kondensations-click, 50 µs, bei 0 Sek. präsentiert), einzelne Ableitungen („Trials“) in unterschiedlichen Farben dargestellt. Eine starke Phasen-gekoppelte (und daher in unterschiedlichen Trials wiederholbare) Antwort ist bei 0–0.2 Sek sichtbar. Aktivität nach ca. 0.2 Sek. unterscheidet sich aber auch von der Aktivität vor dem Reiz (-0.4–0 Sek.). Diese Aktivität ist jedoch nicht phasengekoppelt, in unterschiedliche Trials variiert sie stark. Links unten: Nach Frequenzanalyse (Morlet Wavelets) zeigt sich deutlich Aktivität um 0 Sek, aber auch zwischen 0.2–0.6 Sek. Mitte: Wenn die Zeitsignale gemittelt werden, sieht man den über Trials reproduzierbaren Teil der Aktivität (phasengekoppelt). Dieser ist auf die Zeit 0–0.2 Sek. Beschränkt. Rechts: Der Unterschied zwischen totaler und evozierter Aktivität ist die induzierte Aktivität, die von kortikokortikalen Interaktionen resultiert. Reproduziert aus [55] [rerif].
Zoom
Abb 3 Resultate der Konnektivitätsanalyse bei hörenden (links) und gehörlosen (rechts) Katzen. Sowohl das primäre Areal (A1) wie auch das sekundäre Areal (PAF) erhalten einen starken thalamischen Eingang, der die evozierte Aktivität in beiden Arealen verursacht. Nachfolgend kommt es zu einer Verrechnung im Cortex, bei dem die Areale miteinander über bottom-up (A1 ->PAF) wie auch top-down (PAF ->A1) Interaktionen verbunden sind. Beim gehörlosen Tier sind die evozierten Antworten ganz (A1) oder teilweise (PAF) erhalten, die kortiko-kortikalen Interaktionen, vor allem die top-down Interaktionen, defizient. Aus [56].
Zoom
Abb. 4 Das Konnektom-Modell der angeborenen Gehörlosigkeit. Exemplarische Darstellung der kortikalen Verbindungen des Hörsystems mit dem Rest der Hirnrinde. Bottom-up Interaktionen sind in grüner Farbe, top-down Interaktionen in roter Farbe. Das Hörsystem ist stark mit den anderen Subsystemen des Gehirns verbunden, und bei Gehörlosigkeit müssen sich diese auf das Fehlen des Hörens adäquat anpassen. Diese Anpassung ist interindividuell unterschiedlich. Aus [13] [rerif] „Nachgedruckt von Lancet Neurology 15, Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM, Neurocognitive factors in sensory restoration of early deafness: a connectome model 610-621, Copyright (2016), mit Genehmigung von Elsevier“.
Zoom
Fig. 1 The psychophysical development of auditory skills can be divided into two parts: the development of the ability to discriminate acoustic features (discrimination ability) and the ability to categorize them into auditory objects. A: Regarding the ability to discriminate the acoustic features, there can be both improvement and loss of the ability after birth. B: Categorization is dependent on experience, as categories are typically first developed through interaction with the environment. Taken from [27] [rerif].
Zoom
Fig. 2 Separation of evoked (thalamocortical) and induced (corticocortical) activity using the example of a measurement in the primary auditory cortex of the cat. Top left: 30 repetitions of an auditory stimulus (condensation click, 50 µs, presented at 0 sec), single measurements (“trials”) shown in different colors. A strong phase-coupled (and therefore repeatable in different trials) response is visible at 0–0.2 sec. Activity after about 0.2 sec, however, is also different from activity before the stimulus (-0.4–0 sec). This activity is not phase-coupled, it varies significantly in different trials. Bottom left: After frequency analysis (Morlet wavelets), activity is clearly seen around 0 sec, but also between 0.2–0.6 sec. Middle: When the time signals are averaged, one sees the part of the activity that can be reproduced over trials (phase-coupled). This is limited to the time 0–0.2 sec. Right: The difference between total and evoked activity is the induced activity resulting from corticocortical interactions. Reproduced from [55] [rerif].
Zoom
Fig. 3 Results of connectivity analysis in hearing (left) and deaf (right) cats. Both the primary area (A1) and the secondary area (PAF) receive a strong thalamic input causing evoked activity in both areas. Subsequently, there is an offset in the cortex in which the areas are connected to each other via bottom-up (A1 ->PAF) as well as top-down (PAF ->A1) interactions. In the deaf animal, evoked responses are fully (A1) or partially (PAF) preserved, and corticocortical interactions, especially top-down interactions, are deficient. D=dorsal; V=ventral; C=caudal; R=rostral. Taken from [56] [rerif].
Zoom
Fig. 4 The connectome model of congenital deafness. Exemplary representation of the cortical connections of the auditory system with the rest of the cortex. Bottom-up interactions are in green color, top-down interactions are in red color. The auditory system is strongly connected to the other subsystems of the brain, and in deafness, these must adapt adequately to the absence of hearing. This adaptation varies interindividually. Taken from [13] [rerif] “Reprinted from Lancet Neurology 15, Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM, Neurocognitive factors in sensory restoration of early deafness: a connectome model 610-621, Copyright (2016), with permission from Elsevier”.