Hersenen informatie kunnen filteren uit een omgeving, en je zo dus de persoon hoort?
Dit staat in de spits van 3 april 2009. De universiteiten hebben in deze vrijdageditie een plaatsje om in de zgn. keuken te kijken, en zullen er dus ook publicaties plaatsen wat interessant is.
Terug naar wat eigenlijk in het artikel staat (en dan een samenvatting ervan, mocht het je interesse gewekt hebben, . Al eeuwen is het bekend dat hersenen informatie wat wegvalt, door ruis en geluiden alsnog repareren. Hierdoor kan je dus een gesprek voeren in een behoorlijke lawaaiïge omgeving, en zal je alsnog alles horen. Dit zal ook lukken als je op een druk NSstation staat te bellen. Mocht je nou in plaats van de telefoon aan je oor houden, een microfoon in doen in dezelfde situatie, gaat dit compleet fout. De hersenen weten dan niet welke informatie zij wel/niet moeten filteren danwel repareren, zodat je je gesprek compleet niet kan voeren.
Dit is ook het probleem bij de huidige gehoorapparaten. De geluiden uit de omgeving (en de betreffende gesprekspartner) komen allemaal tegelijk binnen, waardoor alle geluiden versterkt worden en zo dus ook de gesprekspartner te horen is. Nu heeft een onderzoeker (van de Universiteit Maastricht ) volgens zijn eigen zeggen een oplossing voor deze problemen gevonden. Hierdoor zullen resulaten van wat de hersenen van het omgevingsgeluid hebben verwerkt, vertaald kunnen worden naar nieuwe generatie gehoortoestellen. Dit zal een heuze stap zijn in de goede richting mbt gehoortoestellen. Nu enkel nog wachten op de fabrikant die dit nieuwe type gehoortoestel gaat ontwikkelen en fabriceren :-).