Zukunft der Hörgeräte bei Hintergrundgeräuschen mit Google Ai (künstliche Intelligenz)

Ich werde Ihnen von aktuellen Forschungsergebnissen erzählen, die die Leistung von Hörgeräten bei Hintergrundgeräuschen erheblich verbessern können. Der Heilige Gral für Menschen mit Hörverlust ist die Fähigkeit, Sprache von Hintergrundgeräuschen zu trennen, unabhängig davon, ob Sie mit einer Person oder mit einer Gruppe von Personen sprechen.

Ich habe kürzlich im Google AI-Blog ein Video gesehen, das die Möglichkeit veranschaulicht, herauszufinden, wen Sie hören möchten, indem Sie sich nur diese Person ansehen. In dieser Software, die sie entwickelt haben, ist es tatsächlich ziemlich beeindruckend. Anstatt zu versuchen, es Ihnen zu beschreiben, schauen Sie sich das Video unten an (von 0.58 — 1.39), um es in Aktion zu sehen.

Was hast du gedacht? Wenn du mich fragst, ist das ziemlich beeindruckend. Aber die schwierigste Hörsituation Nummer eins, der die meisten Menschen begegnen, ist ein lautes Restaurant.

Der nächste Clip, den ich Ihnen zeigen werde, demonstriert ihre Fähigkeit, Sprache von Hintergrundgeräuschen in einer Cafeteria zu trennen (von 1.53 — 2.20 Uhr ansehen).

Jetzt weiß ich nicht, wie es Ihnen geht, aber ich denke, diese Technologie in Hörgeräten würde die Spielregeln komplett verändern. Ich war begeistert und las den Artikel im Zusammenhang mit der Studie, um zu sehen, wie nützlich diese Technologie für zukünftige Generationen von Hörgeräten sein würde.

Es trägt den Titel „Ich will auf der Cocktailparty zuhören: Ein sprecherunabhängiges audiovisuelles Modell für die Sprachtrennung“ und wurde von einer Reihe von Google-Forschern geschrieben. Hier sind einige wichtige Punkte, die ich aus diesem Artikel herausgeholt habe.

  1. Die Forscher führten dies an vorhandenen Videos durch, was bedeutet, dass sie es nicht in Echtzeit getan haben. Bevor Sie sich also wirklich darauf freuen, diese Software einfach in ein Hörgerät einzubauen, hören Sie sich an, was die Autoren zu sagen hatten:

„Es sollte beachtet werden, dass unsere Methode nicht in Echtzeit funktioniert und unsere Sprachverbesserung in ihrer aktuellen Form besser für die Nachbearbeitungsphase der Videobearbeitung geeignet ist.“ — Google-Forscher

  1. Diese Technologie ist ein großer Fortschritt für die audiovisuelle Verarbeitung. Frühere Generationen dieser Art von Software erforderten, dass die Software mit einer bestimmten Stimme trainiert wurde. Das heißt, wenn Sie mit einem bestimmten Freund in ein Restaurant gehen würden, müsste die Stimme dieses Freundes in die Software programmiert werden, damit sie weiß, wonach sie tatsächlich suchen muss.

In dieser speziellen Software könnten sie sogar ein generalisiertes Sprachformat verwenden, sodass es mit jeder Person in jeder Situation funktioniert, was es in einer generalisierten Umgebung praktikabler macht, was bedeutet, dass Sie überall hingehen und mit jedem kommunizieren und diese spezielle Technologie verwenden können.

  1. Als sie dies in einer lauten Barsituation taten, konnten sie die Hintergrundgeräusche loswerden, aber das verschlechterte die Sprache der Person, die sie zu hören versuchten, erheblich. Dies ist den Einschränkungen, die wir heute in der Hörgerätetechnologie haben, sehr ähnlich. Es kann sehr schwierig sein, eine Sprachquelle aus einer Vielzahl anderer Sprachquellen zu entfernen.

Also, wenn sie daraus ein brauchbares Produkt in einem Hörgerät machen wollen, müssen sie das auch reparieren.

  1. Es ist wichtig, sich daran zu erinnern, dass die Forscher visuelle Informationen benötigen, um diese audiovisuelle Trennung durchführen zu können, und Hörgeräte verfügen natürlich nicht über visuelle Informationen — zumindest noch nicht. Sie sehen, sie arbeiten tatsächlich an einer Hörgerätetechnologie, die Gehirnaktivität anhand von Augenbewegungen wahrnehmen kann. Wenn sie das können und es mit diesen Audioinformationen kombinieren, können sie möglicherweise anhand des Blickwinkels bestimmen, wen Sie hören möchten.

Obwohl diese Art von Technologie in Hörgeräten noch nicht verfügbar ist, sind es Untersuchungen wie diese, die Menschen mit Hörverlust, die mit Hintergrundgeräuschen zu kämpfen haben, Hoffnung geben und den Weg für zukünftige Forschungen an Technologien ebnen, die ihren Weg in Hörgeräte finden werden.

In der Zwischenzeit besteht eine der besten Möglichkeiten, Ihre Fähigkeit, Sprache in einer Situation mit Hintergrundgeräuschen zu verstehen, darin, an Ihren Hörgeräten Messungen am echten Ohr durchführen zu lassen. Wenn Sie jetzt nicht wissen, was eine Messung am Echtohr ist, empfehle ich Ihnen dringend, sich dieses Video anzusehen (https://appliedhearingaz.com/real-ear-measurement/).

Eine weitere Möglichkeit, Ihre Fähigkeit, Sprache in einer aktuellen Situation mit Hintergrundgeräuschen zu verstehen, erheblich zu verbessern, besteht darin, ein unterstütztes Hörgerät wie einen Roger Pen, einen Roger Select oder ein ferngesteuertes Mikrofon zu verwenden. Diese Art von Geräten hilft dabei, Hintergrundgeräusche zu übertönen, da die Sprache der Person, die Sie hören möchten, aufgenommen und direkt in Ihre Hörgeräte übertragen wird.

Video-Transkript

Video-Transkript

Jeder mit Hörverlust möchte bei Hintergrundgeräuschen besser hören. Nun, in einem kürzlich erschienenen Blogbeitrag und einem Video auf dem Google Ai Blog arbeiten Forscher an einer Software, die genau das ermöglicht: https://ai.googleblog.com/2018/04/loo...

In ihrem Video zeigen sie, wie sie Audio- und Bildinformationen nutzen können, um Sprache, die Sie hören möchten, von Geräuschen zu trennen, die Sie nicht hören möchten. Ich persönlich finde diese Software beeindruckend. Ihr Video spricht für sich. Deshalb habe ich beschlossen, den gesamten Forschungsartikel zu lesen, um wichtige Punkte zur Funktionsweise und zu den zukünftigen Auswirkungen auf die Hörgerätetechnologie herauszuarbeiten.

1. Es funktioniert derzeit nur mit vorhandenen Videos. Die Forscher waren sich sehr bewusst, dass ihre Technologie nicht in Echtzeit funktioniert. Tatsächlich erklärten sie: „Es sollte beachtet werden, dass unsere Methode nicht in Echtzeit funktioniert und unsere Sprachverbesserung in ihrer aktuellen Form besser für die Nachbearbeitungsphase der Videobearbeitung geeignet ist.“

2. Dies ist ein RIESIGER Fortschritt für die audiovisuelle Verarbeitung. Frühere Technologien erforderten das Training einer Software, um die Stimme jedes Sprechers zu lernen, damit dieser wusste, auf welche Stimme er sich konzentrieren sollte. Diese neue Software wurde mit allgemeinen Sprachinformationen trainiert, sodass sie bei jedem funktioniert.

3. Wirklich laute Situationen verschlechterten die Sprache - Bei der Verwendung dieser Software für eine Noisy Bar (im Video nicht gezeigt) gaben die Forscher an, dass die Sprache erheblich beeinträchtigt wurde, wenn sie vom Geräusch getrennt wurde. Das ist heute bei der Hörgerätetechnologie ein ähnliches Problem.

4. Es gibt keine Möglichkeit für Hörgeräte, visuelle Informationen zu erhalten. Der Grund, warum diese Software funktioniert, ist, dass sie Audio- UND visuelle Informationen verwenden. Hörgeräte haben derzeit keine Möglichkeit, visuelle Informationen zu erfassen.

Forscher arbeiten jedoch an einer Möglichkeit, wie Hörgeräte elektrische Gehirnimpulse erfassen können, die visuellen Informationen entsprechen, sodass diese Technologie eines Tages in einem Hörgerät funktionieren könnte. Diese audiovisuelle Technologie funktioniert zwar noch nicht in Hörgeräten, ist aber vielversprechend für die Zukunft. Forschungen wie diese ebnen den Weg für neue Hörgerätetechnologien. Es ist also nur eine Frage der Zeit, bis sie einen Weg finden, sie zum Laufen zu bringen. In der Zwischenzeit können Sie Ihre Hörgeräte am besten mit Real Ear Measurement programmieren lassen, um bei Hintergrundgeräuschen besser zu hören: https://youtu.be/cHR0Oa6I-wYDie andere Möglichkeit besteht darin, ein Fernhörgerät wie Roger Pen, Roger Select oder ein ferngesteuertes Mikrofon zu verwenden.

Verwandte Videos

Keine Artikel gefunden.

In Verbindung stehende Artikel

Keine Artikel gefunden.