Beitrag auf Adlershof Online vom 26. Juni 2020

Für viele sind die Übersetzungs-App auf dem Smartphone oder der Translator von Google auf dem Rechner wertvolle Werkzeuge. Die Programme funktionieren immer besser. Warum eigentlich? Und wo sind die Grenzen? Werden unsere Kinder künftig womöglich gar keine Fremdsprachen mehr lernen?

Eine kleine zweisprachige Plauderei über Gott und die Welt, die so abläuft, dass kaum der Verdacht keimt, sich mit einem Computer zu unterhalten? Das ist keine Science-Fiction, sondern das Ziel, an dem unter anderem Alan Akbik, Professor für Machine Learning an der Humboldt-Universität zu Berlin, arbeitet. Sein Forschungsschwerpunkt ist Natural Language Processing, also die maschinelle Verarbeitung natürlicher Sprache, kurz: NLP. Mit diesen Techniken und Methoden gelingt es unter anderem, dass Maschinen uns verstehen, wenn wir, salopp formuliert, sprechen, wie uns der Schnabel gewachsen ist. Auch der Sinn des Gesprochenen wird erkannt, so dass die Software beispielsweise logische Schlüsse ziehen und Anschlussfragen stellen kann, was sich dann, wenn es gut läuft, wie ein natürliches Gespräch anfühlt.

„Mein Forschungsziel ist es, Maschinen das Verständnis der menschlichen Sprache zu ermöglichen“, sagt der Adlershofer Forscher. Keine leichte Aufgabe: „Ein großer Teil davon besteht darin, Maschinen ein besseres Verständnis der Welt zu vermitteln, was wir durch Modellierung des sprachlichen Weltwissens in Form neuronaler Sprachmodelle angehen.“ Stichwort: „Deep Learning“, also maschinelles Lernen, das so ähnlich wie Lernvorgänge in unserem Gehirn abläuft. Und das heißt: büffeln, büffeln, büffeln. Die Rechner werden mit aberwitzig vielen Paaren von Vokabeln, Sätzen und Kurztexten gefüttert. Mit diesem millionenfachen Input wird die Übersetzungssoftware angelernt, die wiederum von selbst dazulernt.

Allerdings gibt es Grenzen: „Eine große Einschränkung besteht darin, dass diese Ansätze sehr datenhungrig sind“, erklärt Akbik. Soll heißen: Die Qualität des maschinellen Übersetzungssystems hängt davon ab, wie viele Daten für ein Sprachpaar verfügbar sind. Akbik: „Die Daten sollten auch aus der richtigen ‚Domäne‘ stammen.“ Wenn man also medizinische Texte übersetzen möchte, müssen die Trainingsdaten auch medizinische Texte sein. „Dies ist ein großer Engpass, da solche Trainingsdaten nicht immer verfügbar sind“, sagt der Forscher. Eine weitere Einschränkung komplexer neuronaler Ansätze bestehe darin, so Akbik, dass das zugrunde liegende Modell letztlich eine „Black Box“ sei, die mit Datenbeispielen trainiert wird: „Das macht es schwierig zu verstehen, welche Übersetzungsfehler das System macht (auch als ‚Halluzinationen’ bezeichnet) und welche Art von Wissen im Modell noch fehlt, um es zu verbessern.“

weiterlesen...