Können Computersysteme den Sinn der Daten verstehen, die sie verarbeiten? Übersetzungsprogramme haben gerade bei literarischen Texten enorme Schwächen – und ihnen fehlt trotz künstlicher Intelligenz das Weltwissen, um richtige Bezüge herzustellen.

Stuttgart - Es fehlt etwas Grundlegendes, wenn Maschinen Menschen verstehen wollen. Anette Frank, Professorin für Computerlinguistik an der Universität Heidelberg, hat das kürzlich bei der 40. Jahrestagung der Deutschen Gesellschaft für Sprachwissenschaft in Stuttgart anhand einfacher Beispiele gezeigt: „Das ist John mit seinem Sohn George. Gestern hat er ihn in den Zoo mitgenommen.“ Während für Menschen intuitiv klar ist, wer wen mitgenommen hat, bleibt das für Maschinen ein Rätsel. Das macht sich etwa bei automatischen Übersetzungsprogrammen bemerkbar. „Gestern hatte er seine erste Schwimmstunde“ könnte der zweite Satz ebenso lauten: Auch hier ist für Menschen klar, dass wohl nicht der Vater, sondern der Sohn gemeint ist. Einmal ist „er“ der Vater, einmal der Sohn – das verwirrt Maschinen. „Wir wissen das aufgrund unseres Weltwissens“, erklärt Frank, „in der Sprache bleibt unglaublich viel solchen Wissens implizit – und wird nie geäußert.“