TU Wien CAIML

„Forum Zukunft“ #staytuned discuss about AI with Stefan Woltran

„Forum Zukunft“: The interview series on important and sensitive topics of the future.

Stefan Woltran, CAIML
Stefan Woltran, CAIML

On This Page

About the Event

Mit Stefan Woltran über KI diskutieren Freitag. 11.02.2022 von 14.00–16:00 Uhr live auf den TUW-Social Media-Kanälen Facebook und Instagram.

Interview

Vorab-Interview im Rahmen der Serie “Forum Zukunft”: (Interview geführt von Florian Aigner)

Was sind die Chancen und Risiken künstlicher Intelligenz? Stefan Woltran erzählt im Interview über Training für neuronale Netze, über logische Regeln und darüber, dass sich künstliche Intelligenz möglicherweise in anderen Bereichen durchsetzen könnte als wir heute vermuten.

Künstliche Intelligenz gilt heute als eines der wichtigsten technologischen Zukunftsthemen. Als Sie begannen, sich damit zu beschäftigen, war das noch nicht in diesem Ausmaß der Fall. Wie wurden Sie zum KI-Forscher?

Stefan Woltran: Mein ursprüngliches Fachgebiet ist die Forschung an Logik und Algorithmen. In diesem Bereich war künstliche Intelligenz bis vor einigen Jahren nicht unbedingt das große Thema. Aber bei uns an der TU Wien wurde dieser Zusammenhang schon früh gesehen – auch den Namen unseres Forschungsbereichs „Databases and Artificial Intelligence“ gibt es schon seit über 30 Jahren: Wenn man künstliche Intelligenz entwickeln möchte, die auf symbolischer Ebene arbeitet und regelbasierte Schlussfolgerungen durchführt, dann braucht man die Logik. Wir entwickeln logische Formalismen, die mittlerweile auch Verbindungen von künstlicher Intelligenz zu ganz anderen Forschungsbereichen ermöglichen, etwa zu Psychologie oder Linguistik.

Unter „Intelligenz“ versteht man aber oft ein Verhalten, das nicht unbedingt rein logisch ist – etwa Bilderkennung, eine Aufgabe, die man nicht mit mathematischen Formeln löst, sondern mit neuronalen Netzen, die unserem Gehirn nachempfunden sind.

Woltran: Ja, in der Objekterkennung kann man nicht bloß mit logischen Regeln arbeiten. Ich kann einem Computerprogramm nicht beibringen: Wenn es vier Beine und eine Mähne hat, ist es ein Löwe, das ist in der Praxis nicht hilfreich. Man braucht stattdessen große Datenmengen und ein System, das gezielt darauf trainiert wird, Löwen zu erkennen. Das System schafft das dann auch sehr gut, aber das Problem ist: Man kann nicht genau erklären, warum. Wenn wir Menschen Bilder erkennen, ist das anders. Wir finden die Lösung zwar vielleicht auf ähnliche Weise, mit Hilfe der vernetzten Zellen in unserem Gehirn, aber wenn uns jemand fragt, warum wir auf dem Bild einen Löwen erkennen, können wir Gründe dafür angeben – vielleicht lag es an der Farbe des Fells oder an der Kopfform. Und das ist ein großes Ziel in der Forschung an künstlicher Intelligenz: Wir wollen KI erklärbar machen – und dafür braucht man wieder klare logische Regeln. Diese Erklärbarkeit der KI ist auch wichtig für die Akzeptanz: Wir wollen nicht nur ein Ergebnis erhalten, das wir einfach glauben müssen, wir wollen auch nachvollziehen können, wie die KI auf dieses Ergebnis kommt.

Neuronale Netze und logische Methoden sind also zwei verschiedene aber kompatible Forschungsrichtungen in der KI?

Woltran: Die beiden Communitys haben sich ziemlich getrennt voneinander entwickelt: Auf der einen Seite hat das Internet dazu geführt, dass plötzlich gewaltige Mengen an Daten zur Verfügung stehen, mit denen man neuronale Netze trainieren kann. Für Objekterkennung, Spracherkennung oder auch automatische Übersetzungsprogramme hat das einen gewaltigen Sprung nach vorne gebracht. Auf der anderen Seite hat gesteigerte Rechenleistung dazu geführt, dass auch die regelbasierten logischen Methoden immer mächtiger wurden – etwa die automatische Erstellung von komplizierten Zugfahrplänen oder Schichtplänen in großen Firmen, oder Routenplaner im Auto. Wir möchten diese beiden Communities näher aneinander bringen. Ich glaube, die Verbindung beider Sichtweisen wird die künstliche Intelligenz deutlich verbessern und auch verlässlicher und vertrauenswürdiger machen.

Wie stellen Sie sich die Zukunft der künstlichen Intelligenz vor?

Woltran: Das ist natürlich schwer abzuschätzen. Ich glaube nicht an Zukunftsvisionen von künstlichen Menschen, ich glaube nicht, dass man Computer mit einem menschenähnlichen Bewusstsein erschaffen wird. Künstliche Intelligenz wird sich weiterentwickeln, aber es wird einfach etwas anderes sein als menschliche Intelligenz. Vielleicht kann man das mit Flugzeugen vergleichen: Sie können fliegen wie die Vögel, aber sie sind etwas völlig anderes als Vögel. Sie sind auch kein Ersatz für Vögel, sondern haben ganz neue Eigenschaften, etwa einen Düsenantrieb. Bessere KI bedeutet nicht, dass Maschinen immer menschenähnlicher werden. In manchen Bereichen werden sie uns übertreffen, und wir werden uns das zunutze machen.

Wo werden wir im Jahr 2050 im Alltag KI erleben?

Woltran: Am lange angekündigten selbstfahrenden Auto zeigt sich: Oft geht es dann doch nicht so schnell wie man dachte. Trotzdem glaube ich, dass KI-Tools in vielen Bereichen eine Rolle spielen werden, zum Beispiel in der medizinischen Diagnostik. Nach wie vor werden Menschen Teil des Entscheidungsprozesses sein, aber schon vorher kann die künstliche Intelligenz Daten aufbereiten, sortieren und auf passende Weise dem Menschen zur Verfügung stellen. Ich glaube, auch in der öffentlichen Verwaltung, im Justizbereich, in der Politik und im wirtschaftlichen Management wird sich künstliche Intelligenz als sehr nützlich erweisen. Im 20. Jahrhundert sind durch den Computer Jobs verlorengegangen, bei denen man mühsam mit Akten und Karteikarten hantieren musste. Vielleicht sind es doch eher die Manager-Jobs, die im 21. Jahrhundert durch KI verlorengehen.

Politik, Gerichtsurteile oder wirtschaftliche Entscheidungen werden Menschen wohl nicht aus der Hand geben wollen.

Woltran: Nicht aus der Hand geben, aber in Zusammenarbeit mit künstlicher Intelligenz effizienter erledigen. Vielleicht nutzt ein Richter künstliche Intelligenz, um in kürzester Zeit ähnlich gelagerte Fälle aus der Vergangenheit zu finden. Vielleicht kann man sich in der Politik von einer künstlichen Intelligenz einschätzen lassen, welche Auswirkungen eine bestimmte Änderung der Steuerpolitik auf welche Teile der Bevölkerung haben könnte. Diese Assistenztätigkeiten werden wir abgeben, und wir Menschen werden dadurch rascher bessere Entscheidungen treffen können. In der Personalauswahl etwa spielt künstliche Intelligenz heute schon eine Rolle.

An Social-Media-Algorithmen, die oft eher für Hass und die Bildung von Filterbubbles sorgen, sieht man, dass die Wirkung von künstlicher Intelligenz auf Menschen aber auch negativ sein kann.

Woltran: Mit jeder neuen Technologie kann man Unheil anrichten. Die Herausforderung wird sein, sie für etwas Gutes zu nutzen. Die Chancen sind da: Vielleicht haben wir in Zukunft automatische Fact-Checker Tools, die uns helfen, Fake News von Fakten zu unterscheiden. Vielleicht hilft uns das sogar, unsere Gesellschaft friedlicher und demokratischer zu machen.