ETH-Bereich

KI-gestützte Vorhersagen ‒Fluch oder Segen?

Künstliche Intelligenz (KI) verspricht die Art und Weise zu revolutionieren, wie wir Vorhersagen treffen. Doch: Wie verlässlich sind solche Vorhersagen und Modellierungen? Welche Vertrauensfragen stellen sich dabei? Es gibt unterschiedliche Ansätze, wie man mit KI analysieren, übersetzen und Zukunftsprognosen erstellen kann. Im ETH-Bereich hat man das Potenzial erkannt.
Mit Midjourney generiertes KI-Bild.

Eine wissenschaftliche Theorie funktioniert genau dann, wenn sie verlässliche Aussagen über zukünftige Ereignisse oder Zustände macht. Man erstellt ein Modell der Welt, man leitet Vorhersagen daraus ab, man testet diese Vorhersagen. Zu verstehen, weshalb etwas passiert, ist eine andere Geschichte. Eine Art von Weltverständnis, die KI vielleicht immer verschlossen bleibt. Aber was sie sehr gut kann, ist mit Daten umgehen.

KI wird oft mit GPT und anderen generativen Modellen gleichgesetzt, dabei sind die jüngsten Erfolge von Machine Learning und KI weit bedeutungsvoller als der Hype um GPT vermuten lassen. Denn das Geheimnis hinter den auch für Fachleuten erstaunlichen Fortschritten der Sprachmodelle ist nichts anderes als deren Fähigkeit zur Vorhersage. Diese unbeschreiblich grossen neuronalen Netzwerke haben nicht eigentlich das «Problem» der Sprache geknackt, sie sind einfach weit besser als ihre Vorgänger darin, die wahrscheinlichste Fortführung eines Satzes zu erraten. Was uns Menschen beim Resultat so erstaunt, ist immer «nur» die Vorhersage des nächsten Worts.

«Der Mensch lernt durch Ausprobieren, durch Trial und Error. Das können auch Maschinen.»      Professor Robert West, Leiter des Data Science Lab (dlab) an der EPFL

Sprachmodelle lernen auch von Bildern

«Doch genau das richtige nächste Wort zu finden – das ist eine ziemlich schwierige Aufgabe», wendet Robert West, Assistenzprofessor für Informatik an der EPFL, wo er das Data Science Lab (dlab) leitet und solche Sprachmodelle erforscht, ein. «Man muss ein wenig die Welt verstehen, um das gut machen zu können.» Womit wir schon mitten in der grossen Kontroverse wären, die aktuell die KI-Welt prägt: Sind diese Sprachmodelle vielleicht tatsächlich etwas mehr als einfach Modelle für Sprache? Seit neustem lernen diese Modelle nicht nur Sprache oder Bilder, sondern alles auf einmal. «Die Bildeingabe verbessert das Sprachsystem. Das eine Modell verstärkt das andere», sagt West. Diese «multimodalen» Modelle könnten dann tatsächlich Dinge einfach durch Anschauen lernen. Als Beispiel nennt West den simplen Fakt, dass «wenn man etwas loslässt, fällt es zu Boden».

Und was passiert, wenn man Roboter mit solchen Systemen ausstattet? «Die menschliche Intelligenz ist in der physischen Welt verankert», sagt West. Kinder seien eigentliche kleine Forscherinnen und Forscher, sie lernen durch Ausprobieren, durch Trial and Error, so wie auch wir erwachsene Menschen. Das könnten auch Maschinen. Was sie auf jeden Fall jetzt schon können: den menschlichen Wissenschaftlerinnen und Wissenschaftlern viel Arbeit abnehmen.

«Sprache der Natur» als Vorbild

Modellieren – testen – validieren. Siddhartha Mishra, Professor an der ETH Zürich kennt den wissenschaftlichen Dreiklang gut. Der Mathematiker und Machine-Learning-Experte arbeitet schon lange daran, Maschinen diese Art der Analyse beizubringen. Mishra hat sich auf partielle Differentialgleichungen spezialisiert, einem mathematischen Tool, mit dem sich viele natürliche Prozesse beschreiben lassen. Er nennt sie die «Sprache der Natur». Diese Sprache zu verstehen und mit ihr zu arbeiten ist aber einiges komplexer als das, was ChatGPT und Konsorten leisten. In der menschlichen Sprache stecke letztlich eine stark komprimierte Version der Welt. «Die Natur ist viel wilder, die Herausforderung dieses System zu modellieren, deshalb ungleich grösser. Andererseits haben wir ja bereits ein viel grösseres Wissen über die Natur, das man nun in die Modelle einfliessen lassen muss.»

Bisher hätten Berechnungen, die partielle Differentialgleichungen beinhalten, rasch die Rechenleistung eines Supercomputers verlangt. Mit KI werden solche Probleme nun viel leichter handhabbar. So hat Mishra zum Beispiel mit Forschenden der Empa schnelle Algorithmen für die Simulation von Laser-Fertigungsverfahren für den 3D-Druck entwickelt. Bislang nahm eine Simulation vier Stunden in Anspruch. KI schafft dasselbe in Mikrosekunden. Das bedeutet, dass in Echtzeit simuliert und gedruckt werden kann. Insbesondere für Tsunami-Frühwarnsysteme, in denen auch partielle Differentialgleichungen stecken, kann Mishras Ansatz lebensrettend sein, wenn die zu erwartenden Ereignisse nach einem Erdbeben viel rascher zu berechnen sind.

Energiepolitische Szenarien

Ähnliches schildert Philipp Heer, der beim Digital Hub (dhub) der Empa für den Bereich KI im Bau- und Energiebereich zuständig ist. Neben klassischen Optimierungsproblemen – wie heizt man ein Haus am effizientesten? – wird hier KI unter anderem auch dafür eingesetzt, energiepolitische Szenarien für die Schweiz zu berechnen. Welche Vertrauensfrage stellt sich, wenn Maschinen zukünftig sagen, welche Art von Politik wir machen sollten? Heer glaubt, dass KI nicht grundsätzlich etwas anderes macht als der menschliche Experte, bloss macht sie es viel schneller. «Es käme etwas Ähnliches heraus, wenn zehn Forschende das Problem während zehn Jahren durchgerechnet hätten.» Mit den aktuellen Systemen sei es nun möglich, eine ungleich grössere Zahl von Szenarien zu modellieren.

«Nowcasting» von urbanen Flutereignissen

João P. Leitão, Gruppenleiter in der Abteilung Siedlungswasserwirtschaft an der Eawag spricht in dem Zusammenhang nicht von «Forecasting», sondern von «Nowcasting». Urbane Flutereignisse nach Starkregen zu prognostizieren werde erst durch die Anwendung von KI-Modellen möglich. Zuvor hätte man die Rechner Stunden lang laufen lassen müssen, um ähnlich hochaufgelöste Simulationen zu erhalten – etwaige Warnungen kämen dann zu spät.

Das verleitet zu Science-Fiction-Gedanken. Wird man in absehbarer Zeit alles simulieren können? Wird KI jede beliebige Datensequenz in die Zukunft weiterrechnen können? Noch hätten sie bei physikalischen Modellierungen keinen ChatGPT-Moment, «noch haben wir diesen magischen Moment nicht», sagt Mishra. Aber wer könne schon sagen, wo es noch hingeht, bei der Geschwindigkeit, mit der die Dinge im Moment passierten. Er sei jedenfalls hoffnungsvoll und optimistisch. «Auf eine gewisse Weise ist das mein grosses Forschungsziel: Eine KI, die das Modellieren der Natur so einfach erscheinen lässt wie GPT es beim Modellieren von Sprache tut.»

Auch West glaubt, dass die aktuellen Modelle weit mehr können als einfach Sprachoutputs zu generieren. «Sie werden als Next-Word-Predictors verwendet – dabei müssen es nicht zwingend Wörter sein, die vorhergesagt werden.» Mit der entsprechenden Datengrundlage funktioniere das ebenso mit Kreditkartentransaktionen, mit seinem Onlineverhalten und sogar mit Gensequenzen.

Vorhersage von Planktonwachstum

Modelle und Erfolgsgeschichten überall. Marco Baity Jesi vertritt in dieser Hinsicht einen rationaleren Standpunkt gegenüber den aktuellen Entwicklungen. Der Physiker erforscht an der Eawag sowohl angewandte wie auch theoretische KI-Ansätze, zum Beispiel zur Simulation von Planktonwachstum in Seen. Aber die grossen Vorteile seien klar: KI erlaube es, mit grossen Datenmengen umzugehen, sie erlaube es, Dinge zu modellieren, auch wenn man im Grunde gar nicht so genau wisse «wie sie funktionieren», und sie erlaube es, Vorhersagen zu treffen. «Wir haben die Tendenz, uns allzu leicht in unsere Modelle zu verlieben.» Und nicht selten sei es eben gar nicht so einfach, die Resultate zu validieren. Diese Stärke mahnt aber auch zur Vorsicht: Die Zukunft ist immer unbestimmt, jede Vorhersage ist bis zu einem gewissen Grad richtig. Ein Mangel an kritischem Denken in der KI-Gemeinschaft könnte seiner Meinung nach ein Problem darstellen, und es ist wichtig, die Zuverlässigkeit von Vorhersagen zu bewerten.

Erkennung von systematischen Fehlern

Auch Konrad Bogner von der WSL kennt das Phänomen. Er ist ein alter Hase auf dem Feld der KI-Vorhersagen. Der Hydrologe hat schon vor zwanzig Jahren für seine Doktorarbeit mit neuronalen Netzen gearbeitet, um Abflussmengen beispielsweise nach Unwettern zu modellieren. Damals hatte den Begriff noch kaum jemand gehört, heute versuchen viele KI anzuwenden. Mit dem Stichwort werde es leichter, die eigene wissenschaftliche Arbeit zu verkaufen.

Aber bringt es auch wirklich einen Nutzen? Es gebe durchaus Anwendungsfelder, die sich mit einfacheren Mitteln genauso gut modellieren lassen. Nutzt man KI auf so differenzierte Weise, steckt darin auch grosses Potenzial, weiss Bogner. So könnten KI-Modellierungen helfen, systematische Fehler in den Vorhersagen zu erkennen. Man kennt das Phänomen als «Bias» bei den Sprachmodellen – die Modelle sind nicht neutral, sie haben unsere Voreingenommenheiten übernommen. Das kann auch bei Meteorologie und Hydrologie passieren, und es kann unseren Blick schärfen für die Schwächen in den herkömmlichen Modellen.

Mishra glaubt, dass eben in dieser «Geerdetheit» eine Stärke von Modellen liegt, welche die Natur modellieren, im Gegensatz zu ChatGPT und Konsorten, die das eher schwammige Konzept Sprache zu meistern versuchen. «In der Natur ist ‹Wahrheit› sehr gut definiert.» Wettervorhersagen seien ein gutes Beispiel. Das machten wir schon lange und hätten insofern auch schon viel Erfahrung darin, die Genauigkeit der Modelle zu testen.

Und wenn es nicht um natürliche Phänomene geht, sondern um eine ärztliche Diagnose? Werden wir da ein ähnliches Grundvertrauen entwickeln? Mishra zögert nicht lange mit der Antwort: «Ich würde mich ohne weiteres einem maschinellen Assistenzsystem anvertrauen.» Seine Frau sei Ärztin, und er sei überzeugt, dass auch sie und ihre Kolleginnen und Kollegen nichts anderes als eine Art Machine Learning betreiben. «Vielen Leuten ist nicht bewusst, dass auch Medizinerinnen und Mediziner mit Modellen arbeiten, dass sie dauernd Annäherungen an die Wahrheit machen». Die Kombination der menschlichen und der algorithmischen Herangehensweisen sei für ihn deshalb sehr naheliegend.

Früherkennung von Krebs

Am PSI erkundet man gerade, wie das in der Praxis aussehen könnte. G.V. Shivashankar, Leiter des Nanoscale Biology Labors am PSI und Professor für Mechano-Genomik an der ETH Zürich, nutzt Bilderkennungs-KI, um speziellen Blutzellen medizinisch relevante Informationen zu entlocken. Was eigentlich entwickelt wurde, um Objekte in Fotos zu identifizieren, hilft die Alterungsprozesse in Zellen zu erkennen oder die Früherkennung von Krebs zu ermöglichen. Die Forschenden machen sich dabei zunutze, dass die DNA je nach Zustand einer Zelle anders «verpackt» ist, was man mit entsprechend sensitiven Mikroskopieverfahren sichtbar machen kann. Mithilfe von Semi-Supervised Learning (Hypridtechnik, die markierte und nicht-markierte Daten nutzt) trainiert man die KI derart, dass sie mit guter Treffsicherheit Blutzellen in einem Körper erkennt, in dem ein Tumor wächst.

«Es war immer schon unsere Philosophie, dass jede Zelle wichtig ist, um Krankheit zu verstehen», erläutert Shivashankar. Klinisch relevante Veränderungen auf der Ebene einzelner Zellen zu verfolgen sei aber sehr herausfordernd, das lasse sich eigentlich nur mit KI schaffen. Er hält die aktuellen Verfahren für «so mächtig» und ihre Anwendung in der Medizin für so fruchtbar, dass aus diesem Zusammenspiel ganz neue KI-Methoden entstehen werden. Die Diagnostik schon in frühen Krankheitsstadien werde jedenfalls weit bedeutender als heute, ist er überzeugt.

Mensch-Maschine

Klar ist: Im Verhältnis Mensch-Maschine wird sich in den nächsten Jahren auf jeden Fall etwas verschieben. Im Gebäudebereich habe man dafür schon seit Längerem ein Gefühl entwickelt, sagt Philipp Heer. Die Automation von Heizsystemen habe deutlich gemacht, dass «wir gerne den Einfluss auf unsere Umgebung behalten». Automatische, sich selbst regelnde Systeme sind Menschen suspekt.

Auch Leitão glaubt, dass KI-gestützte Prozesse unbedingt menschlicher Kontrolle bedürfen. So wie KI-Systeme derzeit gebaut seien, fehlten ihnen die entscheidenden menschlichen Fähigkeiten für die Enscheidungsfindung: «Die konkreten Entscheidungen müssen immer von Menschen getroffen werden».

Ohne politische Regulierung wird das Neuverhandeln dieses Verhältnisses nicht gehen, ist Robert West überzeugt, er findet die aktuellen Bestrebungen, zum Beispiel auf EU-Ebene, «lobenswert». Dabei müsse man aber immer im Blick behalten, welches Potenzial in KI-Methoden steckt. Auch er erwähnt spezifisch den medizinischen Bereich. Aber die Herausforderungen seien gross: «Es ist nicht dasselbe, ob man einen Industrieroboter oder eine Dampfmaschine reguliert.» KI-Modelle hätten die Möglichkeit, sich selbst zu verbessern. «Sie können quasi 'in die reale Welt' gehen und selbst herausfinden, wie diese funktioniert.» Was das genau bedeute, ob das zu einer exponentiellen Verbesserung der Modelle führe, das sei derzeit schwer abzusehen. «Falls es zu einer solchen Entwicklung kommt, können wir als Menschen dann wohl überhaupt keine Vorhersagen mehr machen», was die Zukunft der KI anbelangt.

Sicher ist für West derzeit nur eins: «Es ist etwas Grosses im Kommen.» Mit ChatGPT sei das nun auch einer breiten Öffentlichkeit bewusst geworden. «Sprache ist so offensichtlich, weil sie so menschlich ist, und weil so vieles in Sprache dargestellt werden kann. Aber damit wird es nicht aufhören.»