10. August 2020

8 Fragen an Thomas Sokolowski

Oder, welche Mechanismen den "Zufall in Schach halten" und wie man diese besser verstehen kann.

Im Rahmen des LOEWE-Schwerpunkts CMMS ist Thomas Sokolowski im April 2020 ans FIAS gekommen. Im Interview erklärt er nun wie er stochastische Methoden und fundamentale Gesetze nutzt, um komplizierte biochemische Prozesse auf der Zell- und Gewebeebene effizient und möglichst wahrheitsgetreu zu beschreiben.

In ihrer Forschung nutzen Sie stochastische Methoden um lebende Systeme zu beschreiben. Warum ist dieser mathematische Ansatz für biologische Prozesse interessant?

Heutzutage ist die Vorstellung sehr verbreitet, dass lebende Systeme ein "perfektes Design" haben und daher
vergleichbaren technischen Lösungen des Menschen oft überlegen sind. Und in vielen Fällen ist dies tatsächlich so. Jedoch verzerrt dies den Blick auf die Tatsache, dass biologische Mechanismen auf molekularen Transport- und Umwandlungsprozessen basieren. Diese sind von Grund auf stochastisch, also zufällig, und können daher ein bestimmtes "Ziel" nur mit einer gewissen, eventuell geringen Wahrscheinlichkeit erreichen. Zum Beispiel kann ein Molekül, welches dem Inneren der Zelle eine Veränderung an der Zellmembran signalisieren soll, dieses Signal nur mithilfe einer Zufallsbewegung (Diffusion) an seinen Bestimmungsort bringen. Und selbst, wenn das Molekül – allem Zufall zum Trotz – diesen einmal erreicht hat, kann das Signal nur durch eine chemische Umwandlung übertragen werden, welche wiederum ein Zufallsprozess ist. Der Einfluss solcher mikroskopischer Zufallsprozesse auf das Verhalten eines ganzen übergeordneten Systems ist nicht nur in biologischen Zellen maßgeblich, sondern auch in Populationen von Organismen. Derzeit erfahren wir das am Beispiel der Verbreitung des Coronavirus sehr lebensnah. 

Wie funktioniert das?

Um lebende Systeme wirklich wahrheitsgetreu zu beschreiben, braucht man also stochastische Methoden. Wichtig ist hierbei, dass sowohl die besagten mikroskopischen Zufallsprozesse als auch ihre biophysikalischen Randbedingungen realistisch modelliert werden. Und zwar, weil sich die Effekte dieser stochastischen Grundprozesse aufaddieren, und in der Folge selbst kleine Abweichungen in ihrer Beschreibung zu stark unterschiedlichen Resultaten auf der Zell- oder Gewebeebene führen können. In der Praxis bedeutet dies, dass die in den biologischen Modellen verwendeten Zufallsverteilungen und Beschreibungen der sie beeinflussenden Effekte im Einklang mit den Grundprinzipien der statistischen Physik und Chemie sein müssen.

Welche Prozesse/Systeme faszinieren Sie hierbei im Besonderen?

Zunächst einmal überhaupt die Tatsache, dass lebende Organismen mithilfe von fehleranfälligen Zufallsprozessen Informationen zuverlässig verarbeiten und dadurch zielgerichtete Aktionen in die Wege leiten können – und zwar mit einer Präzision und Effizienz, welche unserer modernen Technik nicht nachsteht oder gar überlegen ist. Das prominenteste Beispiel ist hier sicherlich das menschliche Gehirn, mit welchem sich auf Grund seiner Komplexität heute ein eigener Wissenschaftszweig beschäftigt. Überraschender ist aber, dass wir Beispiele für effiziente Informationsverarbeitung sogar in den einfachsten Organismen wie Bakterien finden. Mithilfe verbesserter Labormethoden konnte die frappierend hohe Präzision vieler solcher Prozesse in den letzten Jahrzehnten quantitativ bestimmt werden. Aber unser mechanistisches Verständnis dafür, wie diese Präzision erreicht wird, steht noch in den Anfängen – insbesondere für komplexere, vielzellige Systeme. 

Inwiefern ist Informationsverarbeitung für lebende Systeme relevant?

Effiziente Informationsverarbeitung ist nicht nur zu Lebzeiten des Organismus relevant, sondern für seine Entstehung überhaupt. Den Begriff "Leben" verbinden die meisten intuitiv mit Metabolismus bzw. Selbsterhaltung und Fortpflanzung bzw. Arterhaltung, und vielleicht noch der Fähigkeit zu zielgerichteter Bewegung. Man kann das Phänomen Leben aber auch als einen sich räumlich ausbreitenden, über viele Generationen von Organismen erstreckenden Informationsverarbeitungsprozess sehen, welcher mittels ständiger Evolution dahingehend verfeinert wird, Informationen über funktionierende Konzepte effizient weiterzugeben. Der Mensch ist von Natur aus darauf getrimmt, sich selbst in seinen Kindern wiederzuerkennen, und hält dies daher für eine Selbstverständlichkeit – doch das Gegenteil ist der Fall. Je mehr man sich mit den der Embryoentwicklung zu Grunde liegenden Prozessen beschäftigt, umso erstaunlicher erscheint es, dass die in der genetischen Information kodierte "Blaupause" für den Organismus überhaupt derart reproduzierbar ist. Umso faszinierender wird die Frage danach, welche natürlichen Mechanismen dies bewerkstelligen. Noch spannender finde ich allerdings die Tatsache, dass die Evolution trotz ihres brutalen Optimierungsdrucks für das Problem der effizienten Informationsverarbeitung nicht nur eine, oder wenige, gute Lösungen gefunden hat, sondern uns immer wieder mit neuen, gleichfalls effizienten Mechanismen überrascht. Dies steht im Gegensatz zur offensichtlichen Konvergenz von technischen Lösungen für "rein physikalische" Probleme, wie z.B. bei Trägerraketen oder Passagierflugzeugen. Möglicherweise verbirgt sich dahinter ein fundamentales Prinzip: dass nämlich ab einer gewissen Systemkomplexität unter geeigneten Randbedingungen die Anzahl "hinreichend optimaler" Lösungen explodiert. Wir beobachten Ähnliches z.B. bei Deep-Learning-Algorithmen. Ich glaube, dass ein besseres Verständnis dieses Zusammenspiels zwischen Komplexität und "Optimisierbarkeit" ein wichtiger Schlüssel dazu sein wird, das Phänomen Leben und seine evolutionäre Vielfalt zu verstehen.

Um biochemische Reaktionen zu beschreiben braucht man vermutlich ziemlich viel Rechenleistung. Wie schafft man es Algorithmen zu erstellen, die gleichzeitig effizient sind, aber auch die Realität nicht so stark vereinfachen, dass sie ungenau werden?

Eine biologische Zelle besteht aus Trillionen von Atomen, deren Verhalten von Zufallsprozessen gesteuert ist. Selbstverständlich können wir nicht alle diese Prozesse mikroskopisch modellieren, um biochemische Abläufe zu simulieren und zu verstehen. Und selbst wenn wir dies in ferner Zukunft könnten, wäre es nicht sinnvoll. Denn durch geschickte Simulationsalgorithmen können viele Zufallsprozesse mit wesentlich weniger Rechenschritten simuliert werden. Die "Kunst" hierbei besteht darin, diejenigen Prozesse, deren Effekt wir aus berechenbaren Zufallsverteilungen vorbestimmen können, von denjenigen zu trennen, welche wir tatsächlich mikroskopisch Schritt für Schritt simulieren müssen.  Wenn zum Beispiel das bereits beispielhaft erwähnte Signalmolekül die meiste Zeit mit freier Diffusion im Zellinneren verbringt, und nur selten auf Reaktionspartner trifft, dann ist es unnötig, jeden Diffusionsschritt einzeln zu simulieren. Stattdessen können wir in diesem Fall die Zufallsverteilung für den Diffusionsprozess exakt berechnen und daraus einen damit konsistenten späteren Aufenthaltsort vorhersagen. Dies kann unter Umständen Millionen von Rechenschritten sparen. Selbst wenn das Molekül in die Nähe potentieller Reaktionspartner kommt, kann in vielen Fällen die Zufallsverteilung für die Reaktionsereignisse exakt berechnet werden. Dies allerdings erfordert viele mathematische Herleitungen, welche analytisch in der Tat oft nur mittels vereinfachender Annahmen durchführbar sind. Zum Beispiel ist eine gängige Vereinfachung, Moleküle als perfekte Kugeln zu repräsentieren, wenn ihre interne Struktur für den untersuchten Prozess nicht so relevant ist wie ihre räumliche Verteilung in der Zelle. Jedoch ist es dann überaus wichtig, das darauf aufbauende Modell so zu definieren, dass die vereinfachten "Kugelmoleküle" sich im Großen und Ganzen so verhalten, als ob sie eben nicht vereinfacht wären. Hierbei sind neben theoretischen Überlegungen oft auch Simulationen auf einer räumlich feineren Skala – dann allerdings mit weniger Molekülen – aufschlussreich. Unter anderem deshalb ist es auch so wichtig, dass Ansätze auf verschiedenen räumlichen Skalen verknüpft werden, wie jetzt im CMMS-Forschungsschwerpunkt.

Wird dies auch ihre Arbeit am FIAS beschäftigen?

Auf jeden Fall, denn der Kompromiss, dass Realismus und Detailgenauigkeit von Modellen zu Lasten der Recheneffizienz geht, ist ein fundamentaler. Selbst wenn wir "unbegrenzte" Rechenkapazitäten zur Verfügung hätten, würden wir mit ihnen ja nicht verschwenderisch umgehen wollen. Schließlich verursachen Computerberechnungen nicht nur finanzielle Kosten, sondern vor allem auch einen signifikanten Energieverbrauch. Es herrscht somit, nicht nur in den Lebenswissenschaften, ein permanenter Bedarf danach, realistische Modelle effizienter berechenbar zu machen, oder umgekehrt, effiziente Algorithmen auf detailliertere Modellszenarien auszuweiten. 

Mit meiner Arbeit am FIAS möchte ich auch tatsächlich beide dieser Wege beschreiten: In der Vergangenheit habe ich Modelle und Algorithmen entwickelt, welche biochemische Prozesse auf der Zell- und Gewebeebene äußert effizient berechnen können--allerdings nur in relativ vereinfachten Geometrien. Hier werden wir an Erweiterungen hin zu realistischeren Repräsentationen der biologischen Strukturen und ihrer Dynamik unter Beibehaltung der hohen algorithmischen Effizienz arbeiten. Zum anderen möchten wir, ausgehend von deterministischen Modellen mit höherem Grad an Detail, effiziente und vor allem auch biophysikalisch korrekte stochastische Algorithmen zu deren Simulation entwickeln. Die Herleitung mathematischer Vorhersagen für die mikroskopischen stochastischen Prozesse wird hierbei natürlich eine zentrale Rolle spielen. 

Der LOEWE-Schwerpunkt CMMS vereint Biologen, Informatiker, Physiker und Mathematiker mit dem Ziel ein umfassendes Verständnis sowohl von elementaren molekularbiologischen Prozessen, wie der Wirkungsweise eines Enzyms, bis hin zu dem komplexen Verhalten von Organismen zu erhalten. Was erwarten Sie von diesem interdisziplinären Großprojekt?

Der genuin interdisziplinäre Ansatz des CMMS-Schwerpunkts bietet allen Beteiligten großartige Möglichkeiten, ihre Forschungsbemühungen synergisch zu verzahnen, gerade auf Grund ihrer unterschiedlichen wissenschaftlichen Prägung. Dies spielt sich auf drei Hauptebenen ab: Erstens bringen Forscher unterschiedlicher Disziplinen ihre jeweils eigene prinzipielle Sicht- und Herangehensweise mit, welche den gleichen Forschungsgegenstand von verschiedenen Seiten beleuchtet und somit das Verständnis aller relevanten Details fördert. Zweitens umspannt das Projekt Forschung zu teilweise sehr unterschiedlichen lebenden Systemen; trotz aller Unterschiede eint sie aber die Gemeinsamkeit, dass die Natur effiziente Lösungen dafür gefunden hat, auf der Basis elementarer, fundamental stochastischer Prozesse zielgerichtete Operationen durchzuführen. Durch Vergleich solcher Mechanismen zwischen den Systemen können einerseits neue Hypothesen formuliert, andererseits auch die natürliche Vielfalt unterschiedlicher effizienter Lösungen für ähnliche Aufgaben ergründet werden. Drittens ermöglicht die Herangehensweise auf unterschiedlichen benachbarten Skalen, die Richtigkeit von Ansätzen und Modellen auf der nächstfeineren Skala zu validieren und das Zusammenspiel von Mechanismen auf der nächsthöheren Skala zu verstehen. 

Persönlich verspreche ich mir von den Interaktionen innerhalb des Projekts vor allem, mein Verständnis von den verschiedenartigen Mechanismen, welche in lebenden Systemen "den Zufall in Schach halten" zu erweitern und zu vertiefen. Und insbesondere einerseits besser zu verstehen, wie elementare effiziente Mechanismen der Informationsverarbeitung in Zellen auf der übergeordneten Skala von Zellpopulationen und Geweben orchestriert und dadurch noch weiter verbessert werden können, und andererseits, wie diese elementaren Mechanismen überhaupt funktionell auf der untergeordneten, molekularen Skala chemisch und physikalisch implementiert werden können.

Gibt es Kollaborationen/Synergien, die Sie besonders spannend finden/auf die Sie sich freuen? 

Meine Arbeit spielt sich auf einer Skala ab, welche sich zwischen Gruppen einzelner Moleküle und kommunizierenden Zellgruppen erstreckt. Daher freue ich mich insbesondere auf Zusammenarbeit mit den Arbeitsgruppen, deren Forschung auf den jeweils benachbarten Skalen angesiedelt ist, im Einklang mit dem vordringlichen Ziel des CMMS-Schwerpunkts. Besonders spannend wird hierbei die Herausforderung sein, neuartige Modelle und Algorithmen zu entwickeln, welche die unterschiedlichen Skalen in effizienter Weise umfassen, und somit zugleich realistischer und breiter anwendbar sein werden. 

Gleichzeitig freue ich mich auch auf die thematischen Interaktionen mit den Gruppen, welche sich mit Prozessen der Informationsverarbeitung in lebenden Systemen beschäftigen, v.a. im Bereich der Gewebeentwicklung. Die Vielfalt der verschiedenen Systeme, die im Rahmen des CMMS-Projekts untersucht werden, wird es uns ermöglichen, relevante Erkenntnisse auszutauschen und ein umfassendes Bild von erfolgreichen biologischen Informationsverarbeitungsstrategien zu erhalten. Zudem bin ich davon überzeugt, dass Methoden und Erkenntnisse aus der stochastischen Modellierung biochemischer Prozesse auch zum Verständnis von stochastisch agierenden Populationen beitragen könnten, und zwar nicht nur im biologischen, sondern auch im sozialen Kontext. In diesem Kontext fände ich es äußerst spannend, mögliche Synergien mit den hier am FIAS vertretenen Bereichen Epidemiologie und Econophysics auszuloten.


weitere Informationen

Thomas Sokolowski
FIAS Fellow Thomas Sokolowski