Appointment with... Benjamin Busam
Projekte, Forschung, International |
Prof. Dr. Benjamin Busam erforscht, wie Maschinen ihre Umgebung dreidimensional sehen und verstehen können. An der Schnittstelle von Computer Vision, Robotik und künstlicher Intelligenz entwickelt er Methoden zur 3D-Rekonstruktion aus Bild- und Sensordaten und erstellt digitale Zwillinge für eine fotorealistische und geometrisch präzise Abbildung unserer Welt. Multimodale Daten werden dabei automatisch analysiert.
Prof. Busam studierte Mathematik und Physik an der Technischen Universität München (TUM), der ParisTech in Frankreich und an der University of Melbourne. Er promovierte in Informatik im Bereich 3D Computer Vision und leitete Forschungsgruppen in der Industrie als Head of Research bei Framos und 3D Computer Vision Team Lead bei Huawei Research in London. Seit 1. September 2025 hat er die Professur für Photogrammetrie und Fernerkundung an der TUM inne.
ED: Wie sind Sie zu dem geworden, der Sie sind?
Prof. Benjamin Busam: Mich hat immer schon die Frage interessiert, wie eine Maschine die Welt wahrnehmen kann. Wir Menschen haben Augen, wir bewegen uns durch die Welt und lernen intuitiv. Dieses Prinzip auf Maschinen zu übertragen, fand ich schon als Kind spannend. Ich wollte verstehen, wie man eine Umgebung objektiv beschreiben kann.
Außerdem hatte ich schon früh ein Faible für Mathematik. Mathematik ist das Vokabular, um die Welt zu beschreiben, und Physik hilft, ihre Dynamik zu verstehen. Deshalb studierte ich Mathematik und schloss meinen Master mit Schwerpunkt Geometrie ab. Damit lernte ich die Grundlagen, die ich heute täglich einsetze.
Danach wollte ich dieses Wissen anwenden und bin zunächst in die Industrie. Bei Framos, einem mittelständischen Unternehmen, gab ich Maschinen „3D‑Augen“, etwa um in der Logistik Pakete zu vermessen oder in der Medizintechnik akkurat minimalinvasiv zu operieren.
Weil mich die Frage, was Maschinen verstehen können, nicht losgelassen hat, promovierte ich in der Industrie, diesmal in Informatik. Mathematik war mein Werkzeug, reale Probleme waren meine Motivation, und Informatik war das operative Tool – diese Kombination fasziniert mich bis heute.
Bei Huawei Research London hatte ich die Chance, Technologie für Menschen nutzbar machen. Viele kennen das Ergebnis vom Fotografieren mit ihrem Smartphone: Wir entwickelten einen Aufnahmemodus, der es erlaubt, Akquiseparameter wie Fokus oder Belichtung durch Simulation auch dann noch zu ändern, wenn das Foto bereits aufgenommen wurde, um so die Regeln für mobile Fotografie neu zu schreiben – und das alles in Echtzeit und auf Millionen von Geräten.
Nach dieser kreativen Arbeit im Consumer-Bereich suchte ich eine neue Challenge. Mein Weg führte mich wieder zurück von der Wirtschaft zur Wissenschaft, zur TUM an den Chair of Computer Aided Medical Procedures, und von dort zur Professorship of Photogrammetry and Remote Sensing.
Wie groß war der Sprung von 3D‑Anwendungen in der Medizin zur Geodäsie?
Der klingt größer, als er ist. Die Anwendungsbereiche unterscheiden sich natürlich, aber die grundlegende Methodik ist erstaunlich ähnlich. Ob ein Roboterarm operiert oder ein Satellit Erdstrukturen erfasst – immer geht es darum, die reale Welt präzise zu digitalisieren.
Ein moderner Wissenschaftler ist heute selten ein Einzelkämpfer. Wir brauchen Teams aus Physik, Informatik, Ingenieurwesen, Mathematik, Geodäsie. So bauen wir auch unser Team am Lehrstuhl auf: interdisziplinär, offen, methodisch stark.
Was ist Ihr erstes großes Forschungsprojekt an der TUM?
Weniger ein einzelnes Projekt, eher ein Ziel: Wir wollen ein realistisches digitales Abbild unserer Umwelt schaffen. So einfach wie ein Foto, aber in 3D. Dieser digitale Zwilling soll geometrisch präzise sein, fotorealistisch aussehen und leicht erfassbar sein, idealerweise sogar per Smartphone.
Dafür kombinieren wir multimodale Daten: Farbbilder, Thermaldaten, Laserscans, Drohnenaufnahmen, Kamerabilder aus Autos oder Satelliten. Unsere Projekte decken dabei die gesamte Skala ab, sei es der Roboter auf Nahdistanz, der Schrauben genau setzt, Drohnenflüge für medizinische Transporte, oder der bayerische Mini-Satellit, der alle drei Tage Landwirtschaftsdaten liefert. Es geht immer darum, die Welt digital so abzubilden, dass Maschinen darin sinnvoll denken und handeln können.
Eine weitere Komponente, die ich mit den informatischen Mitteln erreichen will, ist ein Demokratisierungsprozess. Über Jahrzehnte brauchte es viele Fachleute, die diese digitalen Zwillinge bauten – mit entsprechender Hardware und Know-how. Jetzt wollen wir dieses Equipment und Wissen einer breiten Öffentlichkeit zugänglich machen, sodass man auch einfach mit dem Mobiltelefon einen digitalen Zwilling bauen kann.
Auf welche Veränderung hoffen Sie in der Zukunft?
Technisch gesehen wünsche ich mir noch mehr Interdisziplinarität. Moderne KI ist stark in der Generalisierung, viele Probleme in Photogrammetrie und Fernerkundung sind jedoch hochspezialisiert. Dieses Expertenwissen müssen wir in KI‑Modelle bringen. Gleichzeitig brauchen wir Modelle, die ihr eigenes Embodiment verstehen – also wissen, was sie können. Allein ein Sprachmodell auf eine Drohne zu packen hilft nicht. Das System muss auch wissen, über welche Sensoren die Drohne verfügt und welche Aktionen möglich sind.
Gesellschaftlich hoffe ich darauf, dass der Mehrwert und die Demokratisierungskomponente der Geodäsie sichtbarer werden. Robotik, KI, Umwelt -und Katastrophenschutz, autonome Systeme, Medizin, Landwirtschaft, Bauwesen: Das Fach verfügt über ein enorm breit gefächertes Anwendungsspektrum und ich würde mich freuen, wenn junge Menschen durch unsere Forschung einen Zugang dazu finden.
Geodäsie gibt Studierenden ein äußerst vielseitiges Tool-Set in die Hand. Man kann damit in fast jedes technische Zukunftsfeld hineinwachsen. Ich wünsche mir, dass wir diese Vielfalt sichtbarer machen. Wenn ich in zehn Jahren an eine Schule gehe und jemand sagt: „Geodäsie – das ist doch dieses coole Fach, das überall gebraucht wird!“ – dann habe ich mein Ziel erreicht.