Prof. Dr. Bernhard Egger

Juniorprofessur for Cognitive Computer Vision

I study how humans and machines can model and perceive 3D shapes and faces.

Research Projects

  • Inverse Rendering, 3D from 2D
  • Statistical Shape Modeling
  • Face Capture
  • Multimodal representation learning
  • Generalization in human and machine perception

  • Scaling Inverse Rendering to the Real World

    (Third Party Funds Single)

    Term: 1. August 2022 - 31. July 2025
    Funding source: Bundesministerium für Bildung und Forschung (BMBF)

    omputergestützte Lernverfahren zur Bildanalyse sind heute bereits in bestimmten Anwendungsfeldern schneller oder zuverlässiger als Menschen. Die gleichen Verfahren scheitern aber in komplexeren Umgebungen, insbesondere in Situationen auf denen die Algorithmen nicht trainiert wurden.  Solche Verfahren werden heutzutage hauptsächlich mit enormen Datenmengen und manuellen Annotationen trainiert. Wir glauben, dass die computergestützte Bildanalyse nicht ausschliesslich als Lernproblem angesehen werden darf, sondern stark von dateneffizienten Ansätzen profitieren wird. 

    In diesem interdisziplinären Projekt schlagen wir einen Ansatz vor, der die bestehenden Limitierungen basierend auf generativen Modellen und einem inversen Ansatz überwindet. Inverse Methoden zur Bildanalyse zielen darauf ab, alle Teile der Szene zu rekonstruieren, dies beinhaltet die 3D Form der Objekte, ihre Materialeigenschaften, Position sowie die Beleuchtung. Existierende inverse Ansätze funktionieren für einzelne Objekte oder auf synthetischen Daten aber bisher nicht ausreichend in komplexen und realistischen Umgebungen.

    In diesem Projekt leisten wir Grundlagenforschung bezüglich dreier Herausforderungen: Die erste Herausforderung liegt auf der Modellierungsseite. Inverse Methoden sind bisher nicht ausreichend (foto)realistisch und während wir für spezifische Objekte im Bereich der Analyse-durch-Synthese z.B. Gesichter grosse Fortschritte gemacht haben, skaliert dieser Ansatz nicht für generelle Objekte. Die zweite Herausforderung ist die Skalierung vom einzelnen Objekt zur Szene. Dies beinhaltet nun auch das Detektionsproblem von Objekten. Die dritte Herausforderung liegt darin herauszufinden ob unser menschliches visuelles System Methoden basierend auf der Idee von Generativen Modellen und inversen Methoden umsetzt oder nicht.

    Aus unserer Sicht können die aktuellen Limitierungen im Bereich des Computer Sehens nur, wie hier vorgeschlage gelöst werden - wenn der inverse Ansatz auf echten Daten besser generalisiert, wird er auch sehr schnell seinen Weg in Anwendungen finden. Anwendungsbereiche umfassen zum Beispiel medizinische Anwendungen, das autonome Fahren oder auch Robotik wo in vielen Bereichen heutige Algorithmen unzureichende Resultate liefern.  In Deutschland werden viele deartige Systeme entwickelt und weiterentwickelt und es entsteht ein Mehrwert für Industrie und Forschung

  • Visualisierung von Bewegungsabläufen basierend auf einem biomechanischen Modell

    (Third Party Funds Group – Sub project)

    Overall project: Empathokinästhetische Sensorik - Sensortechniken und Datenanalyseverfahren zur empathokinästhetischen Modellbildung und Zustandsbestimmung (EmpkinS)
    Term: 1. July 2021 - 30. June 2025
    Funding source: DFG / Sonderforschungsbereich (SFB)
    URL: https://www.empkins.de/

    Im Teilprojekt B04 werden innovatiive Verfahren zur Visualisierung von Bewegungsabläufen, die mit verschiedenen empathokinästhetischen Sensoren erfasst und/oder für die eine biomechanische Simulation durchgeführt wurde, erforscht. Der Fokus liegt dabei auf Visualisierungen und der Extraktion von Merkmalen, die bei der medizinischen Interpretation und Diagnose unterstützen.

  • Empathokinästhetische Sensorik für Biofeedback bei depressiven Patienten

    (Third Party Funds Group – Sub project)

    Overall project: Empathokinästhetische Sensorik
    Term: 1. July 2021 - 30. June 2025
    Funding source: DFG / Sonderforschungsbereich (SFB)
    URL: https://www.empkins.de/

    The aim of the D02 project is the establishment of empathokinesthetic sensor technology and methods of machine learning as a means for the automatic detection and modification of depression-associated facial expressions, posture, and movement. The aim is to clarify to what extent, with the help of kinesthetic-related modifications influence depressogenic information processing and/or depressive symptoms. First, we will record facial expressions, body posture, and movement relevant to depression with the help of currently available technologies (e.g., RGB and depth cameras, wired EMG, established emotion recognition software) and use them as input parameters for new machine learning models to automatically detect depression-associated affect expressions. Secondly, a fully automated biofeedback paradigm is to be implemented and validated using the project results available up to that point. More ways of real-time feedback of depression-relevant kinaesthesia are investigated. Thirdly, we will research possibilities of mobile use of the biofeedback approach developed up to then.

2024

2023

2022

2021

2020

Related Research Fields

Contact: