Mondelli Group
Data Science, Machine Learning und Informationstheorie
Wir befinden uns inmitten einer Revolution der Informationstechnologie, in der Daten die wichtigste Ware darstellen. Die Auswertung einer explodierenden Zahl von Datensätzen macht die Behandlung von komplexen Inferenzproblemen notwendig. Die Mondelli Gruppe arbeitet an der Entwicklung mathematischer Lösungen. Diese Inferenzprobleme erstrecken sich über verschiedene Gebiete und entstehen in vielen Applikationen aus den Ingenieurs- und Naturwissenschaften. Die Mondelli Gruppe konzentriert sich insbesondere auf kabellose Kommunikation und maschinelles Lernen. Das Ziel kabelloser Kommunikation in einem Übertragungskanal ist, codierte Information als Botschaft zu senden und Maße wie Komplexität, Zuverlässigkeit, Latenz, Durchsatz und Bandbreite zu optimieren. Das Ziel des maschinellen Lernens ist zu verstehen, wie viele Samples genügende Information übermitteln, um eine gewisse Aufgabe zu erfüllen, und die besten Methoden herauszufinden, diese Samples einzusetzen. Die Informationstheorie inspiriert sowohl die Sichtweise als auch die Werkzeuge der Mondelli Gruppe, was zur der Untersuchung der folgenden grundlegenden Fragen führt: Wie wenig Information braucht es, um ein Inferenzproblem zu lösen? Ist der Entwurf eines Algorithmus mit geringer Komplexität möglich? Was sind die Vor- und Nachteile der beteiligten Paramater (z.B. Dimension des Problems, Größe des Datensamples, Komplexität)?
Team
Laufende Projekte
Grenzen des und effiziente Algorithmen für Deep Learning | Nicht-konvexe Optimierung in hohen Dimensionen | Optimales Code-Design für kurze Blocklängen
Publikationen
Gozeten HA, Ildiz ME, Zhang X, Soltanolkotabi M, Mondelli M, Oymak S. 2025. Test-time training provably improves transformers as in-context learners. Proceedings of the 42nd International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 267, 20266–20295. View
Zhang Y, Ji HC, Venkataramanan R, Mondelli M. 2025. Spectral estimators for structured generalized linear models via approximate message passing. Mathematical Statistics and Learning. 8(3–4), 193–304. View
Bombari S, Mondelli M. 2025. Spurious correlations in high dimensional regression: The roles of regularization, simplicity bias and over-parameterization. Proceedings of the 42nd International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 267, 4839–4873. View
Wu D, Mondelli M. 2025. Neural collapse beyond the unconstrained features model: Landscape, dynamics, and generalization in the mean-field regime. Proceedings of the 42nd International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 267, 67499–67536. View
Kovačević F, Yihan Z, Mondelli M. 2025. Spectral estimators for multi-index models: Precise asymptotics and optimal weak recovery. Proceedings of 38th Conference on Learning Theory. COLT: Conference on Learning Theory, PMLR, vol. 291, 3354–3404. View
ReX-Link: Marco Mondelli
Karriere
Seit 2025 Professor, Institute of Science and Technology Austria (ISTA)
2019 – 2025 Assistant Professor, Institute of Science and Technology Austria (ISTA)
2017 – 2019 Postdoc, Stanford University, Stanford, USA
2018 Research Fellow, Simons Institute for the Theory of Computing, Berkeley, USA
2016 PhD, EPFL, Lausanne, Schweiz
Ausgewählte Auszeichnungen
2019 Lopez-Loreta Prize
2018 Simons-Berkeley Research Fellowship
2018 EPFL Doctorate Award
2017 Early Postdoc Mobility Fellowship, Swiss National Science Foundation
2016 Best Paper Award, ACM Symposium on Theory of Computing (STOC)
2015 Best Student Paper Award, IEEE International Symposium on Information Theory (ISIT)
2015 Dan David Prize Scholarship


