Skip to main content

Mondelli Group

Data Science, Machine Learning und Informationstheorie

Wir befinden uns inmitten einer Revolution der Informationstechnologie, in der Daten die wichtigste Ware darstellen. Die Auswertung einer explodierenden Zahl von Datensätzen macht die Behandlung von komplexen Inferenzproblemen notwendig. Die Mondelli Gruppe arbeitet an der Entwicklung mathematischer Lösungen. Diese Inferenzprobleme erstrecken sich über verschiedene Gebiete und entstehen in vielen Applikationen aus den Ingenieurs- und Naturwissenschaften. Die Mondelli Gruppe konzentriert sich insbesondere auf kabellose Kommunikation und maschinelles Lernen. Das Ziel kabelloser Kommunikation in einem Übertragungskanal ist, codierte Information als Botschaft zu senden und Maße wie Komplexität, Zuverlässigkeit, Latenz, Durchsatz und Bandbreite zu optimieren. Das Ziel des maschinellen Lernens ist zu verstehen, wie viele Samples genügende Information übermitteln, um eine gewisse Aufgabe zu erfüllen, und die besten Methoden herauszufinden, diese Samples einzusetzen. Die Informationstheorie inspiriert sowohl die Sichtweise als auch die Werkzeuge der Mondelli Gruppe, was zur der Untersuchung der folgenden grundlegenden Fragen führt: Wie wenig Information braucht es, um ein Inferenzproblem zu lösen? Ist der Entwurf eines Algorithmus mit geringer Komplexität möglich? Was sind die Vor- und Nachteile der beteiligten Paramater (z.B. Dimension des Problems, Größe des Datensamples, Komplexität)?




Team


Laufende Projekte

Grenzen des und effiziente Algorithmen für Deep Learning | Nicht-konvexe Optimierung in hohen Dimensionen | Optimales Code-Design für kurze Blocklängen


Publikationen

Barbier J, Camilli F, Xu Y, Mondelli M. 2025. Information limits and Thouless-Anderson-Palmer equations for spiked matrix models with structured noise. Physical Review Research. 7, 013081. View

Súkeník P, Lampert C, Mondelli M. 2024. Neural collapse vs. low-rank bias: Is deep neural collapse really optimal? 38th Annual Conference on Neural Information Processing Systems. NeurIPS: Neural Information Processing Systems, NeurIPS, vol. 38. View

Beaglehole D, Súkeník P, Mondelli M, Belkin M. 2024. Average gradient outer product as a mechanism for deep neural collapse. 38th Annual Conference on Neural Information Processing Systems. NeurIPS: Neural Information Processing Systems, NeurIPS, vol. 38. View

Bombari S, Mondelli M. 2024. Towards understanding the word sensitivity of attention layers: A study via random features. 41st International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 235, 4300–4328. View

Bombari S, Mondelli M. 2024. How spurious features are memorized: Precise analysis for random and NTK features. 41st International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 235, 4267–4299. View

Zu Allen Publikationen

ReX-Link: Marco Mondelli


Karriere

Seit 2019 Assistant Professor, Institute of Science and Technology Austria (ISTA)
2017 – 2019 Postdoc, Stanford University, Stanford, USA
2018 Research Fellow, Simons Institute for the Theory of Computing, Berkeley, USA
2016 PhD, EPFL, Lausanne, Schweiz


Ausgewählte Auszeichnungen

2019 Lopez-Loreta Prize
2018 Simons-Berkeley Research Fellowship
2018 EPFL Doctorate Award
2017 Early Postdoc Mobility Fellowship, Swiss National Science Foundation
2016 Best Paper Award, ACM Symposium on Theory of Computing (STOC)
2015 Best Student Paper Award, IEEE International Symposium on Information Theory (ISIT)
2015 Dan David Prize Scholarship


Zusätzliche Information

Download CV
Marco Mondellis Website



theme sidebar-arrow-up
Nach Oben