| Name | Herr Prof. Dr. Helmut Bölcskei |
| Lehrgebiet | Mathematische Informationswissenschaften |
| Adresse | Professur Math. Informationswiss. ETH Zürich, ETF E 122 Sternwartstrasse 7 8092 Zürich SWITZERLAND |
| Telefon | +41 44 632 34 33 |
| hboelcskei@ethz.ch | |
| URL | https://www.mins.ee.ethz.ch/people/show/boelcskei |
| Departement | Informationstechnologie und Elektrotechnik |
| Beziehung | Ordentlicher Professor |
| Nummer | Titel | ECTS | Umfang | Dozierende | |
|---|---|---|---|---|---|
| 227-0045-00L | Signal- und Systemtheorie I | 4 KP | 2V + 2U | H. Bölcskei | |
| Kurzbeschreibung | Signaltheorie und Systemtheorie (zeitkontinuierlich und zeitdiskret): Signalanalyse im Zeit- und Frequenzbereich, Signalräume, Hilberträume, verallgemeinerte Funktionen, lineare zeitinvariante Systeme, Abtasttheoreme, zeitdiskrete Signale und Systeme, digitale Filterstrukturen, diskrete Fourier-Transformation (DFT), endlich-dimensionale Signale und Systeme, schnelle Fouriertransformation (FFT). | ||||
| Lernziel | Einführung in die mathematische Signaltheorie und Systemtheorie. | ||||
| Inhalt | Signaltheorie und Systemtheorie (zeitkontinuierlich und zeitdiskret): Signalanalyse im Zeit- und Frequenzbereich, Signalräume, Hilberträume, verallgemeinerte Funktionen, lineare zeitinvariante Systeme, Abtasttheoreme, zeitdiskrete Signale und Systeme, digitale Filterstrukturen, diskrete Fourier-Transformation (DFT), endlich-dimensionale Signale und Systeme, schnelle Fouriertransformation (FFT). | ||||
| Skript | Vorlesungsskriptum, Übungsskriptum mit Lösungen. | ||||
| 227-0423-00L | Neural Network Theory Findet dieses Semester nicht statt. | 4 KP | 2V + 1U | H. Bölcskei | |
| Kurzbeschreibung | The class focuses on fundamental mathematical aspects of neural networks with an emphasis on deep networks: Universal approximation theorems, capacity of separating surfaces, generalization, fundamental limits of deep neural network learning, VC dimension. | ||||
| Lernziel | After attending this lecture, participating in the exercise sessions, and working on the homework problem sets, students will have acquired a working knowledge of the mathematical foundations of neural networks. | ||||
| Inhalt | 1. Universal approximation with single- and multi-layer networks 2. Introduction to approximation theory: Fundamental limits on compressibility of signal classes, Kolmogorov epsilon-entropy of signal classes, non-linear approximation theory 3. Fundamental limits of deep neural network learning 4. Geometry of decision surfaces 5. Separating capacity of nonlinear decision surfaces 6. Vapnik-Chervonenkis (VC) dimension 7. VC dimension of neural networks 8. Generalization error in neural network learning | ||||
| Skript | Detailed lecture notes are available on the course web page https://www.mins.ee.ethz.ch/teaching/nnt/ | ||||
| Voraussetzungen / Besonderes | This course is aimed at students with a strong mathematical background in general, and in linear algebra, analysis, and probability theory in particular. | ||||
| 401-5680-00L | Foundations of Data Science Seminar | 0 KP | H. Bölcskei, Y. Chen, J. Peters, A. Sousa Bandeira, F. Yang | ||
| Kurzbeschreibung | Research colloquium | ||||
| Lernziel | |||||

