Till innehåll på sidan
Till KTH:s startsida Till KTH:s startsida

Learning flow functions

architectures, universal approximation and applications to spiking systems

Tid: Fr 2024-03-15 kl 10.00

Plats: D3, Lindstedtsvägen 5, Stockholm

Videolänk: https://kth-se.zoom.us/j/62682986918?pwd=NTFxcVovZnY2MkUrbWFaYjB6MXNudz09

Språk: Engelska

Ämnesområde: Elektro- och systemteknik

Licentiand: Miguel Aguiar , Reglerteknik

Granskare: Associate professor Maarten Schoukens, Eindhoven University of Technology, Eindhoven, The Netherlands

Huvudhandledare: Karl H. Johansson, Reglerteknik, LSTS; João Sousa, Reglerteknik, Faculty of Engineering of the University of Porto, Porto, Portugal

Exportera till kalender

QC 20240220

Abstract

Denna avhandling studerar maskininlärningsmetoder för tidskontinuerliga reglersystem. Vi utgår från en abstrakt systemrepresentation med en lösningsoperator, som avbildar systemets initialtillstånd och insignal på motsvarande tillståndstrajektorian. Målet är att undersöka inlärning av tidskontinuerliga simuleringsmodeller utifrån tillståndsmätningar. Avhandlingen består av tre huvudbidrag.

Vi undersöker först arkitekturer baserade på neurala nätverk, för klasser av insignaler som är brukliga i tillämpningar och har en viss tidsdiskret struktur. Vi formulerar problemet matematiskt, och visar att lösningsoperatorn kan representeras exakt av ett tidsdiskret system. Detta leder till en arkitektur baserad på ett återkopplande neuralt nätverk (RNN), som vi utförligt beskriver, analyserar och validerar med hjälp av data från två modeller av icke-linjära oscillatorer, nämligen Van der Pol oscillatorn och FitzHugh-Nagumo oscillatorn. I båda fall visar vi att vi kan träna modeller som noggrant reproducerar systemens lösningsbanor.

Därefter studerar vi en tillämpning på system vars tillståndstrajektorier kännetecknas av förekomsten av snabba oscillationer i form av impulser, såsom modeller av biologiska neuroner. Denna klass av system karakteriseras av ett flerskaligt och högfrekvent tidssvar, vilket gör det önskvärt att ta fram tidskontinuerliga modeller som är lätta att simulera. Vi lägger fram ett ramverk för inlärning av surrogatmodeller av sådana system från data. Ramverket demonstreras med hjälp av data från en modell av en biologisk neuron och en modell av två kopplade biologiska neuroner, och resultaten visar att våra modeller noggrant reproducerar systemens beteende.

Slutligen tar vi fram ett bevis för ett approximationsteorem för inlärning av lösningsoperatorer av tidskontinuerliga system. Vi visar att den RNN- arkitektur som vi har tagit fram kan approximera godtyckliga reglersystem under vissa villkor som vi först formulerar abstrakt. Sedan bevisar att reglersystem som beskrivs av ordinära differentialekvationer uppfyller dessa villkor, vilket betyder att de kan approximeras av den studerade arkitekturen.

urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-343571