SYSTEM OCH TRANSFORMER

Download Report

Transcript SYSTEM OCH TRANSFORMER

SYSTEM OCH TRANSFORMER
FIGUR 1
S A M M A N F A TT N I N G A V D A V I D K A R L S S O N , L T H 2 0 1 1 .
FIGUR 1: Laplacetransformen till
,
, ritad i det komplexa talplanet, toppen som syns i figuren är polen till
är avklippt vid 15 då ∞ inte fick plats på sidan.
. Höjden
1
Förord
Detta är en samling av satser och definitioner med förklaringar från boken Lineära System till kursen FMAF05, System och Transformer. Materialet är tänkt
som ett komplement till boken och ett hjälpmedel då man snabbt behöver slå
upp en sats eller förklaring.
Satser och definitioner markerade med * är inte med i boken, för allt övrigt
material refereras dock till Lineära System av Sven Spanne.
2
System och Transformer
Kursen System och Transformer behandlar matematiska beskrivningar av system och hur dess delar påverkar varandra, hur rörelser och signaler påverkar
tillstånd och dynamik i naturen eller i teknisk miljö. En röd tråd genom kursen,
för det Elektrotekniska och mekaniska spåret åtminstonde, är frågeställningen
hur konstruerar man ett pålitligt system i avseende på stabilitet.
2
Innehåll
1 Förord
2
2 System och Transformer
2
3 Lineära differentialekvationer
3.1 Sats 3.1 Superpositionsprincip I . . . . . . . . . . . . .
3.2 Sats 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Definition 3.1 Egenvektor och egenvärde . . . . . . . .
3.4 Sats 3.3 Finna egenvärden . . . . . . . . . . . . . . . .
3.5 Sats 3.4 Finna egenvektorer tillhörande egenvärden . .
3.6 Definition 3.3 Likformiga matriser . . . . . . . . . . .
3.7 Definition 3.4 Diagonaliserbara matriser . . . . . . . .
3.8 Sats 3.6 Diagonaliserbarhet . . . . . . . . . . . . . . .
3.9 Sats 3.8 Homogena lösningen . . . . . . . . . . . . . .
3.10 Sats 3.9 Diagonaliserbarhet och lineärt oberoende . . .
3.11 Sats 3.10 Konjugerat komplext egenvärde - egenvektor
3.12 Sats 3.11 Egenvärden i en triangulär matris . . . . . .
3.13 Sats 3.12 Likformighet - karakteristiskt polynom . . .
3.14 Sats 3.13 Trace och determinant . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
6
7
7
7
7
7
8
8
8
8
8
8
8
4 Stabilitet
4.1 Definition 4.1 Stabilitet . . . . . . . . . . . . . . . . . . . . . . .
4.2 Sats 4.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Sats 4.2 Stabilitets kriteriet utökat till icke diagonaliserbara systemmatriser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Sats 4.3 Tidskonstanten . . . . . . . . . . . . . . . . . . . . . . .
4.5 Sats 4.4 Allmänna lösningen . . . . . . . . . . . . . . . . . . . . .
4.6 Definition 4.2 Insignalstabilitet . . . . . . . . . . . . . . . . . . .
4.7 Sats 4.5 Begränsad lösning . . . . . . . . . . . . . . . . . . . . . .
4.8 Sats 4.6 Stationära lösningen . . . . . . . . . . . . . . . . . . . .
4.9 Sats 4.7 Resolventmatrisen . . . . . . . . . . . . . . . . . . . . .
4.10 Sats 4.9 Superpositionsprincip II . . . . . . . . . . . . . . . . . .
4.11 Sats 4.10 Växelströmslärans huvudsats . . . . . . . . . . . . . . .
4.12 Definition 4.1* Resonans . . . . . . . . . . . . . . . . . . . . . . .
4.13 Sats 4.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
10
10
10
10
10
11
11
11
11
12
5 Matrisfunktioner
5.1 Definition 5.1 Exponentialmatrisen . . . . . . . . . . .
5.2 Definition 5.2 . . . . . . . . . . . . . . . . . . . . . . .
5.3 Definition 5.3 . . . . . . . . . . . . . . . . . . . . . . .
5.4 Sats 5.1 Viktiga egenskaper hos exponentialfunktionen
5.5 Sats 5.2 Kommuterande matriser i exponenten . . . .
5.6 Sats 5.3 Begynnelsevärdesproblem - lösning . . . . . .
5.7 Sats 5.4 . . . . . . . . . . . . . . . . . . . . . . . . . .
5.8 Sats 5.5 Cayley-Hamiltons sats . . . . . . . . . . . . .
5.9 Sats 5.6 Multiplicitet i exponentialmatrisen . . . . . .
5.10 Sats 5.7 Stabil A för egenvärden i vänster halvplan . .
5.11 5.8 Stabilitet av tvugna svängingar, begränsade . . . .
12
12
12
12
12
13
13
13
13
13
13
13
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
6 Symmetriska och ortogonala matriser
6.1 Definition 6.1 Längd av reell kolonnvektor . . . . .
6.2 Sats 6.1 Cauchy-Bunjakovskys olikhet . . . . . . .
6.3 Definition 6.2 Ortogonala vektorer . . . . . . . . .
6.4 Sats 6.2 Pythagoras sats . . . . . . . . . . . . . . .
6.5 Sats 6.3 Cosinus teoremet . . . . . . . . . . . . . .
6.6 Sats 6.4 Triangel olikheten . . . . . . . . . . . . . .
6.7 Definition 6.3 Ortogonal matris . . . . . . . . . . .
6.8 Sats 6.5 . . . . . . . . . . . . . . . . . . . . . . . .
6.9 Sats 6.6 . . . . . . . . . . . . . . . . . . . . . . . .
6.10 Sats 6.7 . . . . . . . . . . . . . . . . . . . . . . . .
6.11 Sats 6.8 Egenskaper hos ortogonala matriser . . . .
6.12 Definition 6.4 En symmetrisk matris . . . . . . . .
6.13 Sats 6.9 . . . . . . . . . . . . . . . . . . . . . . . .
6.14 Sats 6.10 . . . . . . . . . . . . . . . . . . . . . . . .
6.15 Sats 6.11 Spektralsatsen för symmetriska matriser
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
14
14
14
14
14
14
15
15
15
15
15
15
15
7 Kvadratiska former
7.1 Sats 7.1 . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Sats 7.2 . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Sats 7.2* Klassifikation av kvadratiska former, definit .
7.4 Sats 7.3 Villkor för reella symmetriska matriser . . . .
7.5 Sats 7.4 Sylvesters tröghetslag . . . . . . . . . . . . . .
7.6 Sats 7.5 Kongruenstransformationer av matris . . . . .
7.7 Sats 7.6 Spektrumklyvning . . . . . . . . . . . . . . .
7.8 Sats 7.7 . . . . . . . . . . . . . . . . . . . . . . . . . .
7.9 Sats 7.8 . . . . . . . . . . . . . . . . . . . . . . . . . .
7.10 Sats 7.9 Geometrisk betydelse av definit 2x2 matris . .
7.11 Sats 7.10 Geometrisk betydelse av definit 3x3 matris .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
16
16
16
17
17
17
17
18
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8 Numerisk Lineär algebra
18
8.1 Innehåll saknas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9 Insignal-utsignalmodeller
9.1 Definition 9.1 Lineärt system . . . . . . . .
9.2 Definition 9.2 Enhetsstegfunktion, Heaviside
9.3 Definition 9.3 Rektangelpuls . . . . . . . . .
9.4 Definition 9.4 Kausala funktioner . . . . . .
9.5 Definition 9.5 Funktion gånger enhetssteg .
9.6 Utsaga 9.1 Insignal-utsignalrelation, lineärt
9.7 Definition 9.6 Tidsinvarians . . . . . . . . .
9.8 Utsaga 9.2 Impulssvaret . . . . . . . . . . .
9.9 Definition 9.7 Insignal-utsignalstabilt . . . .
9.10 Sats 9.1 Impulssvar konvergent - stabilitet .
9.11 Definition 9.8 Kausalt system . . . . . . . .
9.12 Sats 9.2 Kausalt system - kausal funktion .
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
18
18
18
18
19
19
19
19
19
19
19
20
10 Faltingar
10.1 Definition 10.1 Faltning . . . . . . . . . . .
10.2 Utsaga 10.1 Faltningens existens . . . . . .
10.3 Sats 10.1 Räkneregler för faltning . . . . . .
10.4 Sats 10.2 Falting med enhetssteg . . . . . .
10.5 Sats 10.3 Kausal falting . . . . . . . . . . .
10.6 Definition 10.2 Ensidig faltning . . . . . . .
10.7 Sats 10.4 Seriekoppling av system . . . . . .
10.8 Sats 10.5 Stegsvaret - impulssvarets integral
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
20
20
20
20
20
21
21
21
11 Generaliserade funktioner
11.1 Definition 11.1 Deltafunktionen . . . . . . . . . . . . . . .
11.2 Definition 11.2 Distribution och testfunktion . . . . . . .
11.3 Definition 11.3 Derivata av distribution . . . . . . . . . .
11.4 Sats 11.1 Distributionsderivatan - deltafunktionen . . . .
11.5 Sats 11.2 Funktion multiplicerad med deltafunktion . . . .
11.6 Sats 11.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.7 Definition 11.4 Glatta funktioner . . . . . . . . . . . . . .
11.8 Sats 11.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.9 Sats 11.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.10Sats 11.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.11Definition 11.5 Konvergens hos distributioner . . . . . . .
11.12Definition 11.6 Serie konvergerande i distributionsmening
11.13Sats 11.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.14Sats 11.8 Räkneregler för distributioner . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
21
21
22
22
22
22
22
22
23
23
23
23
12 Frekvensanalys
12.1 Sats 12.1 insignal - utsignal . . . . . . . . . . . .
12.2 Definition 12.1 Överföringsfunktionen . . . . . .
12.3 Sats 12.2 . . . . . . . . . . . . . . . . . . . . . . .
12.4 Sats 12.3 Överföringsfunktionen på tillståndsform
12.5 Definition 12.2 Frekvensfunktionen . . . . . . . .
12.6 Definition 12.3 Amplitud och fasfunktionen . . .
12.7 Sats 12.4 Insignal-utsignal frekvens . . . . . . .
12.8 Sats 12.5 Periodiska signaler . . . . . . . . . . . .
12.9 Sats 12.6 Impulssvar - överföringsfunktion . . . .
12.10Sats 12.7 Systemets egensvängningsfrekvenser . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
24
24
24
24
25
25
25
25
13 Fouriertransformationen
13.1 Definition 13.1 Fouriertransformen . . . . . . .
13.2 Definition 13.2 Amplitudspektrum, fasspektrum
13.3 Sats 13.1 Gausspulsen . . . . . . . . . . . . . .
13.4 Sats 13.2 Fouriers inversionsformel . . . . . . .
13.5 Sats 13.3 . . . . . . . . . . . . . . . . . . . . . .
13.6 Sats 13.4 . . . . . . . . . . . . . . . . . . . . . .
13.7 Sats 13.5 Faltningssatsen . . . . . . . . . . . .
13.8 Sats 13.6 Parsevals formel . . . . . . . . . . . .
13.9 Sats 13.7 Obestämdhetsrelationen . . . . . . .
13.10Sats 13.8 Fouriertransform av deltafunktionen .
13.11Sats 13.9 Skalningsregeln för deltafunktionen .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
26
26
26
26
26
26
27
27
27
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13.12Utsaga 13.1 Fouriertransformen av en periodisk funktion . . . . .
13.13Sats 13.10 Diracstaket . . . . . . . . . . . . . . . . . . . . . . . .
14 Laplacetransformationen
14.1 Definition 14.1 . . . . . . . . . . . . . . . . . . . . . . .
14.2 Sats 14.1 Konvergensstrimlan . . . . . . . . . . . . . . .
14.3 Sats 14.2 Räkneregler för Laplacetransformationen . . .
14.4 Sats 14.3 Analyticitet av Laplacetransformen . . . . . .
14.5 Sats 14.4 Laplacetransformens entydighet . . . . . . . .
14.6 Sats 14.5 Fouriertransform - Laplacetransform . . . . . .
14.7 Sats 14.6 Derivationsregler för Laplacetransformationen
14.8 Sats 14.7 Inversionsformeln för Laplacetransformering .
14.9 Sats 14.8 . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.10Sats 14.9 Laplacetransformen av en deltafunktion . . . .
14.11Sats 14.10 Laplacetransformen av en distribution . . . .
14.12Sats 14.11 Inverslaplace med residykalkyl . . . . . . . .
14.13Sats 14.12 Faltningssatsen för Laplacetransformationen .
14.14Sats 14.13 Överföringsfunktion - impulssvar . . . . . . .
14.15Sats 14.14 Överföringsfunktionen - ut/insignal . . . . . .
14.16Sats 14.15 Kausalitet . . . . . . . . . . . . . . . . . . . .
14.17Sats 14.16 Kausalitet . . . . . . . . . . . . . . . . . . . .
14.18Sats 14.17 Kausalt system - stabilitet . . . . . . . . . . .
14.19Definition 14.2 Ensidig Laplacetransform . . . . . . . . .
14.20Sats 14.18 Derivation - ensidiga Laplacetransformen . .
14.21Sats 14.19 Den ensidiga faltningssatsen . . . . . . . . . .
14.22Sats 14.20 ensidig Laplacetransformen av eAt . . . . . .
14.23Sats 14.21 Begynnelsevärdessatsen . . . . . . . . . . . .
14.24Sats 14.22 Slutvärdessatsen . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
27
27
27
28
28
28
28
28
28
29
29
29
29
29
29
30
30
30
30
30
31
31
31
31
31
15 Stabilitetsteori
31
15.1 Kapitlet utelämnas . . . . . . . . . . . . . . . . . . . . . . . . . 31
3
Lineära differentialekvationer
dx
= Ax
dt
3.1
(1)
Sats 3.1 Superpositionsprincip I
dx
= Ax
(2)
dt
Alla linjärkombinationer av lösningar till systemet (det Lineära homogena) är
också lösningar.
3.2
Sats 3.2
Om en vektor z uppfyller ekvationen
Az = λz
6
(3)
så är
x(t) = ceλt z
(4)
för varje konstant c, en lösning till
dx
= Ax
dt
(5)
Vanligare är antagligen att man har flera lösningar, dvs
Az1 = λ1 z1 , Az2 = λ2 z2 , ..., Azn = λn zn
(6)
då är för alla c1 , c2 , c...
x(t) = c1 eλ1 t z1 + c2 eλ2 t z2 + ... + cn eλn t zn
3.3
(7)
Definition 3.1 Egenvektor och egenvärde
Då A är en kvadratisk matris och en vektor z samt en skalär λ uppfyller
Az = λz, z 6= 0
(8)
så är z en egenvektor till A och λ motsvarande egenvärde.
3.4
Sats 3.3 Finna egenvärden
Den karakteristiska ekvationen till en matris A är
pA (λ) = det(λI − A) = 0
(9)
Då A är en nxn-matris har A också n-stycken egenvärden λ1 , λ2 , ..., λn . Dessa
löser pA
pA (λ) = (λ − λ1 )(λ − λ2 )...(λ − λn ) = 0
(10)
3.5
Sats 3.4 Finna egenvektorer tillhörande egenvärden
För att finna egenvektorerna tillhörande λk används Az = λk z. Ur denna fås
att
(A − λk I)z = 0
(11)
ur vilken z kan lösas. De icke triviala lösningarna z 6= 0 är egenvektorerna. Är
λk inte ett egenvärde så har ekvationen bara den triviala lösningen z = 0.
3.6
Definition 3.3 Likformiga matriser
Två matriser A,B sägs vara likformiga då det finns en inverterbar matris S så
att
B = S −1 AS
(12)
3.7
Definition 3.4 Diagonaliserbara matriser
Matrisen A sägs vara diagonaliserbar om den är likformig med en diagonalmatris.
D = S −1 AS
(13)
7
3.8
Sats 3.6 Diagonaliserbarhet
En kvadratisk matris A av dimensionen nxn är diagonaliserbar endast då det
finns n stycken lineärt oberoende egenvektorer s1 , s2 , ..., sn . Dessa bildar matrisen S = [s1 , s2 , ..., sn ] som diagonaliserar A.
D = S −1 AS = diag(λ1 , λ2 , ..., λn )
(14)
Ordingen av λ i diagonalen motvarar ordningen av egenvektorer i S.
3.9
Sats 3.8 Homogena lösningen
Denna sats knyter an till Sats 3.2.
Om s1 , s2 , ..., sn är en bas av egenvektorer och λ1 , λ2 , ..., λn motsvarande egenvärden så är den allmänna lösningen till det homogena systemet
xH (t) = c1 eλ1 t s1 + c2 eλ2 t s2 + ... + cn eλn t sn .
(15)
Vektorerna ck kan bestämmas ur begynnelse värden och egenvektorerna sk ur
sats 3.4.
3.10
Sats 3.9 Diagonaliserbarhet och lineärt oberoende
Om egenvektorerna till en matris hör till olika egenvärden så är de lineärt oberoende.
Om en matris av ordning n har n olika egenvärden så är matrisen diagonaliserbar.
3.11
Sats 3.10 Konjugerat komplext egenvärde - egenvektor
Om A är en reell kvadratisk matris och λ är ett icke-reellt egenvärde till A med
motsvarande egenvektor z så är komplex konjugatet λ ett egenvärde till A med
egenvektor z.
3.12
Sats 3.11 Egenvärden i en triangulär matris
Egenvärdena till en triangulär matris är matrisens diagonalelement.
3.13
Sats 3.12 Likformighet - karakteristiskt polynom
Om två matriser A,B är likformiga (def 3.3) så har de samma karakteristiska
polynom pA (λ) = pB (λ)
3.14
Sats 3.13 Trace och determinant
trA = λ1 + λ2 + ... + λn
(16)
detA = λ1 λ2 ...λn
(17)
8
4
Stabilitet
4.1
Definition 4.1 Stabilitet
Systemet
dx
= Ax, A = konstant
dt
(18)
sägs vara
• stabilt om varje lösning har gränsvärdet 0 då t → inf.
• neutralt stabilt om alla lösningar är begränsade för stora t men vissa
lösningar inte har gränsväde 0.
• instabilt om det finns obegränsade lösningar för stora t.
4.2
Sats 4.1
Sätt σ(A) = max(Reλk ) där 1 ≤ k ≤ n. Om systemet
dx
= Ax
dt
(19)
har en matris A som är diagonaliserbar så ges stabiliteten ur
stabilt ⇐⇒ σ(A) < 0
(20)
neutralt stabilt ⇐⇒ σ(A) = 0
(21)
instabilt ⇐⇒ σ(A) > 0
(22)
Kort sagt: Realdelen av λ < 0 ⇒ stabilt
4.3
Sats 4.2 Stabilitets kriteriet utökat till icke diagonaliserbara systemmatriser
Stabilitets kriteriet utökat till icke diagonaliserbara systemmatriser.
stabilt ⇐⇒ σ(A) < 0
(23)
instabilt ⇐⇒ σ(A) > 0
(24)
neutralt stabilt eller instabilt ⇐⇒ σ(A) = 0
(25)
Om σ(A) = 0 och alla egenvärden på imaginär axeln är enkla så har vi säkert
neutral stabilitet. Finns dock ett dubbelt eller multipelt egenvärde så är det
möjligt att systemet är instabilt.
9
4.4
Sats 4.3 Tidskonstanten
Om A är diagonaliserbar så uppfyller varje lösning x(t) till
dx
dt
= Ax
|x(t)| ≤ Keσ(A)t , t > 0
(26)
K beroende på system och lösningens begynnelsevärden. I det stabila fallet,
σ(A) < 0 inför vi tidskonstanten τa (a för amplitud)
τa = −
1
σ(A)
(27)
så att
|x(t)| ≤ Ke−t/τa , t > 0
4.5
(28)
Sats 4.4 Allmänna lösningen
Om xP är en lösning till det inhomogena systemet
dx
= Ax + f (t)
dt
(29)
där f (t) = f1 (t), f2 (t), ..., fn (t). Så är x(t) = xP (t)+xH (t) den allmänna lösningen. xH betecknar den homogena lösningen. För fallet där A är diagonaliserbar
fås
x(t) = c1 eλ1 t s1 + c2 eλ2 t s2 + ... + cn eλn t sn + xP (t).
(30)
(f (t) = 0 =⇒ x(t) = xH (t), allmän lösning)
4.6
Definition 4.2 Insignalstabilitet
Ett system på tillståndsform sägs vara insignalstabilt om för varje begränsad
insignal tillståndsvariablerna blir begränsade funktioner av tiden.
4.7
Sats 4.5 Begränsad lösning
• Om matrisen A är stabil och om f(t) är begränsad då t ≥ t0 så är varje
lösning till systemet
dx
= Ax + f (t)
(31)
dt
begränsade då t ≥ t0 .
• Om A är neutralt stabilt eller instabilt så finns begränsade funktioner f (t)
som ger obegränsade lösningar x(t) för stora t.
4.8
Sats 4.6 Stationära lösningen
Stationära lösningen Om insignalen till systemet dx
dt = Ax + f (t) har komplex
frekvens, f (t) = est f där s inte är en egenfrekvens till systemet, så finns en
10
lösning till systemet som beror exponentiellt på tiden med komplex frekvens s.
Denna lösning är den enda med ett sådant tidsberoende.
x(t) = (sI − A)−1 f est
(32)
Om s är rent imaginär (harmonisk) så blir också lösningen harmonisk och begränsad för stora t. (sI − A) singulär (ej inverterbar) ⇒ oändlig lösningsmängd.
4.9
Sats 4.7 Resolventmatrisen
Resolventmatrisen
RA (s) = (sI − a)−1 =
1
adj(sI − A)
pA (s)
(33)
s ej egenvärde till A. Elementen i RA (s) är rationella funktioner av s, samtliga
är äkta bråk (gradQ(s) < gradP (s)) med pA (s) som nämnare.
4.10
Sats 4.9 Superpositionsprincip II
Betrakta systemet
dx
(34)
= Ax + f
dt
Om x = x1 är en lösning med f = f1 och x = x2 en lösning med f = f2 , så är
x = c1 x1 + c2 x2 en lösning med f = c1 f1 + c2 f2
4.11
Sats 4.10 Växelströmslärans huvudsats
Då ett stabilt linjärt tidsninvariant system av formen
dx
= Ax + f (t)
dt
(35)
utsätts för sinusformade signaler
f (t) = eiωt f
(36)
så är varje lösning till systemet av formen
x(t) = xtransient (t) + xstationr (t)
(37)
Transienten i det diagonaliserbara fallet
xtransient (t) = c1 eλ1 t s1 + c2 eλ2 t s2 + ... + cn eλn t sn
(38)
där c1 , c2 , ..., cn är konstanter som bestäms ur xstationr , xstationr som är av
formen
xstationr (t) = eiωt (iωI − A)−1 f
(39)
4.12
Definition 4.1* Resonans
Resonans uppkommer då insignalens frekvens s ligger nära en egenfrekvens till
systemet. (Den stationära lösningens amplitud blir då stor jämfört insignalens
amplitud).
11
4.13
Sats 4.11
Om A är en 2x2 matris, så är
• A stabil ⇐⇒ trA < 0 och detA > 0
• A neutralt stabil ⇐⇒ trA = 0 och detA > 0 eller trA < 0 och detA = 0
eller A = 0
5
Matrisfunktioner
5.1
Definition 5.1 Exponentialmatrisen
Om D = diag(d1 , d2 , ..., dn) är en diagonalmatris så definieras exponentialmatrisen eD som
(40)
eD = diag(ed1 , ed2 , ..., edn ) =
5.2
Definition 5.2
Om den kvadratiska matrisen A är diagonaliserbar och A = SΛS −1 med Λ
diagonal, så definieras exponentialmatrisen eA genom
eA = SeΛ S −1
oavsett vilken diagonaliserande matris S som valts.
Lösningsformeln kan nu skrivas som
Z t
A(t−t0 )
x(t) = e
x(t0 ) +
eA(t−τ ) f (τ )dτ
(41)
(42)
t0
Om f (t) ≡ 0 rör sig systemet fritt och lösningen blir
x(t) = eA(t−t0 ) x(t0 )
5.3
(43)
Definition 5.3
Om A är en kvadratisk matris så defineras eA genom serien
eA =
∞
X
1 k
A
k!
(44)
k=0
5.4
Sats 5.1 Viktiga egenskaper hos exponentialfunktionen
1. e0 = I
2. et1 A et2 A = et1 +t2 A
3. (etA )−1 = e−tA
4.
d tA
dt e
= AetA = etA A
5. (et )T = eA
T
12
5.5
Sats 5.2 Kommuterande matriser i exponenten
Om matriserna A och B kommuterar, det vill säga om AB=BA, så är
eA+B = eA eB = eB eA
5.6
(45)
Sats 5.3 Begynnelsevärdesproblem - lösning
Låt A vara en konstant matris. Då har begynnelsevärdesproblemet
dx
= Ax + f (t)
dt
(46)
x(t0 ) = x0
(47)
där f (t), x0 är givna
en entydig lösning (som i definition 5.2)
A(t−t0 )
x(t) = e
Z
t
x(t0 ) +
eA(t−τ ) f (τ )dτ
(48)
t0
5.7
Sats 5.4
Matrisfunktionen Φ = eAt är den entydigt bestämda lösningen till matrisdifferentialekvationen
dΦ
= AΦ
(49)
dt
då Φ(0) = I.
5.8
Sats 5.5 Cayley-Hamiltons sats
Varje kvadratisk matris uppfyller sin egen karakteristiska ekvation
pA (A) = 0
5.9
(50)
Sats 5.6 Multiplicitet i exponentialmatrisen
Varje element i exponentialmatrisen etA är en linjärkombination av termer på
formen tl eλt , där λ genomlöper spektrum av A och l är mindre än multiplicitet(λ)
5.10
Sats 5.7 Stabil A för egenvärden i vänster halvplan
Att A är stabil endast då σ(A) < 0 är det samma som att A stabil endast då
alla egenvärden ligger i imaginära talplanets vänstra halvplan.
5.11
5.8 Stabilitet av tvugna svängingar, begränsade
Om σ(A) < 0 och f (t) är begränsad då t ≥ t0 så är alla lösningar till
dx
= Ax + f (t)
dt
begränsade då t ≥ t0 , (helt enligt sats 4.5).
13
(51)
6
Symmetriska och ortogonala matriser
6.1
Definition 6.1 Längd av reell kolonnvektor
Om x = (x1 , x2 , ..., xn ) är en reell kolonnvektor så definieras dess längd (euklidiska norm) genom
v
u n
√
uX
T
|x| = x x = t
(52)
x2i
i=1
6.2
Sats 6.1 Cauchy-Bunjakovskys olikhet
För alla vektorer x,y är |xT y| ≤ |x||y|. Enbart då x,y är parallella uppstår likhet.
6.3
Definition 6.2 Ortogonala vektorer
Två vektorer sägs vara ortogonala om x ⊥ y då xT y = 0
6.4
Sats 6.2 Pythagoras sats
om x, y är ortogonala, x ⊥ y så är
|x + y|2 = |x|2 + |y|2
6.5
(53)
Sats 6.3 Cosinus teoremet
För alla vektorer x,y är
|x + y|2 = |x|2 + |y|2 + 2|x||y|cos(Λ(x, y))
6.6
Sats 6.4 Triangel olikheten
|x + y| ≤ |x| + |y|
6.7
(54)
(55)
Definition 6.3 Ortogonal matris
En matris Q kallas ortogonal om
Q−1 = QT
6.8
Sats 6.5
Ekvivalenta villkor för kvadratiska matriser Q:
1. Q är ortogonal.
2. QQT = I.
3. QT Q = I.
4. Kolonnerna i Q utgör en ortonormerad bas.
5. qiT qj = δij .
14
(56)
6.9
Sats 6.6
Koordinaterna för vektorn x i den ortonormerade basen q1 , q2 , ..., qn ges av
skalärprodukterna
xˆj = qjT x, j = 1, ..., n.
(57)
6.10
Sats 6.7
Ett ortonormerat koordinatbyte x = Qx̂ bevarar skalärprodukt och längd:
√
√
xT y = x̂T ŷ, |x| = xT x = x̂T x̂ = |x̂|
(58)
6.11
Sats 6.8 Egenskaper hos ortogonala matriser
1. Enhetsmatrisen I är ortogonal.
2. Produkten av två ortogonala matriser är ortogonal.
3. Inversen till en ortogonal matris är ortogonal.
6.12
Definition 6.4 En symmetrisk matris
En matris A sägs vara symmetrisk om
A = AT
(59)
dvs om aji för alla i och j.
6.13
Sats 6.9
Om matrisen A är reell och symmetrisk så är alla dess egenvärden reella.
6.14
Sats 6.10
Om A är en reell och symmetrisk matris så är (reella) egenvektorer som hör till
olika egenvärden till A ortogonala.
6.15
Sats 6.11 Spektralsatsen för symmetriska matriser
Varje reell symmetrisk matris kan diagonaliseras med en ortogonal matris Q,
Q−1 AQ = QT AQ = Λ = diag(λ1 , λ2 , ..., λn )
(60)
Kolonnerna i Q utgör en ortonormerad bas, bestående av egenvektorer till A.
7
7.1
Kvadratiska former
Sats 7.1
Antag att f är en kvadratisk form som representeras av en symmetrisk matris
K. Då är K entydigt bestämd av f .
15
7.2
Sats 7.2
Varje kvadratisk form f (x) = xT Kx kan diagonaliseras med ett ortonortmerat
koordinatbyte x = Qx̂, QT = Q−1 . Den transformerade diagonalmatrisen blir
då
QT KQ = Λ = diag(λ1 , λ2 , ..., lambdan )
(61)
och den kvadratiska formen blir uttryckt i de nya koordinaterna
f (x) = x̂T Λx̂ = λ1 xˆ1 2 + λ2 xˆ2 2 + ... + λn xˆn 2
7.3
(62)
Sats 7.2* Klassifikation av kvadratiska former, definit
f (x) = xT Kx = x̂T K̂ x̂ = x̂T Dx̂ = d1 x̂21 + d2 x̂22 + ... + dn x̂2n
(63)
Koordinaterna xˆ1 ...xˆn varierar fritt oberoende av varandra så
• K är positivt definit om alla di är (strängt) positiva.
• K är negativt definit om alla di är (strängt) negativa.
• K är indefinit om något di är större än 0 och något är mindre.
• K är positivt semidefinit om alla di är större eller lika med 0 och om något
är lika med 0.
• K är negativt semidefinit om alla di är mindre eller lika med 0 och om
något är lika med 0.
7.4
Sats 7.3 Villkor för reella symmetriska matriser
Ekvivalenta villkor för reella symmetriska matriser K:
1. K är positivt definit.
2. xT Kx > 0 för alla x 6= 0.
3. Alla egenvärden till K är positiva.
4. Alla pivåelement vid Gausselimination i K(utan rad-/kolonnbyten) är positiva.
7.5
Sats 7.4 Sylvesters tröghetslag
Om den kvadratiska formen xT Kx diagonaliseras genom koordinatbytena x =
S x̂T och x = S 0 x̂0T , så att S T KS = D och S 0T KS 0 = D0 är diagonala, då
har D och D’ samma antal positiva diagonalelement, samma antal negativa
diagonalelement och samma antal nollor på diagonalen.
7.6
Sats 7.5 Kongruenstransformationer av matris
Ur sats 7.4 fås att antalet positiva egenvärden och antalet negativa - till en matris
bevaras vid kongruenstransformationer (K, K̂ kongruenta K̂ = S T KS...)
16
7.7
Sats 7.6 Spektrumklyvning
Antag att K är en symmetrisk matris och att σ är ett reellt tal. Då är antalet
egenvärden till K som är större än (mindre än) σ lika med antalet positiva
(negativa) pivåelement vid Gausselemination i K − σI.
7.8
Sats 7.7
Antag att M är positivt definit och att K är symmetrisk. Då finns en inverterbar
matris S så att
ST M S = I
(64)
S T KS = Λ = diag(λ1 , λ2 , ..., λn )
(65)
Kolonnerna (s1 , s2 , ..., sn ) i Sär lösningar till det generaliserade egenvärdesproblemet för paret M ,K och λ1 , λ2 , ..., λn är motsvarande egenvärden.
7.9
Sats 7.8
Det lineära systemet
M ẍ + kx = 0 (M positivt definit)
är neutralt stabilt då och endast då K är positivt definit. Det har då n egenfrekvenser( ω1 , ω2 , ..., ωn ) som är lösningar till den karakteristiska ekvationen
det(K − ω 2 M ) = 0
(66)
Varje lösning är på formen
x(t) =
n
X
ak cos(ωk t + δk )sk
(67)
k=1
där modvektorerna sk uppfyller Ksk = ωk2 M sk
7.10
Sats 7.9 Geometrisk betydelse av definit 2x2 matris
Antag att A är en symmettrisk inverterbar 2x2 matris. Ekvationen
y T Ay = 1
(68)
har då följande geometriska betydelse
• A negativt definit: ingen (Sats 7.3)
• A positivt definit: ellips
• A indefinit: hyperbel
Huvudaxlarna till kurvan är riktade längs egenvektorerna till A. I ellipsfallet är
längderna av halva huvudaxlarna √1λ där λk är egenvärden till A.
k
17
7.11
Sats 7.10 Geometrisk betydelse av definit 3x3 matris
Antag att A är en symmetrisk inverterbar 3x3 matris ekvationen
y T Ay = 1
(69)
har då följande geometriska betydelse:
• A har 0 negativa egenvärden: ellipsoid
• A har 1 negativt egenvärde: enmantlad hyperboloid
• A har 2 negativa egenvärden: tvåmantlad hyperboloid
• A har 3 negativa egenvärden: ingen
Huvudaxlarna till ytan är riktade längs egenvektorerna till A.
8
8.1
Numerisk Lineär algebra
Innehåll saknas
Delar av det tänkta materialet tas dock upp i kursen numerisk analys.
9
9.1
Insignal-utsignalmodeller
Definition 9.1 Lineärt system
Ett system S kallas lineärt om relationen (superpositionsprincipen)
S(c1 ω1 + c2 ω2 ) = c1 S(ω1 ) + c2 S(ω2 )
(70)
är uppfylld för alla tillåtna insignaler ω1 och ω2 och alla konstanter c1 c2 . Speciellt krävs att c1 ω1 + c2 ω2 är en tillåten insignal om ω1 och ω2 är tillåtna
insignaler.
9.2
Definition 9.2 Enhetsstegfunktion, Heaviside
Enhetsstegsfunktionen definieras av
θ(t) = 1 då t > 0
0 då t < 0
9.3
Definition 9.3 Rektangelpuls
Enhetsrektangelpulsen med bred ∆ definieras genom
p∆ (t) =
9.4
1
∆
då 0 < t < ∆
0 annars
Definition 9.4 Kausala funktioner
Funktionen f(t) kallas kausal om den börjar i 0, det vill säga om
f (t) = 0 då t < 0.
18
9.5
Definition 9.5 Funktion gånger enhetssteg
Givet en funktion f (t), −∞ < t < ∞, definieras den kausala avskärningen av f
θ(t)f (t) = f (t) då t > 0
0 då t < 0
9.6
Utsaga 9.1 Insignal-utsignalrelation, lineärt
Ett system S, modellerat genom en insignal-utsignalrelation y = Sω, är lineärt
då och endast då relationen är av formen
Z ∞
(71)
y(t) = Sw(t) =
k(t, τ )w(τ )dτ
−∞
Den funktionen k(t, τ ) kallas för systemets impulsvar. Impulssvaret är entydigt
bestämt av systemet.
9.7
Definition 9.6 Tidsinvarians
Systemet S kallas tidsinvariant om följande är villkor är uppfyllt (för alla tillåtna
insignaler ω och alla tider τ ): Om insignalen ω(t) ger upphov till utsignalen y(t)
så ger en fördröjd insignal ω(t − τ ) upphov till en fördröjd utsignal y(t − τ ).
(Speciellt krävs att om ω(t) är en tillåten insignal så är ω(t − a) en tillåten
insignal för varje a).
9.8
Utsaga 9.2 Impulssvaret
Varje lineärt tidsinvariant system S har en insignal-utsignalrelation av formen
Z ∞
y(t) = Sw(t) =
h(t − τ )w(τ )dτ
(72)
−∞
där h(t) kallas för systemets impulssvar. Omvänt är varje system med en insignalutsignalrelation av denna typ lineärt och tidsinvariant.
9.9
Definition 9.7 Insignal-utsignalstabilt
Systemet S sägs vara insignal-utsignalstabilt om varje begränsad insignal ger
upphov till en begränsad utsignal.
9.10
Sats 9.1 Impulssvar konvergent - stabilitet
Om systemet S är lineärt och tidsinvariant med impulssvar h(t), så gäller att
R∞
S är insignal-utsignalstabilt ⇐⇒ −∞ |h(t)|dt är konvergent.
9.11
Definition 9.8 Kausalt system
Ett system S kallas kausalt om för varje tid t0 och varje par av tillåtna insignaler
ω1 , ω2 det gäller att
ω1 (t) = ω2 (t) då t < t0 =⇒
y1 (t) = Sω1 (t) = y2 (t) = Sω2 (t) då t < t0 .
19
9.12
Sats 9.2 Kausalt system - kausal funktion
Ett lineärt tidsinvariant system S med impulssvar h är kausalt då och endast
då h(t) är en kausal funktion, det vill säga då
h(t) = 0 då t < t0 .
10
10.1
Faltingar
Definition 10.1 Faltning
Om f och g är två funktioner av den reella variabeln t så kallas funktionen f *g
faltningen av f och g och definieras som
Z +∞
(73)
f ∗ g(t) =
f (f − τ )g(τ )dτ
−∞
10.2
Utsaga 10.1 Faltningens existens
Faltningen f ∗ g existerar i följande fall:
1. f och g tillhör L1 (f ∗ g tillhör då också L1 )
2. f tillhör L1 , g är begränsad (f ∗ g är då också begränsad)
3. f och g är kausala (f ∗ g är då också kausal)
10.3
Sats 10.1 Räkneregler för faltning
Följade gäller då något av villkoren i Utsaga 10.1 gäller, eller då f, g, h alla ≥ 0
1. Kommutativa regeln: f ∗ g = g ∗ f
2. Distributiva regeln: f ∗ (g + h) = f ∗ g + f ∗ h
3. Associativa regeln: f ∗ (g ∗ h) = (f ∗ g) ∗ h
4. Förskjutningsregeln: Ta (f ∗ g) = Ta f ∗ g = f ∗ Ta g
5. Derivationsregeln:
10.4
d
dt (f
∗ g) =
df
dt
∗g =f ∗
dg
dt
Sats 10.2 Falting med enhetssteg
Falting med enhetsstegsfunktionen är ekvivalent med integration med undre
gräns −∞.
Z t
θ ∗ f (t) = f ∗ θ(t) =
f (τ )dτ
(74)
−∞
10.5
Sats 10.3 Kausal falting
Om f och g är kausala funktioner så är f ∗ g kausal och fås ur
Z t
f ∗ g(t) =
f (f − τ )g(τ )dτ
0
20
(75)
10.6
Definition 10.2 Ensidig faltning
Den ensidiga faltningen av f och g defineras som
Z t
θf ∗ θg(t) = θ(t)(
f (f − τ )g(τ )dτ )
(76)
0
10.7
Sats 10.4 Seriekoppling av system
Om systemen S1 och S2 med impulssvaren h1 resp h2 seriekopplas fås ett sammansatt system S = S1 ◦ S2 med impulssvaret h = h1 ∗ h2 (Associativa regeln
mm.)
10.8
Sats 10.5 Stegsvaret - impulssvarets integral
Stegsvaret för ett lineärt tidsinvariant system är impulssvarets tidsintegral
Z t
(77)
Sθ(t) =
h(τ )dτ )
−∞
Systemets impulssvar är tidsderivatan av stegsvaret
h(t) =
11
11.1
d
Sθ
dt
(78)
Generaliserade funktioner
Definition 11.1 Deltafunktionen
Deltafunktionen
delta defineras ur
Z
∞
δ(t)ϕ(t)dt = ϕ(0)
(79)
−∞
för varje funktion ϕ(t) som är kontinuerlig i t = 0.
11.2
Definition 11.2 Distribution och testfunktion
En distribution är en lineär kontinuerlig avbildning som till varje testfunktion
(ϕ) ordnar ett tal.
11.3
Definition 11.3 Derivata av distribution
Derivatan U 0 av distributionen U defineras ur
Z ∞
Z ∞
U 0 (t)ϕ(t)dt =
U (t)ϕ0 (t)dt
−∞
(80)
−∞
för varje testfunktion ϕ.
11.4
Sats 11.1 Distributionsderivatan - deltafunktionen
Distributionsderivatan av enhetsstegsfunktionen är deltafunktionen,
θ0 = δ
21
(81)
11.5
Sats 11.2 Funktion multiplicerad med deltafunktion
Om funktionen f är kontinuerlig i t = 0 så är
f (t)δ(t) = f (0)δ(t)
(82)
f (t)δa (t) = f (a)δa (t)
(83)
(f (t)δ(t − a) = f (a)δ(t − a))
(84)
Vidare är
förutsatt att f är kontinuerlig i t = a.
11.6
Sats 11.3
Om U , V är distributioner och f en vanlig funktion så gäller:
d
dU
dV
(U + V ) =
+
dt
dt
dt
d
df
dU
(f U ) = U + f
dt
dt
dt
förutsatt att produkterna kan defineras.
11.7
(85)
(86)
Definition 11.4 Glatta funktioner
Låt I vara ett intervall. Vi säger att en funktion f(t) är en restriktion av en glatt
funktion till I, om det finns en obegränsat många gånger deriverbar funktion
F (t) definierad på hela R, sådan att f (t) = F (t) då t ∈ I. En funktion f (t) sägs
vara styckvis glatt på ett intervall I om detta kan delas upp i ett ändligt antal
delintervall så att f är restriktion av en glatt funktion på vart och ett av dessa
delintervall.
11.8
Sats 11.4
Antag att f är styckvis glatt, med brytpunkter t1 , ..., tm , där f har språng av
höjd σ1 , ..., σm . Då är distributionsderivatan av f lika med
f 0 (t) = [f 0 (t)]p + σ1 δ(t − t1 ) + ... + σm δ(t − tm )
(87)
där [f 0 (t)]p betecknar den punktvisa derivatan av f , vilken är definierad som
gränsvärde av differenskvoten utom just i brytpunkterna.
11.9
Sats 11.5
Om f är en kontinuerlig och styckvis glatt funktion, så är f 0 en vanlig funktion.
11.10
Sats 11.6
Om f är en tillräckligt regulär funktion, minst en gång kontinuerligt deriverbar,
så kan f multipliceras med δ 0 och produkten kan skrivas om som
f (t)δ 0 (t) = f (0)δ 0 (t) − f 0 (0)δ(t)
22
(88)
11.11
Definition 11.5 Konvergens hos distributioner
En följd av distributioner Un konvergerar mot distributionen U
Un −→ U
i distributionsmening då likheten
Z ∞
Z
Un (t)ϕ(t)dt −→
−∞
(89)
∞
U (t)ϕ(t)dt
(90)
−∞
gäller för varje testfunktion ϕ
11.12
Definition 11.6 Serie konvergerande i distributionsmening
En serie
P
n
Un sägs konvergera i distributionsmening mot summan S, om
Z ∞
XZ ∞
(91)
Un (t)ϕ(t)dt
S(t)ϕ(t)dt =
−∞
n
−∞
för varje testfunktion ϕ.
11.13
Sats 11.7
Om serien
S=
X
Un
(92)
n
konvergerar i distributionsmening, så kan den deriveras termvis obegränsat
många gånger:
P k
dk S
= n ddxUkn för alla k ≥ 0.
dxk
11.14
Sats 11.8 Räkneregler för distributioner
Om U och V är distributioner så är
1. U ∗ V = V ∗ U
2. U ∗ (V + W ) = U ∗ V + U ∗ W
3. U ∗ (V ∗ W ) = (U ∗ V ) ∗ W om minst två av U , V , W har kompakt stöd,
eller om alla tre är kausala.
4. δ ∗ U = U för varje U.
5.
12
12.1
d
dt (U
∗V)=
dU
dt
∗V =U ∗
dV
dt
, om U ∗ V är definierad.
Frekvensanalys
Sats 12.1 insignal - utsignal
Om insignalen till ett lineärt tidsinvariant system är en komplex svängning med
frekvens s, så är också utsignalen en komplex svängning med frekvens s
23
12.2
Definition 12.1 Överföringsfunktionen
Med överföringsfunktionen H(s) för ett lineärt tidsinvariant system menas kvoten mellan utsignal och insignal, då insignalen är en svängning med komplex
frekvens.
S(est )
H(s) =
=⇒ S(est ) = H(s)est
(93)
est
12.3
Sats 12.2
Om insignalen ω och utsignalen y för ett lineärt tidsinvariant system är förbunda
genom den lineära differentialekvationen
y (n) + an−1 y (n−1) + ... + a0 y = bm ω (m) + ... + b0 ω
(94)
med konstanta koefficienter, så är överföringsfunktionen för systemet given av
H(s) =
12.4
s(n)
bm s(m) + ... + b1 s + b0
+ an−1 s(n−1) + ... + a1 s + a0
(95)
Sats 12.3 Överföringsfunktionen på tillståndsform
Ett system
dx
= Ax + Bw
dt
y = Cx + Dw
(96)
(97)
har på tillståndsform överföringsfunktionen
H(s) = C(sI − A)−1 B + D
12.5
(98)
Definition 12.2 Frekvensfunktionen
Frekvensfunktionen för ett lineärt tidsinvariant system S defineras genom
H(iω) = e−iωt S(eiωt )
12.6
(99)
Definition 12.3 Amplitud och fasfunktionen
Med amplitudfunktionen A(ω) för ett reellt lineärt tidsinvariant system S menas
beloppet av frekvensfunktionen
A(ω) = |H(iω)|
(100)
och med fasfunktionen ϕ(ω) menas argumentet av frekvensfunktionen
ϕ(ω) = argH(iω)
(Frekvensfunktionen kan alltså skrivasH(s) = A(ω)eiϕ(ω) ).
24
(101)
12.7
Sats 12.4 Insignal-utsignal frekvens
Om insignalen till ett lineärt tidsinvariant system är en harmonisk lineär svängning med vinkelfrekvens ω, så är också utsignalen en harmonisk svänging med
samma vinkelfrekvens. Vidare är
amplitudfunktionen A(ω) = kvoten mellan utsignalens och insignalens reella
amplituder
fasfunktionen ϕ(ω) = fasförskjutningen mellan utsignalen och insignalen
12.8
Sats 12.5 Periodiska signaler
Låt S vara ett stabilt lineärt tidsinvariant system med frekvensfunktion H(iω).
Om insignalen ω(t) är periodisk med period T = 2π/Ω så blir även utsignalen y(t) periodisk med period T. Sambandet mellan Fourierkoefficienterna för
insignal-utsignal är
(102)
ck (y) = ck (Sω) = H(ikΩ)ck (ω)
12.9
Sats 12.6 Impulssvar - överföringsfunktion
Om S är ett lineärt tidsinvariant system så gäller mellan dess impulssvar och
överföringsfunktion att
Z ∞
H(s) =
e−st h(t)dt
(103)
−∞
Speciellt för stabila system gäller
Z
∞
e−iωt h(t)dt
H(iω)
(104)
−∞
12.10
Sats 12.7 Systemets egensvängningsfrekvenser
För system av ändlig ordning är alla poler till överföringsfunktionen egenvärden
till systemmatrisen och alltså egensvängingsfrekvenser till systemet. Om s = p
är en pol till H(s) så finns en fri svängning till systemet med tidsberoende av
formen ept
13
13.1
Fouriertransformationen
Definition 13.1 Fouriertransformen
Om f (t) är en funktion, så kallas funktionen fˆ, given av formeln
Z ∞
ˆ
e−iωt f (t)dt
f (ω) =
(105)
−∞
för Fouriertransformen av f . (fˆ = F f ).
13.2
Definition 13.2 Amplitudspektrum, fasspektrum
Om funktionen f kan Fouriertransformeras, så kallas Fouriertransformens absolutbelopp |fˆ(ω)| för amplitudspektrum för funktionen f och dess argument
arg fˆ(ω) för fasspektrum för funktionen f .
25
13.3
Sats 13.1 Gausspulsen
Fouriertransformen av en Gausspuls är en Gausspuls med annan normering.
2
e−t 7−→F
13.4
√
πe−ω
2
/4
(106)
Sats 13.2 Fouriers inversionsformel
Om
fˆ(ω) =
Z
∞
eiωt f (t)dt
(107)
−∞
så är
Z
∞
eiωt fˆ(ω)d(
f (t) =
−∞
13.5
ω
)
2π
(108)
Sats 13.3
Om f tillhör L1 , så gäller att
1. fˆ(ω) är kontinuerlig och begränsad (av ||f1 ||)
2. (Riemann-Lebesgue) fˆ(ω) −→ 0 då |ω| −→ ∞
13.6
Sats 13.4
Antag att f tillhör L1 . Om f har höger- och vänsterderivator i punkten t = t0
så gäller inversionsformeln
Z ∞
ω
f (t0 + 0) + f (t0 − 0)
(109)
= CM
eiωt0 fˆ(ω)d( )
2
2π
−∞
(CM Cauchymedelvärden)
13.7
Sats 13.5 Faltningssatsen
Om f och g tillhör L1 så är
F (f ∗ g) = F f · F g
13.8
(110)
Sats 13.6 Parsevals formel
Om f (t) och g(t) tillhör L2 så är
Z
+∞
f (t) =
+∞
Z
f (t)g(t)dt =
−∞
−∞
ω
fˆ(ω)ĝ(ω)d( )
2π
(111)
Speciellt är
Z
+∞
Z
2
+∞
|f (t)| dt =
f (t) =
−∞
−∞
26
|fˆ(ω)|2 d(
ω
)
2π
(112)
13.9
Sats 13.7 Obestämdhetsrelationen
För varje funktion f (t) i L2 sådan att tf (t) och f 0 (t) tillhör L2 så är
Vt Vω ≥ f rac14
(113)
Likhet gäller då och endast då f är av formen
f (t) = Ce−λ(t−t0 )
13.10
2
/2+iω0 t
(114)
Sats 13.8 Fouriertransform av deltafunktionen
Fouriertransformen av en deltafunktion δ(t) i origo är konstanten 1
δ(t) 7→F 1
13.11
Sats 13.9 Skalningsregeln för deltafunktionen
δ(at) =
13.12
(115)
1
|a| δ(t)
om a 6= 0
Utsaga 13.1 Fouriertransformen av en periodisk funktion
Fouriertransformen av en periodiskfunktion är ett tåg av likformigt utplacerade impulser, vars storlek är proportionell mot funktionens Fourierkoefficienter.
Omvänt är inversa Fouriertransformen av ett sådant impulståg en periodisk
distribution.
13.13
Sats 13.10 Diracstaket
Antag att T > 0 och att T Ω = 2π. Då är
+∞
X
δ(t − kT ) =
k=−∞
+∞
X
14.1
(116)
k=−∞
δ(t − kT ) 7→F
k=−∞
14
+∞
1 X ikΩt
e
T
+∞
1 X
δ(ω − kΩ)
T
(117)
k=−∞
Laplacetransformationen
Definition 14.1
En funktion f (t), −∞ < t < ∞, har Laplacetransform Lf (s) definierad enligt
Z +∞
Lf (s) =
est f (t)dt
(118)
−∞
14.2
Sats 14.1 Konvergensstrimlan
Låt f vara en funktion definierad på R. Då finns en strimla parallell med imaginära axeln så att Laplaceintergralen för f konvergerar absolut i hela det inre
av strimlan men inte någonstans utanför.
27
14.3
Sats 14.2 Räkneregler för Laplacetransformationen
1. linearitet: c1 f1 + c2 f2 7−→L c1 F1 (s) + c2 F2 (s)
2. skalning: f (at) 7−→L
s
1
|a| F ( a ),
a reellt 6= 0
3. förskjutning: f (t − t0 ) 7−→L e−st0 F (s)
4. dämpning: es0 t f (t) 7−→L F (s − s0 )
5. konjugering: f (t) 7−→L F (s)
14.4
Sats 14.3 Analyticitet av Laplacetransformen
Antag att Laplacetransformen F (s) av funktionen f (t) existerar i strimlan α <
Re s < β. Då är F (s) en analytisk funktion i denna strimla.
14.5
Sats 14.4 Laplacetransformens entydighet
En Laplacetransform är entydigt bestämd i hela sin konvergensstrimla om man
känner dess värden på ett (godtyckligt) kort öppet delintervall av den reella
axeln.
14.6
Sats 14.5 Fouriertransform - Laplacetransform
Om konvergensstrimlan för F (s) innehåller den imaginära axeln, så kan F (s)
ˆ genom att iω ersätts med s, förutsatt att resultatet är en
erhållas ur F (ω)
analytisk funktion av s.
14.7
Sats 14.6 Derivationsregler för Laplacetransformationen
Om Laplacetransformen av f , f 0 och tf existerar gäller följande regler:
6. tidsderivation:
df
dt
7−→L sF (s)
7. frekvensderivation: −tf (t) 7−→L
14.8
dF
ds
Sats 14.7 Inversionsformeln för Laplacetransformering
Om Laplacetransformen Lf (s) = F (s) av funktionen f (t) existerar i strimlan
α < Re s < β och om α < σ < β, så är
1
f (t) =
2πi
Z
σ+i∞
est F (s)ds
σ−i∞
28
(119)
14.9
Sats 14.8
Antag att f1 (t) och f2 (t) har Laplacetransformerna F1 (s) och F2 (s) och att
F1 (s) = F2 (s)
(120)
på något intervall av reella axeln, där båda är definierade. Då är också
f1 (t) = f2 (t)
(121)
i alla gemensamma kontinuitetspunkter till f1 och f2 .
14.10
Sats 14.9 Laplacetransformen av en deltafunktion
Laplacetransformen av en deltafunktion är en exponentialfunktion:
14.11
δ(t) 7→ 1
(122)
δ(t − t0 ) 7→ e−t0 s
(123)
Sats 14.10 Laplacetransformen av en distribution
En funktion F (s) är Laplacetransformen av en distribution f (t) då och endast
då det finns en strimla i s-planet, parallell med imaginära axeln, där F (s) är
analytisk och uppfyller ett tillväxtvillkor F (s) = O(|s|N ) då |s| → ∞
14.12
Sats 14.11 Inverslaplace med residykalkyl
Antag att funktionen f (t) har den rationella Laplacetransformen
F (s) =
Då är
f (t) =
14.13


 −
Q(s)
P (s)
(124)
P
Res(est F (s))
om t > 0
ReP
s<σ
Res(est F (s))
om t < 0
Re s>σ
Sats 14.12 Faltningssatsen för Laplacetransformationen
Om f , g och f ∗ g kan Laplacetransformeras så är
L(f ∗ g) = Lf · Lg
(125)
Definitionsstrimlan för L(f ∗ g) innehåller den gemensamma delen av definitionsstrimlorna för Lf och Lg.
14.14
Sats 14.13 Överföringsfunktion - impulssvar
Överföringsfunktionen H(s) för ett lineärt tidsinvariant system S är lika med
Laplacetransformen av impulssvaret h(t)
H(s) = Lh(s)
29
(126)
14.15
Sats 14.14 Överföringsfunktionen - ut/insignal
Antag att ett lineärt tidsinvariant system har överföringsfunktionen H(s). Om
insignalen ω(t) och utsignalen y(t) har Laplacetransformerna W (s) respektive
Y (s) så är sambandet mellan dem
Y (s) = H(s)W (s)
(127)
Överföringsfunktionen kan alltså fås som kvoten mellan utsignalens och insignalens Laplacetransformer
Y (s)
H(s) =
(128)
W (s)
14.16
Sats 14.15 Kausalitet
• Om systemet S är kausalt så är dess överföringsfunktion H(s) definierad
i ett högerhalvplan Re s > α.
• Om systemet S är stabilt så är dess överföringsfunktion H(s) definierad,
kontinuerlig och begränsad på imaginära axeln.
• Om systemet S är kausalt och stabilt så är dess överföringsfunktion H(s)
analytisk då Re s > 0 och kontinuerlig och begränsad då Re s ≥ 0.
14.17
Sats 14.16 Kausalitet
Antag att S är ett lieärt tidsinvariant system av ändlig ordning med den rationella överföringsfunktionen H(s) = Q(s)
P (s) . Då gäller att
1. S är kausalt då och endast då H(s) är definierad på högerhalvplan, Re s >
α
2. S är stabilt då och endast då H(s) är definierad på den imaginära axeln
Re s = 0 och begränsad där.
14.18
Sats 14.17 Kausalt system - stabilitet
Antag att systemet S är kausalt och av ändlig ordning. Då är S stabilt då och
endast då dess överföringsfunktion H(s) = Q(s)
P (s) uppfyller
a) grad P ≥ grad Q
b) alla poler till H ligger i vänster halvplan (Re s < 0).
14.19
Definition 14.2 Ensidig Laplacetransform
Om f (t), −∞ < t < +∞ är en funktion så definieras den till f (t) tillhörande
ensidiga Laplacetransformen
Z ∞
LI f (s) = L(θf )(s) =
est f (t)dt
(129)
0
30
14.20
Sats 14.18 Derivation - ensidiga Laplacetransformen
LI (f n )(s) = sn LI f (s) − sn−1 f (0) − ... − sf (n−2) (0) − f (n−1) (0)
14.21
(130)
Sats 14.19 Den ensidiga faltningssatsen
Z
t
f (t − τ )g(τ )dτ
LI
(s) = LI f (s)LI g(s).
(131)
0
14.22
Sats 14.20 ensidig Laplacetransformen av eAt
Den ensidig Laplacetransformen av exponentialmatrisen eAt är resolventmatrisen RA (s) = (sI − A)−1 .
L(eAt θ(t)) = LI (eAt )(s) = RA (s) = (sI − A)−1
(132)
Konvergensområdet är halvplanet Re, s > σ(A).
14.23
Sats 14.21 Begynnelsevärdessatsen
Antag att f är kausal och att F = Lf är rationell. Om F är ett äkta bråk, det
vill säga om nämnarens gradtal är större än täljarens, så är
lim f (t) = lim sF (s)
t→+0
14.24
s→+∞
(133)
Sats 14.22 Slutvärdessatsen
Antag att f är kausal och att F = Lf är rationell. Om alla poler till sF (s) har
negativ realdel, så är
lim f (t) = lim sF (s)
(134)
t→+∞
15
15.1
s→0
Stabilitetsteori
Kapitlet utelämnas
Detta kapitel utelämnas ur anteckningarna då dess innehåll inte applicerats i
kursen.
31