Varför heter det Taylor-serier samt Mclaurin-serier?
Colin Maclaurin var ett absolut geni, ingen tvekan om det. Under mycket lång tid hade han rekordet som världens yngsta professor, utnämnd av University of Aberdeen 1717 när han bara var nitton.
Ett ämne av särskilt intresse för honom var förmågan att konstruera funktioner från oändligt långa polynom, för vilket han myntade termen Taylor-serien efter kollegan, Brook Taylor.
Mclaurin fick senare också sitt namn erkänt inom matematikområdet. Ett specialfall av Taylor-serier är idag kända som Maclaurin-serier.
Trots vad namnen antyder, var varken Maclaurin eller Taylor de första som använde polynom för att utvärdera andra funktioner.
Faktum är att den store indiske matematikern Madhava från Sangamagrama hade gjort just det för trigonometriska funktioner redan på 1300-talet.
Polynom som ett verktyg
Det finns många vilda funktioner där ute. Hur skulle du till exempel kunna förstå ? Ökar det? Minskar den? Svänger det? Du kan verkligen inte veta, om du inte är något slags geni.
Men vi kan approximera det hela med ett polynom. Och polynom är lätta att hantera. De är lätta att utvärdera, lätta att differentiera. Vi kan öka graden av polynomet för att förbättra vår approximation.
Det är faktiskt så miniräknare fungerar. De har inte inbyggda funktioner för , etc. Istället kommer en kalkylator att approximera värdet på något, som , med ett polynom.
Vad är en Taylor-serie?
Taylor-serien för en funktion definieras enligt följande vid punkten :
Om vi istället sätter en övre begränsning för vår summa hittar vi en approximation till funktionen runt :
mer konkret skulle vi kunna sätta då vi finner att:
Om vi gör detta för en funktion, säg , får vi en bättre och bättre approximation. Nedan visar vi en animering av vad som händer när vi ökar antalet vi använder:
Vi kan också beräkna serien för runt och bestämma att vi lägger över den övre gränsvärde för summeringen till 7
Maclaurinpolynom
Ett Maclaurinpolynom för
Ibland vill vi skriva om en funktion som ett polynom. Konstigt nog kan vi faktiskt göra det så att funktionen fortfarande förblir exakt densamma , åtminstone nära en punkt.
Detta är praktiskt för att beräkna vissa gränsvärden, lösa röriga ekvationer och så vidare.
Eftersom det är så lätt att integrera och differentiera polynom, kan tricket göra våra liv avsevärt enklare.
Vi provar det med . Vi skulle vilja hitta ett polynom för runt , för att göra det lite enklare. är en udda funktion, så vi håller oss till de udda polynomen som börjar med .
Det är faktiskt inte så illa runt noll, om vi bara är intresserade av att approximera värdet. Men att lägga till en till polynomet gör approximationen av konvexiteten bättre:
Vi kan fortsätta lägga till termer och göra polynomet till en bättre och bättre matchning.
Detta är kärnan i Maclaurin-polynom. När vi lägger till fler och fler termer kommer polynomet så småningom att matcha funktionen.
Ibland är matchningen begränsad till ett intervall, men för vissa funktioner får vi en perfekt matchning för hela definitionsmängd.
Maclaurinpolynomet är ett specialfall av Taylorpolynom: medan Taylorpolynom beskriver funktionen från närheten av vilken punkt som helst, beskriver Maclaurinpolynomet funktionen från närheten av 0. Vi ska titta på Taylorpolynom i nästa avsnitt .
Hitta Maclaurinpolynom
Så, hur hittar vi det magiska polynomet?
Tja, den första termen använder funktionsvärdet vid för att approximera funktionsvärdet nära . Den andra termen approximerar lutningen, derivatan, med hjälp av derivatan vid . Den tredje approximerar konvexiteten, den andraderivatan. Och så vidare.
Det hela följer en formel:
Det här är en oändlig serie. Vi kallar den Maclaurin-serien av , och den är exakt lika med .
Om vi bara skriver de första -termerna, så kallas det för Maclaurin-polynomet av graden , och det är en approximation av funktionen.
Maclaurinpolynomet är en approximation av funktionen
Detta är Maclaurinpolynomet av grad för :
Det är bara två termer i exemplet, men funktionsvärdet och andraderivatan vid är , så de är osynliga . De räknas ändå!
När vi beräknar med Maclaurinpolynom väljer vi graden av polynomet beroende på dess tillämpning.
Summateckenet
Detta är ett kompakt sätt att skriva Maclaurinpolynomet av grad för :
Om du inte är bekant med det, är den läckra grekiska bokstaven summasymbolen, som lägger samman termerna till höger för alla mellan och .
Om vi låter gå hela vägen till oändligheten får vi Maclaurin-serien för .
Några användbara Maclaurin-serier
Även om det i allmänhet inte är svårt att beräkna Maclaurin-polynom, är det ett hantverk som tar tid i högre grader av polynomet.
Därför är dessa snygga och vanliga Maclaurin-serier värda att komma ihåg:
Taylorpolynom
Taylor vs Maclaurin
Approximationen av ett funktionsvärde med Maclaurin-polynom blir sämre och sämre när vi går bort från .
I vissa fall går inte ens den oändliga Maclaurin-serien mot funktionsvärdet, om vi letar efter funktionsvärden för långt från . Till exempel, Maclaurin-serien för går inte mot funktionsvärdet om inte ligger inuti .
Men misströsta inte: vad Maclaurin-polynom gör runt noll, kan Taylor-polynom göra var som helst .
Säg att vi vill approximera en funktion runt någon punkt långt från noll. Sedan skulle vi vilja uppskatta funktionen med värden närmare . Detta är vad Taylorpolynomen gör.
Taylorpolynom approximerar funktionen runt vilken punkt som helst
Taylorpolynom
Taylor-serien runt en punkt för ser ut så här:
Lägg märke till att om vi kopplar in så är vi tillbaka med gamla goda Maclaurin. Således är Maclaurin-serierna bara ett specialfall av Taylor!
Om man skär av serien efter termen grad , analogt med Maclaurin-fallet får vi ett Taylorpolynom med grad .
Okej, Taylor-serien ser inte lika snygg ut som Maclaurin-serien. Men titta: när vi kommer närmare och närmare , närmar sig funktionsvärdet . Och, nära , blir termerna alla ganska små, vilket säkerställer att funktionsvärdet dominerar över derivatorna. Det verkar ganska rimligt, eller hur?
Med summateckenet är Taylorpolynom av grad :
Precis som med Maclaurin, ersätter med Taylor-serien.
Ett exempel
Låt oss hitta Taylorpolynom av grad för runt .
Eftersom derivatan av exponentialfunktionen är sig själv, är det lätt att beräkna derivatorna . Så runt :
Vissa typer av datorprogram använder Taylor-serier för att lösa ekvationer. När vi inte behöver det exakta svaret är detta det bästa valet för snabba beräkningar.
Taylors felterm
Låt oss vara ärliga. Att göra Taylor-expansioner är lite jobbigt. Det handlar bara om att använda differentiering om och om igen. Sedan använder du derivatorna i Taylors formel, och voilà, det är ditt Taylorpolynom .
Om du till exempel blir ombedd att hitta Taylorpolynom av grad sju, måste du differentiera funktionen sju gånger. Tänk på att detta är en snäll funktion, vars derivator inte blir mer komplicerade allt eftersom. Om du däremot hade att göra med skulle saker och ting snabbt eskalera i komplexitet.
Om inte funktionen är exceptionellt snäll kommer vi inte att bry oss om att beräkna en Taylor-expansion med ett stort antal termer. Vi måste avbryta det någonstans. Men var?
I de flesta applikationer spelar det ingen roll om vår uppskattning är oändligt exakt. En ingenjör behöver bara veta en övre felgräns för approximationen.
Om han tror att hans konstruktion kommer att kollapsa om yttre krafter överstiger N, kan han sova på natten om han bara vet att kraften är mindre än N. Vad gäller det exakta antalet, vem bryr sig?
Ett exempel
Låt oss säga att du har hittat Taylorpolynom av grad för funktionen runt , vilket är . Åh, förresten, eftersom det är ett Taylorpolynom runt , är det också ett Maclaurin-polynom.
Därefter uppskattar du genom att beräkna . Men kom ihåg att Taylorpolynom bara är en approximation.
För att hitta felet skulle du beräkna den tredje termen i Taylorpolynom, utvärderad i någon punkt . Här är ett tal mellan och , punkten där vi utvärderar . Den Tredjederivatan är , så felet visar sig vara
.
Låt oss formulera detta mer allmänt. För att hitta feltermen för :te gradens polynom runt , beräkna :te termen. Istället för att utvärdera derivatan till , utvärdera den i . I symboler kommer felet ut att vara:
där ligger mellan och .
Stora ordo
Inom datavetenskap kanske du stöter på begreppet Stora ordo. Två program kan returnera samma utdata. Ändå kan det första programmet vara långsamt jämfört med det andra och ta massor av mer tid.
För att jämföra olika algoritmer försöker datavetare att uppskatta hur lång tid det tar att slutföra en algoritm. En bra algoritm har en kort körtid, och körtiden ökar inte mycket när du ger algoritmen mer indata .
När datavetare säger att en algoritm har körtid , där är storleken på indatat, menar de att körtiden ökar som funktionen , med något konstant, när blir riktigt stort. Om körtiden är ökar den som . Det är klart att vi skulle föredra det första fallet. beskriver i grunden den dominerande termen när indatat växer.
Matematiker har också denna föreställning om Stora ordo. I matematikland är termen en proxy för någon funktion som beter sig som . När vi gör Taylor-expansion använder vi termer som , etc. Idén om Stora ordo är skrämmande i början, men alla dessa O är väldigt vänliga. Stora ordo är som en matta som döljer de återstående termerna, så ditt uttryck ser inte lika rörigt ut.
Låt oss säga att du är för lat för att expandera bortom termen . Du kan stoppa allt annat under Stora ordo -mattan och skriva:
Eller, om du inte ens bryr dig om att expandera tills termen , skulle du få:
I motsats till Stora ordo inom datavetenskap kommer den dominerande termen här att vara den med minst exponent.
Eftersom är liten är funktionen större än . Så om du skulle ha en funktion som , skulle dominera. Generellt sett präglas -termen med villkoren av högre ordning. Så om en funktion är , där , är den också .