Les også: hva er en datamodell?
Datamaskiner bruker matematikk, data og datamaskininstruksjoner for å lage representasjoner av virkelige hendelser. De kan også forutsi hva som skjer-eller hva som kan skje – i komplekse situasjoner, fra klimasystemer til spredning av rykter i en by. Og datamaskiner kan spytte ut sine resultater uten at folk må vente år eller ta store risikoer.
forskerne som bygger datamodeller starter med viktige trekk ved hva hendelser de håper å representere. Disse funksjonene kan være vekten av en fotball som noen vil sparke. Eller det kan være graden av skydekke som er typisk for en regions sesongklima. Funksjoner som kan endre — eller variere-er kjent som variabler.
Lærere Og Foreldre, Registrer Deg For Cheat Sheet
Ukentlige oppdateringer For Å hjelpe deg med Å bruke Science News for Studenter i læringsmiljøet
deretter identifiserer datamodellørene regler som styrer disse funksjonene og deres relasjoner. Forskerne uttrykker disse reglene med matte.
” matematikken innebygd i disse modellene er ganske enkel-for det meste tillegg, subtraksjon, multiplikasjon og noen logaritmer,” bemerker Jon Lizaso. Han jobber Ved Det Tekniske Universitetet I Madrid I Spania. (Logaritmer uttrykker tall som krefter av andre tall for å forenkle beregninger når du arbeider med svært store tall.) Likevel er det fortsatt for mye arbeid for en person å gjøre. “Vi snakker om sannsynligvis tusenvis av ligninger,” forklarer han. (Ligninger er matematiske uttrykk som bruker tall til å relatere to ting som er like, for eksempel 2 + 4 = 6. Men de ser vanligvis mer kompliserte ut, for eksempel z = 21x – t)
Å Løse selv 2000 ligninger kan ta en hel dag med en ligning hvert 45.sekund. Og en enkelt feil kan kaste svaret ditt bort.
Vanskeligere matte kan støte opp tiden som trengs for å løse hver ligning til et gjennomsnitt på 10 minutter. I den hastigheten kan det ta nesten tre uker å løse 1000 ligninger, hvis du tok litt tid til å spise og sove. Og igjen, en feil kan kaste alt av.
derimot kan vanlige bærbare datamaskiner utføre milliarder operasjoner per sekund. Og På bare ett sekund kan Titan supercomputer Ved Oak Ridge National Laboratory i Tennessee gjøre mer enn 20.000 billioner beregninger. Hvor mye er 20.000 billioner? At mange sekunder ville komme til ca 634 millioner år!)
en datamodell trenger også algoritmer og data. Algoritmer er sett med instruksjoner. De forteller datamaskinen hvordan man skal ta beslutninger og når man skal gjøre beregninger. Data er fakta og statistikk om noe.
med slike beregninger kan en datamodell gjøre spådommer om en bestemt situasjon. For eksempel kan det vise eller simulere resultatet av en bestemt fotballspillers spark.
Datamodeller kan også håndtere dynamiske situasjoner og skiftende variabler. For eksempel, hvor sannsynlig er det å regne på fredag? En værmodell ville kjøre sine beregninger om og om igjen, endre hver faktor en etter en og deretter i ulike kombinasjoner. Etter det ville det sammenligne funnene fra alle løpene.
etter å ha justert for hvor sannsynlig hver faktor var, ville den utstede sin prediksjon. Modellen vil også kjøre sine beregninger som fredag kom nærmere.
for å måle en modells pålitelighet, kan forskere få en datamaskin til å kjøre sine beregninger tusenvis eller til og med millioner av ganger. Forskere kan også sammenligne en modells spådommer med svar de allerede vet. Hvis spådommene stemmer overens med disse svarene, er det et godt tegn. Hvis ikke, må forskerne gjøre mer arbeid for å finne ut hva de savnet. Det kan være at de ikke inkluderte nok variabler, eller stolte for mye på de gale.
datamodellering er ikke en one-shot avtale. Forskere lærer alltid mer fra eksperimenter og hendelser i den virkelige verden. Forskere bruker denne kunnskapen til å forbedre datamodeller. Jo bedre datamodeller er, desto mer nyttige kan de bli.