Deep learning & AI for UAV
Går det som NVIDIA tenker seg vil snart dronene ta de viktigste avgjørelsene for deg.– Neurologiske nettverk vil gjøre dronene smartere med å gjenkjenne sine omgivelser og hjelpe deg å ta avgjørelser raskt, sier Eddie Seymour hos NVIDIA.
Under The Commercial UAV Show i London var det stor interesse for temaet deep learning og artificial intelligence for droner. Spesielt mye oppmerksomhet har NVIDIA fått det siste året gjennom sin tydelige posisjon og lansering av både software og hardware.
I flere år har teknologien vært bruk i det militære. Nå kommer det sivile markedet etter.
– Vi har brukt vår komptetanse fra computergrafikk til avanserte chip. Det gjør i all enkelhet at vi kan gjøre mange prosesser samtidig. Dette gir oss mulighet for gjennkjenning av objekter og prosessene som gjøres gjøres i en trolig fart. I dag ser vi at det er spesielt følgende tre områder vi jobber med:
Autonome maskiner som droner, bilder eller under vann eller et månefartøy for den saks skyld. Prinsippene er de samme for mange applikasjoner som eksempelvis videoanalyse.
Trening før jobb
Teknologien både på software og hardware gjør at maskiner kan se og gjenkjenne objekter etter gitte parameter. Du må vise maskinen en hel haug med bilder / objekter som de skal gjenkjenne.Du trener altså opp maskinen før du sender den ut på jobb.
– Et eksempel er Prox Dynamics som bruker vår chip`n som de i realiteten har plukket fra hverandre. Etter en grundig opplæring settes den i jobb og jobber da etter hva som er sannsynlighet når den er i bruk. Man kan kanskje si at den er som et barn, det lærer ting gjennom tid og en del justeringer underveis. Du kan sette den i lærings-modus eller gi den input underveis. Databasen med kunnskap blir større over tid etter som den lærer – m.a.o. blir den «smartere» desto mer læring den får. Det tar tid – lang tid, avhengig av datakraft og parallelle prosesser som analyserer materialet, forteller Seymour til Dronemagsinet.
Hvor nøyaktig kan gjennkjenningen bli?
– Det vil avhenge av hvor nøyaktige resultater du ønsker og som kreves. Høy nøyaktighet krever da lengre tid for å bygge opp databasen. Eksempelvis kan dette være aktuelt med inspeksjon av kraftlinjer, objekter blir identifisert og vi kan bestemme om det er en feil eller ikke – da basert på databasen som du har bygget. Høy grad av nøyaktighet krever da også mye input før du får gode resultater.
Hvilke sensorer eller input kan du bruke?
-«Alle» sensorer kan integreres, dvs hvis det er basert på Linux – i dag ser vi at svært mange sensorer kan integreres. Resultatet kan være alt fra form, farge, mønster eller SLAM som kan bygge opp miljøet i 3D og være med på å erstatte GPS om du mister signalet. Dette er nytt for mange deler av bransjen, men det er helt klart et viktig bidrag til å gjøre dronene sikrere og mer anvendelige – også innendørs, mener Seymour
Databasen blir en salgsvare
– I dag vil mange si at det er en kamp om å utvikle den beste databasen med data for gjenkjenning. Aktørene som i dag utvikler databaser har i flere tilfeller spesielle områder er jobber med – selv om man ser mange gode tegn på samarbeid. Uansett ser vi i dag at det er en dreining i retning av at databasene med gjenkjenning blir en salgsvare. Kanskje blir det slik at «minbil» har bedre database enn din og dermed også bedre funksjonalitet for autonome kjøreturer. Det kan om kort tid bli et salgsargument, avslutter Seymor.