Progress for week 39-40 (2016)
From Robin
(→Mathias) |
|||
Line 19: | Line 19: | ||
=== Accounting === | === Accounting === | ||
* Snakket med Kyrre | * Snakket med Kyrre | ||
+ | * Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality | ||
+ | * Funnet nye artikler i SIGGRAPH-arkivet | ||
+ | * Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost... | ||
+ | * Skrevet litt mer på essayet | ||
+ | * Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke | ||
+ | * Snakket med Trenton om metrics, trenger mer snakking på den fronten | ||
==== Mulige oppgaver ==== | ==== Mulige oppgaver ==== |
Current revision as of 11:16, 5 October 2016
Contents |
Jiader
Budget
- Gjøre ferdig essayet i løpet av uka
- Installering av ros
- Spesifisere use case for oppgaven
Accounting
- Essayet snart i mål
- Installert ros
- Har noen ideer på use case for oppgaven (må snakke med Kyrre)
Mathias
Budget
- Få konkretisert oppgaven
- Konkretisere essayet
- Snakke med Kyrre om oppgaven
- Skrive essayet
Accounting
- Snakket med Kyrre
- Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
- Funnet nye artikler i SIGGRAPH-arkivet
- Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
- Skrevet litt mer på essayet
- Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
- Snakket med Trenton om metrics, trenger mer snakking på den fronten
Mulige oppgaver
Visualisering
Mål:
- Forstå algoritemene til roboten bedre ved å visualisere dem under kjøring.
- Lettere se effektene av parametertuning
Ting:
- Sammenligne forskjellige modeller
- Bruke faktisk kamerastrøm og overlaye genererte 3D-modeller
Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint. For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.
Fjernstyring
Mål: Løse en oppgave med roboten enklere med hjelp av VR. Vise at det er lettere å se på obstacles eller å styre en robotarm med VR.
Utfordringen her er å bygge en robotarm. Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med. Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
Visualisering gjennom AR
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert). Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.
Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.
Mål:
- Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
- Lettere se effektene av parametertuning
Utfordringer:
- Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
- Finne metrics på hvor bra resultatet ble.
John
Budget
- Ordne github
- Reversere til en eldre versjon av prosjektet og teste haptikken.
- Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
- Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?
Accounting
- Satt opp github.
- Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)
Hans Fredrik
Budget
- Gjøre ferdig essayet i løpet av uka
- Installering av ubuntu/ros
Accounting
- Blitt frisk
- Nærmer seg slutten på essayet
- Installert ubuntu og ros