Progress for week 39-40 (2016)
From Robin
(→Jiader) |
(→Jiader) |
||
Line 8: | Line 8: | ||
* Essayet snart i mål | * Essayet snart i mål | ||
* Installert ros | * Installert ros | ||
- | * Har noen ideer på use case for | + | * Har noen ideer på use case for oppgaven (må snakke med Kyrre) |
== Mathias == | == Mathias == |
Revision as of 11:00, 5 October 2016
Contents |
Jiader
Budget
- Gjøre ferdig essayet i løpet av uka
- Installering av ros
- Spesifisere use case for oppgaven
Accounting
- Essayet snart i mål
- Installert ros
- Har noen ideer på use case for oppgaven (må snakke med Kyrre)
Mathias
Budget
- Få konkretisert oppgaven
- Konkretisere essayet
- Snakke med Kyrre om oppgaven
- Skrive essayet
Accounting
- Snakket med Kyrre
Mulige oppgaver
Visualisering
Mål:
- Forstå algoritemene til roboten bedre ved å visualisere dem under kjøring.
- Lettere se effektene av parametertuning
Ting:
- Sammenligne forskjellige modeller
- Bruke faktisk kamerastrøm og overlaye genererte 3D-modeller
Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint. For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.
Fjernstyring
Mål: Løse en oppgave med roboten enklere med hjelp av VR. Vise at det er lettere å se på obstacles eller å styre en robotarm med VR.
Utfordringen her er å bygge en robotarm. Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med. Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
Visualisering gjennom AR
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert). Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.
Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.
Mål:
- Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
- Lettere se effektene av parametertuning
Utfordringer:
- Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
- Finne metrics på hvor bra resultatet ble.
John
Budget
- Ordne github
- Reversere til en eldre versjon av prosjektet og teste haptikken.
- Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
- Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?
Accounting
- Satt opp github.
- Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)