Progress for week 39-40 (2016)

From Robin

(Difference between revisions)
Jump to: navigation, search
(Budget)
(Mathias)
 
(21 intermediate revisions not shown)
Line 4: Line 4:
* Installering av ros
* Installering av ros
* Spesifisere use case for oppgaven
* Spesifisere use case for oppgaven
-
+
 
=== Accounting ===
=== Accounting ===
-
.
+
* Essayet snart i mål
 +
* Installert ros
 +
* Har noen ideer på use case for oppgaven (må snakke med Kyrre)
 +
 
== Mathias ==
== Mathias ==
=== Budget ===
=== Budget ===
Line 16: Line 19:
=== Accounting ===
=== Accounting ===
* Snakket med Kyrre
* Snakket med Kyrre
 +
* Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
 +
* Funnet nye artikler i SIGGRAPH-arkivet
 +
* Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
 +
* Skrevet litt mer på essayet
 +
* Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
 +
* Snakket med Trenton om metrics, trenger mer snakking på den fronten
-
==== Tanker =====
+
==== Mulige oppgaver ====
 +
===== Visualisering =====
 +
Mål:
 +
* Forstå algoritemene til roboten bedre ved å visualisere dem under kjøring.
 +
* Lettere se effektene av parametertuning
 +
 
 +
Ting:
 +
* Sammenligne forskjellige modeller
 +
* Bruke faktisk kamerastrøm og overlaye genererte 3D-modeller
 +
 
 +
Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint.
 +
For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.
 +
 
 +
===== Fjernstyring =====
 +
Mål: Løse en oppgave med roboten enklere med hjelp av VR. Vise at det er lettere å se på obstacles eller å styre en robotarm med VR.
 +
 
 +
Utfordringen her er å bygge en robotarm.
 +
Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med.
 +
Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
 +
 
 +
==== Visualisering gjennom AR ====
 +
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert.
 +
Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert).
 +
Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.
 +
 
 +
Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.
 +
 
 +
''' Mål: '''
 +
* Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
 +
* Lettere se effektene av parametertuning
 +
 
 +
''' Utfordringer: '''
 +
* Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
 +
* Finne metrics på hvor bra resultatet ble.
 +
 
 +
== John ==
 +
=== Budget ===
 +
* Ordne github
 +
* Reversere til en eldre versjon av prosjektet og teste haptikken.
 +
* Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
 +
* Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?
 +
 
 +
=== Accounting ===
 +
* Satt opp github.
 +
* Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)
 +
 
 +
== Hans Fredrik ==
 +
=== Budget ===
 +
* Gjøre ferdig essayet i løpet av uka
 +
* Installering av ubuntu/ros
 +
 
 +
=== Accounting ===
 +
* Blitt frisk
 +
* Nærmer seg slutten på essayet
 +
* Installert ubuntu og ros

Current revision as of 11:16, 5 October 2016

Contents

Jiader

Budget

  • Gjøre ferdig essayet i løpet av uka
  • Installering av ros
  • Spesifisere use case for oppgaven

Accounting

  • Essayet snart i mål
  • Installert ros
  • Har noen ideer på use case for oppgaven (må snakke med Kyrre)

Mathias

Budget

  • Få konkretisert oppgaven
  • Konkretisere essayet
  • Snakke med Kyrre om oppgaven
  • Skrive essayet

Accounting

  • Snakket med Kyrre
  • Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
  • Funnet nye artikler i SIGGRAPH-arkivet
  • Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
  • Skrevet litt mer på essayet
  • Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
  • Snakket med Trenton om metrics, trenger mer snakking på den fronten

Mulige oppgaver

Visualisering

Mål:

  • Forstå algoritemene til roboten bedre ved å visualisere dem under kjøring.
  • Lettere se effektene av parametertuning

Ting:

  • Sammenligne forskjellige modeller
  • Bruke faktisk kamerastrøm og overlaye genererte 3D-modeller

Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint. For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.

Fjernstyring

Mål: Løse en oppgave med roboten enklere med hjelp av VR. Vise at det er lettere å se på obstacles eller å styre en robotarm med VR.

Utfordringen her er å bygge en robotarm. Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med. Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.

Visualisering gjennom AR

Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert). Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.

Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.

Mål:

  • Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
  • Lettere se effektene av parametertuning

Utfordringer:

  • Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
  • Finne metrics på hvor bra resultatet ble.

John

Budget

  • Ordne github
  • Reversere til en eldre versjon av prosjektet og teste haptikken.
  • Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
  • Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?

Accounting

  • Satt opp github.
  • Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)

Hans Fredrik

Budget

  • Gjøre ferdig essayet i løpet av uka
  • Installering av ubuntu/ros

Accounting

  • Blitt frisk
  • Nærmer seg slutten på essayet
  • Installert ubuntu og ros
Personal tools
Front page