Progress for week 39-40 (2016)

From Robin

(Difference between revisions)
Jump to: navigation, search
(Mathias)
(Mathias)
 
(10 intermediate revisions not shown)
Line 4: Line 4:
* Installering av ros
* Installering av ros
* Spesifisere use case for oppgaven
* Spesifisere use case for oppgaven
 +
 +
=== Accounting ===
 +
* Essayet snart i mål
 +
* Installert ros
 +
* Har noen ideer på use case for oppgaven (må snakke med Kyrre)
== Mathias ==
== Mathias ==
Line 14: Line 19:
=== Accounting ===
=== Accounting ===
* Snakket med Kyrre
* Snakket med Kyrre
 +
* Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
 +
* Funnet nye artikler i SIGGRAPH-arkivet
 +
* Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
 +
* Skrevet litt mer på essayet
 +
* Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
 +
* Snakket med Trenton om metrics, trenger mer snakking på den fronten
-
==== Oppgaven ====
+
==== Mulige oppgaver ====
-
Slik jeg ser det nå er det to muligheter:
+
-
 
+
===== Visualisering =====
===== Visualisering =====
Mål:
Mål:
Line 37: Line 46:
Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
 +
==== Visualisering gjennom AR ====
 +
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert.
 +
Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert).
 +
Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.
-
===== Ny idé: Visualisering gjennom AR/VR ===== God idé!
+
Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.
-
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Jeg tror microsoft har noe på gang her) og høy performance. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert).
+
-
Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm førsr, så VR, og senere portes til AR, hvis i det hele tatt mulig.
+
-
Denne ideen gjør meg veldig hyped og jeg tror det er dette jeg vil for.
+
''' Mål: '''
 +
* Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
 +
* Lettere se effektene av parametertuning
 +
 
 +
''' Utfordringer: '''
 +
* Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
 +
* Finne metrics på hvor bra resultatet ble.
 +
 
 +
== John ==
 +
=== Budget ===
 +
* Ordne github
 +
* Reversere til en eldre versjon av prosjektet og teste haptikken.
 +
* Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
 +
* Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?
 +
 
 +
=== Accounting ===
 +
* Satt opp github.
 +
* Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)
 +
 
 +
== Hans Fredrik ==
 +
=== Budget ===
 +
* Gjøre ferdig essayet i løpet av uka
 +
* Installering av ubuntu/ros
 +
 
 +
=== Accounting ===
 +
* Blitt frisk
 +
* Nærmer seg slutten på essayet
 +
* Installert ubuntu og ros

Current revision as of 11:16, 5 October 2016

Contents

Jiader

Budget

  • Gjøre ferdig essayet i løpet av uka
  • Installering av ros
  • Spesifisere use case for oppgaven

Accounting

  • Essayet snart i mål
  • Installert ros
  • Har noen ideer på use case for oppgaven (må snakke med Kyrre)

Mathias

Budget

  • Få konkretisert oppgaven
  • Konkretisere essayet
  • Snakke med Kyrre om oppgaven
  • Skrive essayet

Accounting

  • Snakket med Kyrre
  • Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
  • Funnet nye artikler i SIGGRAPH-arkivet
  • Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
  • Skrevet litt mer på essayet
  • Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
  • Snakket med Trenton om metrics, trenger mer snakking på den fronten

Mulige oppgaver

Visualisering

Mål:

  • Forstå algoritemene til roboten bedre ved å visualisere dem under kjøring.
  • Lettere se effektene av parametertuning

Ting:

  • Sammenligne forskjellige modeller
  • Bruke faktisk kamerastrøm og overlaye genererte 3D-modeller

Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint. For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.

Fjernstyring

Mål: Løse en oppgave med roboten enklere med hjelp av VR. Vise at det er lettere å se på obstacles eller å styre en robotarm med VR.

Utfordringen her er å bygge en robotarm. Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med. Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.

Visualisering gjennom AR

Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert). Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.

Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.

Mål:

  • Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
  • Lettere se effektene av parametertuning

Utfordringer:

  • Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
  • Finne metrics på hvor bra resultatet ble.

John

Budget

  • Ordne github
  • Reversere til en eldre versjon av prosjektet og teste haptikken.
  • Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
  • Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?

Accounting

  • Satt opp github.
  • Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)

Hans Fredrik

Budget

  • Gjøre ferdig essayet i løpet av uka
  • Installering av ubuntu/ros

Accounting

  • Blitt frisk
  • Nærmer seg slutten på essayet
  • Installert ubuntu og ros
Personal tools
Front page