Progress for week 39-40 (2016)

Fra Robin

(Forskjeller mellom versjoner)
Gå til: navigasjon, søk
(Accounting)
(Mathias)
 
(15 mellomrevisjoner ikke vist.)
Linje 4: Linje 4:
* Installering av ros
* Installering av ros
* Spesifisere use case for oppgaven
* Spesifisere use case for oppgaven
-
+
 
=== Accounting ===
=== Accounting ===
-
.
+
* Essayet snart i mål
 +
* Installert ros
 +
* Har noen ideer på use case for oppgaven (må snakke med Kyrre)
 +
 
== Mathias ==
== Mathias ==
=== Budget ===
=== Budget ===
Linje 16: Linje 19:
=== Accounting ===
=== Accounting ===
* Snakket med Kyrre
* Snakket med Kyrre
 +
* Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
 +
* Funnet nye artikler i SIGGRAPH-arkivet
 +
* Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
 +
* Skrevet litt mer på essayet
 +
* Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
 +
* Snakket med Trenton om metrics, trenger mer snakking på den fronten
-
==== Oppgaven ====
+
==== Mulige oppgaver ====
-
Slik jeg ser det nå er det to muligheter:
+
-
 
+
===== Visualisering =====
===== Visualisering =====
Mål:
Mål:
Linje 31: Linje 38:
Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint.
Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint.
For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.
For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.
-
 
-
''' Ny ide: '''
 
-
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Jeg tror microsoft har noe på gang her) og høy performance. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert).
 
-
Jeg ser for meg at dette prosjektet kan løses med VR først, og senere portes til AR, hvis i det hele tatt mulig.
 
-
 
-
Denne ideen gjør meg veldig hyped og jeg tror det er dette jeg vil gå for.
 
===== Fjernstyring =====
===== Fjernstyring =====
Linje 44: Linje 45:
Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med.
Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med.
Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.
 +
 +
==== Visualisering gjennom AR ====
 +
Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert.
 +
Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert).
 +
Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.
 +
 +
Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.
 +
 +
''' Mål: '''
 +
* Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
 +
* Lettere se effektene av parametertuning
 +
 +
''' Utfordringer: '''
 +
* Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
 +
* Finne metrics på hvor bra resultatet ble.
 +
 +
== John ==
 +
=== Budget ===
 +
* Ordne github
 +
* Reversere til en eldre versjon av prosjektet og teste haptikken.
 +
* Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
 +
* Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?
 +
 +
=== Accounting ===
 +
* Satt opp github.
 +
* Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)
 +
 +
== Hans Fredrik ==
 +
=== Budget ===
 +
* Gjøre ferdig essayet i løpet av uka
 +
* Installering av ubuntu/ros
 +
 +
=== Accounting ===
 +
* Blitt frisk
 +
* Nærmer seg slutten på essayet
 +
* Installert ubuntu og ros

Nåværende revisjon fra 5. okt 2016 kl. 11:16

Innhold

Jiader

Budget

  • Gjøre ferdig essayet i løpet av uka
  • Installering av ros
  • Spesifisere use case for oppgaven

Accounting

  • Essayet snart i mål
  • Installert ros
  • Har noen ideer på use case for oppgaven (må snakke med Kyrre)

Mathias

Budget

  • Få konkretisert oppgaven
  • Konkretisere essayet
  • Snakke med Kyrre om oppgaven
  • Skrive essayet

Accounting

  • Snakket med Kyrre
  • Konkretisert oppgaven: Visualization of sensory data and algorithms through augmented reality
  • Funnet nye artikler i SIGGRAPH-arkivet
  • Sendt mail til maskinsynsfolket på FFI, ikke fått svar, trenger ny epost...
  • Skrevet litt mer på essayet
  • Begynt å finne ut hvordan man skal teste systemet, hvilke metrics man skal bruke
  • Snakket med Trenton om metrics, trenger mer snakking på den fronten

Mulige oppgaver

Visualisering

Mål:

  • Forstå algoritemene til roboten bedre ved å visualisere dem under kjøring.
  • Lettere se effektene av parametertuning

Ting:

  • Sammenligne forskjellige modeller
  • Bruke faktisk kamerastrøm og overlaye genererte 3D-modeller

Visualisering ved hjelp av VR ser jeg på som litt unødvendig, ettersom VR mest antakelig ikke vil forbedre forståelsen veldig. Her kan 2D anvendes helt fint. For å finne ut om man har klart målet må man brukerteste systemet og se om brukerne syns det er lettere å forstå algoritmene. Dette kan være en utfordring ettersom man både trenger nok brukere (20?) og en godt designet undersøkelse.

Fjernstyring

Mål: Løse en oppgave med roboten enklere med hjelp av VR. Vise at det er lettere å se på obstacles eller å styre en robotarm med VR.

Utfordringen her er å bygge en robotarm. Å teste hvor effektivt systemet er er enklere enn visualisering ettersom man kan ta tiden det tar å løse oppgaven, eller nøyaktigheten den ble utført med. Her kan det være en ide å bruke Viven's håndkontroller for å styre robotarmen.

Visualisering gjennom AR

Bruke AR - optimalt gjennom briller - til å se robotens algorimter visualisert. Dette krever både gode AR-briller (Micorsoft hololens eller HTC Vive-kamera) og mye datakraft. Brukerens nøyaktige pose (posisjon og orientering i forhold til roboten må kunne holdes oppdatert). Jeg ser for meg at dette prosjektet kan løses i 2D på skjerm først, så VR, og så portes til AR.

Denne ideen gjør meg veldig hyped og er dette jeg vil gå for.

Mål:

  • Bygge et system som gjør det enklere å forstå algoritemene til roboten ved å visualisere dem under kjøring
  • Lettere se effektene av parametertuning

Utfordringer:

  • Vet ikke hvor bra AR fungerer med Viven. Det er ikke et stereokamera, noe som er litt kjipt. På en annen side vil en ipad - som også er et alternaltiv - også være mono.
  • Finne metrics på hvor bra resultatet ble.

John

Budget

  • Ordne github
  • Reversere til en eldre versjon av prosjektet og teste haptikken.
  • Sammenligne filer fra eldre og nyere versjon hvis haptikken fungerer med de eldre filene.
  • Mulig å få samme variabel/funksjons oversikt i annet program enn KDevelop?

Accounting

  • Satt opp github.
  • Har måle-feilen også på tidligere versjon. Må høre videre med Kim for å finne feilen. Trolig da ikke noe i programmet, siden han mente det fungerte før. (Venter på svar)

Hans Fredrik

Budget

  • Gjøre ferdig essayet i løpet av uka
  • Installering av ubuntu/ros

Accounting

  • Blitt frisk
  • Nærmer seg slutten på essayet
  • Installert ubuntu og ros
Personlige verktøy