Progress for week 41 (2019)
From Robin
(Difference between revisions)
Line 6: | Line 6: | ||
=== Accounting === | === Accounting === | ||
* Testing av RNN [[Fil:Robot_RNN.gif]] - Walking | * Testing av RNN [[Fil:Robot_RNN.gif]] - Walking | ||
+ | ** Å gjøre for neste uke: Trene lenger og gjøre endringer på treningsdata --> Hvordan hjelpe nettverket | ||
* Testing av DNN [[Fil:Robot_DNN.gif]] - Walking | * Testing av DNN [[Fil:Robot_DNN.gif]] - Walking | ||
+ | ** Å gjøre for neste uke: Trene lenger og gjøre endringer på treningsdata --> Hvordan hjelpe nettverket | ||
+ | |||
+ | * Testing av RNN [[Fil:Robot_RNN_Jumping.gif]] - Jumping | ||
+ | * Testing av DNN [[Fil:Robot_DNN_Jumping.gif]] - Jumping | ||
+ | ** Å gjøre neste uke for tilsvarende --> Må prøve å finne en god løsning for å hente ut essensen av en vilkårlig bevegelse. Slik som det er nå, predikere nettverket bare tilfeldige vinkler. | ||
+ | *** Har prøvd å la nettverket lære invers-kinematikken til roboten ved å sende inn Kartesiske koordinater, dette ga verre resultat enn vist ovenfor. | ||
+ | *** Skal prøve å la nettverket lære forholdet mellom Kartesiske koordinater og leddvinkler med Motion Capture data |
Revision as of 16:46, 10 October 2019
Tony
Budget
- Lage en 13 DOF-robot, men med 2 fot denne gangen og observere hvordan dette ser ut i henholdsvis til armene*
- Trene ulike Motions på en RNN-modell til å la den predikere "motion-pattern" slik at dette kan ses på som trajectory. (DNN virker ikke lovende ut)
- Teste ulike Motions på 13 DOF-roboten *
Accounting
- Testing av RNN Fil:Robot_RNN.gif - Walking
- Å gjøre for neste uke: Trene lenger og gjøre endringer på treningsdata --> Hvordan hjelpe nettverket
- Testing av DNN Fil:Robot_DNN.gif - Walking
- Å gjøre for neste uke: Trene lenger og gjøre endringer på treningsdata --> Hvordan hjelpe nettverket
- Testing av RNN Fil:Robot_RNN_Jumping.gif - Jumping
- Testing av DNN Fil:Robot_DNN_Jumping.gif - Jumping
- Å gjøre neste uke for tilsvarende --> Må prøve å finne en god løsning for å hente ut essensen av en vilkårlig bevegelse. Slik som det er nå, predikere nettverket bare tilfeldige vinkler.
- Har prøvd å la nettverket lære invers-kinematikken til roboten ved å sende inn Kartesiske koordinater, dette ga verre resultat enn vist ovenfor.
- Skal prøve å la nettverket lære forholdet mellom Kartesiske koordinater og leddvinkler med Motion Capture data
- Å gjøre neste uke for tilsvarende --> Må prøve å finne en god løsning for å hente ut essensen av en vilkårlig bevegelse. Slik som det er nå, predikere nettverket bare tilfeldige vinkler.