Progress for week 40 (2019)

Fra Robin

(Forskjeller mellom versjoner)
Gå til: navigasjon, søk
Linje 37: Linje 37:
**  
**  
* Har testet diverse motions på roboten, VELDIG STOR reality-gap. Prøvde punching motion, simulatoren likte ikke det. Responsen mellom clienten(python) og roboten(V-rep) er noen dels treg, skal prøve å gjøre responsen kjappere*
* Har testet diverse motions på roboten, VELDIG STOR reality-gap. Prøvde punching motion, simulatoren likte ikke det. Responsen mellom clienten(python) og roboten(V-rep) er noen dels treg, skal prøve å gjøre responsen kjappere*
 +
** Tror problemet ligger i at "human-performer" beveger seg og at både marker-posisjonene og joint-vinklene endrer seg med denne bevegelsen. Kanskje en mulighet blir da å ha en base som er roterende/translasjon i begge retninger?

Versjonen fra 4. okt 2019 kl. 12:58

Innhold

Wonho

Budget

  • Since I have simple example of MultiNEAT+OpenAI gym running, I should really look into docker generation and running the script on Abel
  • Look into possibilities of modifying source code for MultiNEAT
    • custom CPPN
    • multi-dimensional substrate
  • Check out PurePLES for those options above

Acounting

TODO


Nikolai

Budget

  • Lage intractable GameObjects.
  • ARCore er "bra", men dårlig: Kan ikke gjøre computer vision siden jeg ikke får tilgang på kamera feed, så vil kombinere det med OpenCV.
    • Det ser ut som standarden for å bruke OpenCV i Unity er å bruke en betalt plugin, men skal prøve å finne ut hvordan jeg kan få til denne workflow'en gratis.
      • Sendte mail til de som ladge plugin'en om å få det gratis til research, men ikke fått noe svar.
    • Tenker at jeg ikke trenger å lage en komplett opencv wrapper, men heller lage en plugin som lar meg kjøre C++ kode (som bruker opencv) inne i Unity.
      • Ja det kommer til å være frustrerende, ja det kommer til å være nesten umulig å debugge, men om jeg får det til er det verdt det.

Acounting

  • Fått til å skalere og rotere objekter på telefonen med Unity sin Touch klasse.
  • Å lage sin egen OpenCV wrapper gikk ikke så bra. Fikk inn noen funksjoner, men kan forsatt ikke aksessere kamera input som en matrise, kun rå byte data fra cpu.
    • Vurderer nå å gå vekk fra android siden det er vanskelig å få tak i bildet som en matrise.
  • Fant en video som demonstrerer det jeg ønsker å få til med Augmented Reality Myo og Unity. Så jeg vet at det er mulig med et webcamera.


Tony

Budget

  • Lage en 13 DOF-robot, nemlig 2 armer - 6 DOF each*
  • Teste ulike Motions på 13 DOF-roboten *

Accounting

  • Har laget en 12 DOF-robot, Ekskluderte den 13'ende joint fordi den var prismatic og ikke revolute. *
  • Har testet diverse motions på roboten, VELDIG STOR reality-gap. Prøvde punching motion, simulatoren likte ikke det. Responsen mellom clienten(python) og roboten(V-rep) er noen dels treg, skal prøve å gjøre responsen kjappere*
    • Tror problemet ligger i at "human-performer" beveger seg og at både marker-posisjonene og joint-vinklene endrer seg med denne bevegelsen. Kanskje en mulighet blir da å ha en base som er roterende/translasjon i begge retninger?
Personlige verktøy