Progress for week 40 (2019)

Fra Robin

(Forskjeller mellom versjoner)
Gå til: navigasjon, søk
(Ny side: == Wonho == === Budget === === Acounting ===)
 
(13 mellomrevisjoner ikke vist.)
Linje 1: Linje 1:
== Wonho ==
== Wonho ==
=== Budget ===
=== Budget ===
 +
* Since I have simple example of MultiNEAT+OpenAI gym running, I should really look into docker generation and running the script on Abel
 +
* Look into possibilities of modifying source code for MultiNEAT
 +
** custom CPPN
 +
** multi-dimensional substrate
 +
* Check out PurePLES for those options above
 +
=== Acounting ===
=== Acounting ===
 +
TODO
 +
 +
 +
== Nikolai ==
 +
=== Budget ===
 +
* Lage intractable GameObjects.
 +
* ARCore er "bra", men dårlig: Kan ikke gjøre computer vision siden jeg ikke får tilgang på kamera feed, så vil kombinere det med OpenCV.
 +
** Det ser ut som standarden for å bruke OpenCV i Unity er å bruke en betalt plugin, men skal prøve å finne ut hvordan jeg kan få til denne workflow'en gratis.
 +
*** Sendte mail til de som ladge plugin'en om å få det gratis til research, men ikke fått noe svar.
 +
** Tenker at jeg ikke trenger å lage en komplett opencv wrapper, men heller lage en plugin som lar meg kjøre C++ kode (som bruker opencv) inne i Unity.
 +
*** Ja det kommer til å være frustrerende, ja det kommer til å være nesten umulig å debugge, men om jeg får det til er det verdt det.
 +
 +
=== Acounting ===
 +
* Fått til å skalere og rotere objekter på telefonen med Unity sin Touch klasse.
 +
* Å lage sin egen OpenCV wrapper gikk ikke så bra. Fikk inn noen funksjoner, men kan forsatt ikke aksessere kamera input som en matrise, kun rå byte data fra cpu.
 +
** Litt vanskelig å jobbe på android, så jobber nå med usb-kamera.
 +
* Klart å få et Ok resultat med 'cylinder image tracking' [[Fil:nikolai_red_ball.gif]]
 +
 +
 +
 +
== Tony ==
 +
=== Budget ===
 +
* Lage en 13 DOF-robot, nemlig 2 armer - 6 DOF each*
 +
* Teste ulike Motions på 13 DOF-roboten *
 +
 +
=== Accounting ===
 +
* Har laget en 12 DOF-robot, Ekskluderte den 13'ende joint fordi den var prismatic og ikke revolute. *
 +
** Leddene er relativt ganske korte, og dette skaper problemer for roboten i simulatoren **
 +
* Har testet diverse motions på roboten, VELDIG STOR reality-gap. Prøvde punching motion, simulatoren likte ikke det. Responsen mellom clienten(python) og roboten(V-rep) er noen dels treg, skal prøve å gjøre responsen kjappere*
 +
** Tror problemet ligger i at "human-performer" beveger seg og at både marker-posisjonene og joint-vinklene endrer seg med denne bevegelsen. Kanskje en mulighet blir da å ha en base som er roterende/translasjon i begge retninger?

Nåværende revisjon fra 4. okt 2019 kl. 13:46

Innhold

Wonho

Budget

  • Since I have simple example of MultiNEAT+OpenAI gym running, I should really look into docker generation and running the script on Abel
  • Look into possibilities of modifying source code for MultiNEAT
    • custom CPPN
    • multi-dimensional substrate
  • Check out PurePLES for those options above

Acounting

TODO


Nikolai

Budget

  • Lage intractable GameObjects.
  • ARCore er "bra", men dårlig: Kan ikke gjøre computer vision siden jeg ikke får tilgang på kamera feed, så vil kombinere det med OpenCV.
    • Det ser ut som standarden for å bruke OpenCV i Unity er å bruke en betalt plugin, men skal prøve å finne ut hvordan jeg kan få til denne workflow'en gratis.
      • Sendte mail til de som ladge plugin'en om å få det gratis til research, men ikke fått noe svar.
    • Tenker at jeg ikke trenger å lage en komplett opencv wrapper, men heller lage en plugin som lar meg kjøre C++ kode (som bruker opencv) inne i Unity.
      • Ja det kommer til å være frustrerende, ja det kommer til å være nesten umulig å debugge, men om jeg får det til er det verdt det.

Acounting

  • Fått til å skalere og rotere objekter på telefonen med Unity sin Touch klasse.
  • Å lage sin egen OpenCV wrapper gikk ikke så bra. Fikk inn noen funksjoner, men kan forsatt ikke aksessere kamera input som en matrise, kun rå byte data fra cpu.
    • Litt vanskelig å jobbe på android, så jobber nå med usb-kamera.
  • Klart å få et Ok resultat med 'cylinder image tracking' Fil:nikolai_red_ball.gif


Tony

Budget

  • Lage en 13 DOF-robot, nemlig 2 armer - 6 DOF each*
  • Teste ulike Motions på 13 DOF-roboten *

Accounting

  • Har laget en 12 DOF-robot, Ekskluderte den 13'ende joint fordi den var prismatic og ikke revolute. *
    • Leddene er relativt ganske korte, og dette skaper problemer for roboten i simulatoren **
  • Har testet diverse motions på roboten, VELDIG STOR reality-gap. Prøvde punching motion, simulatoren likte ikke det. Responsen mellom clienten(python) og roboten(V-rep) er noen dels treg, skal prøve å gjøre responsen kjappere*
    • Tror problemet ligger i at "human-performer" beveger seg og at både marker-posisjonene og joint-vinklene endrer seg med denne bevegelsen. Kanskje en mulighet blir da å ha en base som er roterende/translasjon i begge retninger?
Personlige verktøy