柔らかい指を空気圧で動かすロボットハンド。AIが試行錯誤で簡単なジャグリングを体得
コメント
注目のコメント
斉藤様がおっしゃる通り、そもそも空気圧制御自体が難しいところの学習システム適応。
制御する空気の部屋の圧力について複数の要素がからみあい、さらに指の触覚系のセンサがついていて、その上目的となるサイコロ?を特定の位置に回す摩擦まで要素がからんでいる。
確かに、モデル化するより教師信号学習(AI)を使った方が、現時点では良さそうに見えるような。
個人的にはセンサーの方が気になります。
さらに汎用的にするには、センサーを最適位置に増やして様々な応用動作での最適なクラス分けをして、事前学習データとしてもっていて、、大変だ。
それでもまだ、一部のスパコンを除いて人間より学習に時間がかかってしまいます。
ーーーーーー
サバティカルうらやましいなぁ動画中に digital twin と書いてあるので、指と物体の動的モデルと摩擦モデルをもってるんでしょうかねぇ それも含めての学習ならスゴイかも 逆に、カメラでは指と物体のconfiguration space 座標を見るだけで、モデルは別に作ってあるのを使うのなら、(ガクシャの研究としては)よくあるハナシではあると思いますねぇ ただ、空気圧アクチュエータはすごく非線形なので、ハードウェアデモとしてはもちろん素晴らしいと思いますが
と、コメントリクエストにサービスで答えては見たものの、ワタシもこの分野専門ではない(ナニが専門か自分でもよく分からないのですが)ので、ざっと見ての推測にすぎません 詳しい方オシエテ
追記
金曜午後なのでもう一回ビデオ見てみましたら、デュアルカメラ撮影の絵にidentifying model parameters とあるので、ハンドのモデルは同定済み(商品なのでそらそうですね)で、物体と摩擦モデルのパラメータを、ちょっと指動かしみて同定してるようですねぇ そうしてできたdigital twin を使ったシミュレーションに基いて、各指の動きを強化学習(たぶん、一定時間ステップ後の物体の回転角度量を報酬に あ、ヒトによる教示はないですねぇ)、得られた結果を商品の逆動的モデル+フィードバック修正による制御信号で実行、って感じですかねぇ。。。
ワタシもヒマですねぇ。。。(ハイ、サバティカル中なので)
追記オワリ
追記2
玉城さん、メリケン大学では7年に一回取れるのが殆どですねぇ、サバティカル Georgia Tech みたいに、原則無いところもありますが 場所は自分で選びます(なのでワタシ今回はハワイ)
追記2オワリ技術的な詳細については触れられていないのでわかりませんが、深層強化学習を使って人間がお手本として示した物体の動きを再現する指の動きを計算させているものと思われます。指の動き自身も教師データとして与えているようにも見えます。
これ、BGMでうまく隠していますが空気を送るポンプのものすごい音がしているはずです。また、このようなシステムは大きなポンプが必要で、それはそれで実用化に向けて悩ましい問題です。