>>402 >>460
【ロボット】レゴブロックの凹凸面程の荒さまで触覚フィードバック可能な遠隔作業用分身ロボット「TELESAR V」―慶應義塾大学
http://toki.2ch.net/test/read.cgi/scienceplus/1321518791/
DigInfo- 7 November 2011
http://jp.diginfo.tv/2011/11/07/11-0225-r-jp.php

触覚フィードバック可能な遠隔作業用分身ロボット #DigInfo
http://www.youtube.com/watch?v=heXQfgEC3kk

触覚まで分かる!?自分を分身させられる遠隔作業用分身ロボット「TELESAR V」がスゴイ!!
http://commonpost.boo.jp/?p=18743
慶應義塾大学 舘教授のグループが研究しているテレイグジスタンスロボットシステム「TELESAR V」は、
遠くにあるロボットを自分の分身のように動かせるシステムです。

操縦者は、視界を完全に覆うヘッドマウントディスプレイを通して提示される3D映像により、
ロボットの周りの環境や距離感を把握しています。触覚に関しては、ロボットのセンサーで取得した力ベクトルと
温度情報を伝送することで、物の感触や形、温度を感じる事ができます。現在のところ、レゴブロックの
凹凸面程の荒さまで認識できるようになっています。

慶大が「分身ロボット」 遠隔操作で原発作業も
http://www.nikkei.com/news/headline/article/g%3D96958A9C93819595E0E4E2E0938DE0EBE2E3E0E2E3E086989FE2E2E2
 慶応義塾大学の舘●(日へんに章)教授らは、遠くに離れていても自分と同じ動きをする「分身ロボット」を開発した。
ロボットが見たり触れたりした感覚を共有することもできる。
舘教授は「将来、人間に代わって原子力発電所で働くようにしたい」と話す。
 身長170センチメートル前後の大人が座った状態のロボットを試作した。
人間がヘルメット型の立体ディスプレーをかぶり、専用グローブをはめて操作する。
 ロボットの目の位置にはカメラ、耳の位置にはマイクを取り付けた。
カメラと立体ディスプレー、マイクとヘッドホン、手とグローブは通信回路で連動させた。
 今は有線で通信しているが、今後は無線化する。ロボットの足もとに車輪を付けて、
自由に動き回れるように改良する。