特許
J-GLOBAL ID:201903017038748850
ロボットの把持のための深層機械学習方法および装置
発明者:
,
,
出願人/特許権者:
代理人 (3件):
村山 靖彦
, 実広 信哉
, 阿部 達彦
公報種別:公表公報
出願番号(国際出願番号):特願2018-545901
公開番号(公開出願番号):特表2019-508273
出願日: 2016年12月13日
公開日(公表日): 2019年03月28日
要約:
ロボットのエンドエフェクタによる物体の操作に関連する深層機械学習方法および装置。いくつかの実装形態は、ロボットのエンドエフェクタに関する候補動きデータがエンドエフェクタによる1つまたは複数の物体の成功した把持をもたらす尺度を予測するために深層ニューラルネットワークをトレーニングすることに関する。いくつかの実装形態は、把持エンドエフェクタによる物体の成功した把持を達成するためにロボットの把持エンドエフェクタをサーボ制御するためのトレーニングされた深層ニューラルネットワークの利用に向けられている。たとえば、トレーニングされた深層ニューラルネットワークは、ロボットの把持エンドエフェクタの姿勢を制御するロボットの1つまたは複数のアクチュエータのための動き制御コマンドの反復的な更新において、把持エンドエフェクタによる試行された把持を実施するために把持制御コマンドを生成するときを決定するために利用されてもよい。
請求項(抜粋):
1つまたは複数のプロセッサによって、ロボットの把持エンドエフェクタを現在の姿勢から追加の姿勢に移動させる動きを定義する候補エンドエフェクタ動きベクトルを生成するステップと、
前記プロセッサのうちの1つまたは複数によって、前記ロボットに関連付けられた視覚センサによってキャプチャされた現在の画像を識別するステップであって、前記画像が、前記把持エンドエフェクタと、前記ロボットの環境内の少なくとも1つの物体とをキャプチャする、ステップと、
前記プロセッサのうちの1つまたは複数によって、トレーニングされた畳み込みニューラルネットワークへの入力として前記現在の画像と前記候補エンドエフェクタ動きベクトルとを適用するステップと、
前記トレーニングされた畳み込みニューラルネットワークを介して、前記動きの適用による前記物体の成功した把持の尺度を生成するステップであって、前記尺度が、前記トレーニングされた畳み込みニューラルネットワークへの前記画像および前記エンドエフェクタ動きベクトルの前記適用に基づいて生成される、ステップと、
前記尺度に基づいてエンドエフェクタコマンドを生成するステップであって、前記エンドエフェクタコマンドが把持コマンドまたはエンドエフェクタ動きコマンドである、ステップと、
前記エンドエフェクタコマンドを前記ロボットの1つまたは複数のアクチュエータに提供するステップと
を備える、方法。
IPC (3件):
B25J 13/08
, G06N 3/04
, G06N 3/08
FI (4件):
B25J13/08 A
, G06N3/04
, G06N3/08 140
, G06N3/08
Fターム (10件):
3C707AS01
, 3C707BS10
, 3C707JS02
, 3C707KT01
, 3C707KT03
, 3C707KT06
, 3C707KT12
, 3C707LV06
, 3C707LW12
, 3C707LW15
引用特許: