文献
J-GLOBAL ID:201702220498516561   整理番号:17A0376447

収穫ロボットのためのブドウクラスタにおける空間情報の視覚ベース抽出【Powered by NICT】

Vision-based extraction of spatial information in grape clusters for harvesting robots
著者 (7件):
資料名:
巻: 151  ページ: 90-104  発行年: 2016年 
JST資料番号: E0030A  ISSN: 1537-5110  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ブドウはブドウの房を収穫したときに,衝突を持ち,操作により損傷する可能性がある。損傷を受けていないロボット収穫を行うために,本論文ではエンドエフェクタのためのブドウ果房の花柄に及ぼす切削点の空間座標を位置とマニピュレータの運動計画のためのブドウ果房の境界体積を決定するのに主に焦点を当てた。ブドウ果房からの空間情報を取得する方法は,両眼ステレオビジョンに基づいて提示した。この方法は四段階を含む:(1)両眼カメラを校正し,画像を修正,(2)脚とブドウ果実の中心に及ぼす切削点を検出する,(3)ステップ2で検出された点の三次元空間座標を抽出し,(4)ブドウ果房の境界体積を計算した。全部で300の画像をブドウ園中に捕捉されて,切削点検出方法を検証するために試験し,成功率は約87%であった。切断点の局在化の精度は,屋外条件で測定した,ZとX方向の精度は12mmと9mmであった。ブドウクラスタの後天性有界体積は,手動測定と比較した,高さと最大直径誤差は17mm以下と19mmであった。アルゴリズム全体の経過時間は0.7s以下であった。この開発した方法の実証された性能は,収穫ロボットに使用できることを示した。Copyright 2017 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
収穫・調製用機械 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る