文献
J-GLOBAL ID:202202220377986175   整理番号:22A0104810

視覚ベース深層学習と幾何学的イメージング理論を用いたねじ締めファスナの定量的ゆるみ検出【JST・京大機械翻訳】

Quantitative loosening detection of threaded fasteners using vision-based deep learning and geometric imaging theory
著者 (4件):
資料名:
巻: 133  ページ: Null  発行年: 2022年 
JST資料番号: W0491A  ISSN: 0926-5805  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
信号処理と深層学習の開発によって,ゆるみ検出のための視覚ベースの方法は,近年進歩した。しかし,既存の視覚検査方法は,初期締め付け状態の事前知識を必要とするゆるみ角を測定するために主に使用され,明確なエッジを持つ六角形ボルトとナッツにのみ適用可能である。本論文は,視覚ベースの深層学習と幾何学的画像理論を用いて,ゆるみを検出するために,露光ボルトの長さを定量的に計算する方法を提案した。新しく提案された方法は,3つのモジュールから成る:関心領域(RoI)位置,キーポイント検出,および長さ計算モジュール。RoI位置モジュールは,露出ボルトを位置決めするために,より高速の局所的畳込みニューラルネットワーク(Faster-RCNN)ベースの深層学習アルゴリズムを適用し,一方,キーポイント検出モジュールは,カスケードピラミッドネットワーク(CPN)ベースの深層学習アルゴリズムを採用して,曝露ボルト上の5つのキーポイントを検出した。正確な表現を幾何学的画像理論から導き,5つのキーポイントとカメラパラメータの座標を表現にインポートして,露光ボルトの長さを計算した。実験では,入力画像の分解能は640×640画素であり,提案方法の試験速度は画像当たり約200ミリ秒であった。実験結果は,著者らの方法を用いて0.61mmの平均測定誤差を示し,他の測定方法および人間姿勢推定の最先端ネットワークより優れていた。さらに,提案した方法のロバスト性を,射撃条件,ボルトサイズ,色を変えて検証した。最後に,検出と測定精度に影響するいくつかの因子について議論して,更なる研究のための展望を提案した。Copyright 2022 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
ファスナ類,締付,し緩,継手 

前のページに戻る