抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人間の監督手段の採用は,例えば,システムを監督する責任を負う人間を置くことによって,そして,上流で,そのような監督を可能にするAIシステムの開発によって,人工知能(AI)システムの意思決定プロセスを,種々の程度および種々の方法で調整することを可能にする。AIのグローバルガバナンスの中で,人間監視に対する要求は,多様な規範的情報源の中で,いくつかの規制フォーマットの中で具体化されている。一方では,AIシステムのユーザのアカウンタビリティ(例えば,あるチェックを遂行することを要求することにより)を強化し,他方では,AIベース意思決定により影響される個人をより良く保護する(例えば,意思決定のレビューを要求できるようにすることにより)。欧州の状況では,AI法は高リスクAIシステムのプロバイダに義務を課し(そして,ある程度,展開者として知られるこれらのシステムのプロのユーザにも),設計(そして展開者によるそれらの実装)を含むAIシステムのライフサイクルを通して人間の監視ツールの導入を含む。したがって,EUの立法者は,「スペリングアウト」において過去よりはるかに遠く,人間的監視の法的要件は「スペリングアウト」である。しかし,それはすべての実用化詳細に提供することを意図しなかった。それは,AI法の論文40に基づいて,この要件(およびより広くは,第III章の第2節のすべての要件)を技術的に抜け出す標準化を要求する。このマルチレベル規制の文脈において,AI意思決定プロセスにおける人間の位置の問題に特に注意を払うべきである。実際,人間の監督の輪郭を設定する法律または技術基準であるかどうかに依存して,AIの「規制統治」は同じではなく,その性質,内容および範囲は異なる。この分析は,人間の監督とAI信頼性の有効性を確実にするために,最も適切な規制支配の中心的反映への法的専門家によってなされた(または,なされる)寄与の中心である。【JST機械翻訳】