抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人工知能応用における最近の進歩は,技術の倫理的設計の課題に,学術的および公衆的注目を投げかけている。倫理に関するこれらの会話は,主に技術設計者で目標とされ,より良いそしてより公正なAIツールと技術を知らせるのを助けている。しかしながら,この手法は,責任のある使用の問題のほんの一部しか対処せず,より多くのタイプのAI技術がより広く使われるので生ずる問題の記述または再処理には適切ではない。今日開発された多くのツールは,人々がどのように働くか,社会の組織化,店舗,そして,どのように人々が互いに相互作用するか,どのように人々が互いにどのように相互作用するか,そして人々の仕事がどの程度価値があり,補償されているかに,潜在的に莫大な歴史的なインパクトがある。また,この倫理的注意は,既存のツールに対するアクセス,公平性,および説明可能性の拡大に関するかなり狭い範囲の疑問視されている。代わりに,研究者は,AI技術が重要な構成要素を形成する社会的電力の再構成に関する非常に広い質問を開発すべきであると主張する。本講演は,AI倫理が,良い設計の概念から離れて移動するために,その理論的および方法論的ツールキットを拡張する必要があると主張し,それは,良いおよび倫理的技術設計者の仕事を特筆する。代わりに,フェミスト理論,組織研究および科学および技術からのアプローチを用いて,AIの使用を評価する方法を拡張することを論じた。この手法は,社会的にインフォームドした技術的アフォーダンス,または「想像されたアフォーダンス」の仮説から始まり,人々が実践における技術を理解し,どのように利用するかを整える。また,それは,技術インプリスを成形するための社会機関の電力に中心性を与える。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】