世界経済フォーラムは、グローバルAIアクションアライアンス(GAIA)における人工知能の倫理的な取り組みを統一したいと考えています。

人工知能が切り開いた可能性が爆発的に広がった後、この技術の範囲、そして何よりも倫理的な用途や応用について、最初の疑問が生じ始めた。自律走行車が交通事故で誰を救おうとするべきかという古典的なジレンマは、多くの解釈と人工知能が倫理的であるための基礎を築くための試みへの扉を開いた。

しかし、問題は、あまりにも多くのアプローチ、アプローチ、取り組みがあるため、その多くが途中で迷走してしまうことや、一部の人工知能システムには有効だが、すべての人工知能システムには有効ではないということです。世界経済フォーラムが解決したいこと

そのためには、人工知能の倫理的な利用を促進するために生まれつつある、公的、民間、市民社会の両方のイニシアチブのための出会いの場としての自分自身を提案しています。

そのために、グローバルAIアクションアライアンス(GAIA)を立ち上げ、これらのプロジェクトの実現を目指している。なぜなら、この団体によると、AI技術が開発されると同時に、疑念だけでなく、これらの倫理的利用を推進するための新たなガイドラインが登場し、それが新たなサイロや障壁を生み出すからだ。

倫理問題の相互運用性

同団体によると、人工知能システムを信頼性が高く、透明性が高く、包括的なものにするための取り組みが少なくとも175件あるという。Googleなどの民間企業のものもあります。欧州連合自体がAIの倫理的側面を法制化しようとしている。他にもスペインのOdiseIAのような市民社会からの取り組みもあります。それらのすべては、顔認識システム、深い偽物、あるいは最近では、亡くなった人の声を使ったボットの作成など、いくつかの論争の後に発生します。

これらの技術のこれらすべての物議を醸し出しているアプリケーションは、ユーザーの間で不信感と不信感を生み出している。実際、オックスフォード大学と欧州委員会の調査によると、アメリカ人の84%、欧州人の88%が、AIが社会的に有害な結果をもたらす可能性があることを踏まえ、「慎重に扱うべきだ」と考えている。

WEF(世界経済フォーラム)は、人工知能の倫理的問題の解決にこのような懸念があることは良いことだと考えていますが、注意点があります:それらの倫理的基盤の実装にギャップが生じています。つまり、「その基準を満たすシステムを設計して展開するよりも、システムが守るべき倫理基準を定義する方が簡単」なのです。

倫理の実施を妨げるのではなく、促進すること

したがって、世界経済フォーラムは、知識や学習に新たな障壁を作らないように、これらすべての努力を結集したいと考えています。

その目的は、グローバルなコラボレーションを促進し、有用であることが証明されたプラクティスやツールを関係者全員が迅速に適用できるようにすることで、これらの倫理的基盤が相互運用可能であり、人工知能に対応したあらゆる技術に適用可能であることを保証することである。

同庁は、誰もが信頼できる透明で包括的なシステムの採用を加速させる必要があると考えている。何かのために、それは、それが予測する、長い道のりがあります。“法律の問題ではなく、人工知能を利用している機関、政府、企業、その他のタイプの成功のための重要な要素である。“と同氏は言う。

そこで、本プロジェクトでは、開発者がリアルタイムでこの倫理指針に沿った作業ができるような作業環境を生成し、ユーザーの信頼感を高めることを目的としています。

このようにして、最終的な目標は、透明性があり、信頼性が高く、包括的な人工知能の採用を世界的に、そしてあらゆる分野で加速させることです。

現時点では、Accenture、BBVA、Dell、Deloitte、EY、Facebook、HPE、Huawei、Microsoft、Netflix、Palantir、Salesforce、VMwareなどの企業がすでにこの取り組みに参加している。いずれも、データガバナンスのフレームワークとプロトコルを共同で設計し、AIのメリットを加速させ、リスクを軽減することを約束しています。また、これらのフレームワークは、その効果を検証するために、リスクの低いパイロットプロジェクトでテストされる予定です。

comments powered by Disqus