2023/8/25★寺川貴也が注目する最新NEWS TOPIC★

各国の最新データプライバシー動向は、会員制データプライバシー情報サイトにて公開しています。

◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆

▼当社無料メルマガ登録はこちら

以下のような新着情報を毎週配信しています♪

https://m.technica-zen.com/ms/form_if.cgi?id=fm

◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆

~AIリスクアセスメント~

ここ数か月AIについての勉強会を開催してきました。
今週の木曜日で最終回を迎えます。
外国のAI法の概観とその内容の整理、国内法の整理、AIインシデントの調査、倫理学の観点からみたAI、AIリスクアセスメントの手法、
と幅広いトピックを各専門家が解説し、参加者からのフィードバックやコメントを通じて理解を深めるというものです。
昨日は、AIリスクアセスメントについて私が発表をしました。

これまでも新技術は社会に対してリスクをもたらしてきましたが、
AIが特に取り上げられるのは、社会に対する影響がこれまで以上に大きいと考えられているためです。
危害が発生した時にその規模が従来以上に大きくなること、危害が生じるスピードがとても速いこと、被害が見えにくく理解しにくい形で生じること、
プライバシーや安全性という新たな攻撃ベクトルが生じること、意思決定の自動化によって情報のフィルタリングやバイアスといったリスクが生じることといった、
AI独自のリスクをどう管理するのかが課題です。

AIリスクアセスメントは、AIを利用する組織(大学や研究機関を含む公的組織や民間組織)が行う必要があるものだとして議論されてきました。
リスクアセスメントの手法はISO 31000によって定式化されており、これをAIにいかに応用するのかということがポイントとなります。
私が学んだアメリカのBABL社のアプローチではCIDAモデルという考え方で、
アルゴリズムのコンテクスト(Context)、入力 (Input)、アルゴリズムを通じてなされる決定 (Decision)、その結果とられる行動 (Action)という視点から分析を行います。
特にコンテクストについては一つの視点ではバイアスから抜け出すことができないため、
様々なステークホルダを考慮し、インタビューや調査を通じて要件の把握を行わなければなりません。
これがAIリスクアセスメントの一つの特徴です。

発表の後、参加者の方とのディスカッションでは、「バイアス」というのは社会のありのままの姿ではないか、という指摘がありました。
この指摘はその通りで、「AIによるバイアス」というよりも、
「AIを通じて拡大される社会のバイアス」がAIのリスクの一つとしてとらえられているのだと思います。
AIの倫理がAI対応で常に議論されるのは、AIという社会に対する影響が大きなツールを使うときにより望ましいアウトプットにむけてバイアスを是正することが必要だからです。
抽象度が高く、明確に定義しづらいテーマで、とても難しい問題です。

その一方でAIには大きな可能性があることを忘れてはいけません。
Chat GPTで有名なOpen AIがウェブサイト( https://openai.com/research/emergent-tool-use )で紹介している強化学習の事例を見ていると、
エージェントと呼ばれる存在が「学習」をする様子がはっきりと見て取れ、「知恵」をつける様子が観察できてわくわくさせられます。
ツールには可能性があります。ツールは私たちの世界を広げてくれるものでもあります。
望ましくない結果を抑制しながらうまく活用していきたいものです。

 

◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆

≪当社無料メールマガジンのご案内≫

▼メルマガ登録はこちら

https://m.technica-zen.com/ms/form_if.cgi?id=fm

・週1回の配信で、重要トピックや最新ニュース等の情報をお届けしています。

・上記のような当社コンサルタントの専門的視点で注目する、最新ニュースや動向等を読んでいただけます。

・配信不要な場合はメルマガ最下段にてワンクリック解除が可能です。

◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆◆