ハーバード・ビジネス・レビュー 2023年11月号

ChatGPTが出現してから、すっかりDIAMONDハーバード・ビジネス・レビュー のほうもAIの特集が多くなりました。

今回も「AIリスクにどう対処するか」となっています。
5つのテーマで書かれています。

●テクノロジーの進歩がもたらす「倫理的悪夢」を回避せよ
「責任あるAI」≠「AI倫理」であり、倫理こそが重要。
組織がデジタル倫理リスク戦略を持つことを望んでいる。

●責任ある企業としてAIをどう活用すべきか
AIを仕事に生かすための最適な手法は、他の先進テクノロジーを活かす際に用いてきた手法とは異なる。

●テック業界が大切にすべき価値観は何か
生成AIというシステムは猛スピードで力強く突き進んでいるため、いくら経験豊富な人でも、目の当たりにすれば面食らう。AIによってもたらされる想定外のリスクを認識して、うまくかじ取りしなければ、過ちの代償は一層大きくなる。AIの開発者は、AIという新しいツールとやり取りする人々の優先事項、ニーズ、利用環境を軸に開発を進める必要がある。

●人にまつわるデータを倫理的に取り扱う方法
分析されたデータではなく、見逃されたデータが問題の発生源になる可能性もある。機械は与えられたものからしか「学習」できず、観察対象としてプログラムされていない変数は識別できない。これは欠落変数バイアスとして知られる。

 【データを倫理的に取り扱うための5つのP】
・Provenance(出自)
・Purpose(目的)
・Protection(保護)
・Privacy(プライバシー)
・Preparation(準備)

●人間とAIの相互理解が、社会に創造性と安全性をもたらす
創造性は、もはや人間だけが持つことを許された「聖域」ではない。生成AIの登場により、人間の創造性が求められてきたあらゆる領域において、AIが驚くべき能力を発揮し始めているからだ。

 

以上のテーマとそれぞれのポイントで書かれていました。それにしてもChatGPTの出現以来、まったく求められるものも変わってきたように思います。これまでモデルを作ってきたデータサイエンティストも単純にライブラリを当てるだけになってしまい、ブラックボックスのアルゴリズムは何がどういう因果で結果を導いたのかもわからない、評価できないまま実装されていくというようなことも多々出てきそうな気がします。そもそも作られたモデルの学習データもよくわからない状態で検証もあったものでもありません。

それと非常に心配していることがあるのですが、AIがYouTuber, VTuberなどとして人格を持って、あたかもヒトのごとく振舞う。そしてそのAIにリアルな取り巻きがついて世の中を煽動するというような、まさに1984のビッグブラザーのようなものが出現しそうな気がしています。そのためにもAI倫理に目を光らせていなければなりません。

恐ろしい世の中になってきました。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください