コンテンツを開く

テーマのトレンド

AIはなぜうまくいかないのか

F-Secure Japan

19.07.19 4 min. read

歩いたり話したりするロボットが人類を絶滅させるという恐怖はエンターテインメントの世界の話であり、このような不安は今のところあまり現実的なものではありません。しかしこれは、人工知能(AI)について、これ以外に心配する必要がないということではありません。AIは日常的に存在しています。また、この技術とAIによって変わり始めている社会との間の緊張について若干不安を覚えることは当然のことです。AIとビッグデータ解析が倫理権や人権に及ぼす影響を理解し、社会との間の緊張を解決する手段の構築を図るため、2018年にEUが出資するSHERPA(英語)という研究プロジェクトが開始されました。SHERPAのパートナーであるエフセキュアは、SHERPAの新しい研究の一環として「スマート情報システムのセキュリティ問題、危険性および影響」(英語)というサイバーセキュリティやAIに関する意見を提出しました。

この論文で議論されている重要な課題は、なぜAIは「失敗」する場合があるのかということです。一つの答えとしては、あまり良くないAIもあるということです。これはソリューションの品質が良くないのではなく、倫理的な意味で良くないということです。高い需要によってAIは急速に拡大しました。AmazonMicrosoftGoogleの各社は、より多くの組織がAIの能力を利用できるようにするため、サービスとしての機会学習の提供を開始しています。

研究によると、サービスの開始によって、この技術の難解さを必ずしも理解しているとは限らない多くの組織にAIの機能を提供できるようになり、目的どおりに機能させることができないという誤った導入が起こるようになりました。

「現在ほとんどのAIは、実はそれほど賢くはありません。良い悪いにかかわらず学習されたとおりのことをします。」エフセキュアのバイスプレジデントで人工知能研究拠点のトップであるMatti Aksela(マッティ・アクセラ)はこのように述べています。「『悪い』AIの原因で最も多いのは、データの偏りまたは誤りと、意図または想定しない状況へのモデルの適用です。たとえば、偏ったデータでAIを学習させた場合、その偏りがなくなることを期待することはできません。現在多くの事例で見られるように、デフォルトでは、AIのソリューションは同じ偏りを複製します。」

研究では、AIを設計、学習、展開する際に発生する3つの主要な課題について説明しています。

誤った設計判断

現在のAIモデルのほとんどは、(機械とは異なる)人間によって作成されています。アルゴリズムが行うべきことやそのやり方は人間によって決められています。人間は間違うことがあるため、人間が作成したAIも間違うことがあるということです。

この研究で紹介されているよくある間違いは、特定のタスクで分析するデータセットで間違った特徴を選択する、あるいは、特定のモデルで不適切または標準よりも低いレベルのアーキテクチャやパラメータを選択するというものです。

皮肉なことに、研究では、不適切に設計されたAIの例として、ツイッターの偽のアカウントやボットを検知できるサービスにスポットを当てています。

トレーニングデータの欠陥

最新技術に埋め込まれている大掛かりな監視装置であるにもかかわらず、不完全/限られたデータセットは依然としてAIの課題となっています。AIモデルの学習には品質に関わる多くの課題があります。不適切に収集または処理されたデータがモデルの学習セットとして使用されてしまうことがよくあります。その結果、これらを適切に行うためには、会社がAIの利用に消極的になってしまう時間と費用が発生してしまいます。AIは、データセットにあるすべての内容とともに、不均衡、偏り、仮定なども学習するため、これによってAIの決定に問題が生じることになります。

もしこれらのAIモデルのいくつかは、人間の世界に当てはめた場合、人種差別主義者(英語)性差別主義者(英語)の寄せ集めになることが容易に推測できる露骨なものもあります。これはまさにSHERPAが取り組もうとしている種類の問題です。

間違った活用の選択

AIモデルは、特定のタスクには非常に有効です。しかしこれはすべての問題を解決する特効薬ということではありません。言い換えれば、2017年に大きなニュースとなったアルファ碁(英語)のように、碁を打つように設計されたAIモデルは、車を運転することもボードゲームのチェッカーをすることもできません。これらのタスクの実行中にAIに入力される内容は全く異なります。したがって出力も全く異なります。

人はAIをどのように支援できるでしょう

AIの厄介な、そして恐るべきミスを避けるためには、当面は人による支援が必要です。SHERPAは、意思決定者やプログラマー、事業者などによるAIの利用についての研究も行っています。

研究では簡単な答えを出すことはできませんが、AIモデルを使用して仕事をしている人たちになんらかのアドバイスをすることはできます。これを行うには問題を、問題の領域の把握(英語)訓練データの準備(英語)モデルの設計(英語)生成プロセスの実施(英語)、の4つの異なる領域に切り分けることから始めます。

SHERPAのパートナーと協力して各段階でヒントを提供しています。リンクをたどればヒントの詳細を見ることができます。

Akselaは次のように述べています。「AIは人間よりも優れたことができる一方、私たちが現在使用しているAIは能力が非常に限られているため、現在のAIがもたらす結果は全く意味のないものになる場合もあります。」「したがって、AIの設計作業に人間の知能を若干適用し、AIが実際に期待どおりのことをするかを確認することが一般的にはいいやり方です。」

F-Secure Japan

19.07.19 4 min. read

カテゴリ

コメントを残す

Oops! There was an error posting your comment. Please try again.

Thanks for participating! Your comment will appear once it's approved.

Posting comment...

Your email address will not be published. Required fields are marked *

関連する投稿

Newsletter modal

登録を受付ました。 購読受付のメールをお送りしたのでご確認ください。

Gated Content modal

下のボタンをクリックしてコンテンツを確認ください。