第18回 『人工知能の技術的な問題点』

皆様こんにちは.人工知能の第18回目の今回は,人工知能の技術的な問題点について書いてみたいと思います.

なんでもかんでも人工知能で対処できる世の中が来そうな雰囲気を伝えるニュースなどを良く耳にしますが,現状の人工知能にはもちろん問題点もあります.

その一つが『「ない」ものを「ない」と言えない』ことです.これは,大量のデータを集めてきて,そのデータを分析することで答えを出している,つまり,統計学をベースに開発されている技術であることに起因した問題であり,仕方のない問題です.大量にデータを集めると,多く起こっている現象や良く起こること,その物事に関連のあるものを抽出することができます.しかし,そのデータに存在しないものを「ない」と断言することは決してできません.そのため,初めて起こることや世の中にはないものを答えとして出すことは決してありませんし,出すことができません.4月1日に現在の新元号の発表がありましたが,その時に,新元号を人工知能で予想しようとした方々が居られたようです.残念ながら予想は的中しなかったようですが,これは仕方がないことのように思います.初めて日本の古典から採用されたり,「令」の字の採用が初めてだったりしたことから,予測は難しかった,無理だったと思われます.

他の問題として『理由が説明できない』ということがあります.人間には処理できない大量のデータを使い,また,その判断過程も良くわからない数字で表現されますので,我々にはその理由を知るすべがないのが現状です.まるで中身の見えない箱に何かを入れると答えが出てくるようなイメージから『ブラックボックス』と呼ばれます.ちなみに,その逆で中身が見える状態のものを『ホワイトボックス』と呼びます.「答えが正しければよいのではないか」という意見もあるのですが,「理由の良くわからない結論を信用できるのか」と言われるとやはり理由は必要な情報なのだと思います.人工知能は怖いものと言われることもありますが,その一つの原因が,この判断した理由がわからないというものだと思います.現在,多くの企業や研究機関などで理由の説明できる人工知能の開発が急がれています.

さらに,『常識や倫理観がない』ことも問題です.『常識』は前回の『フレーム問題』の時にも書きましたが,それに加えて『倫理観』も大事です.人として,してはいけないことは人工知能もしてはいけない,するべきではないと思います.すでに,インターネット上の情報を自動的に学習してお話のできる人工知能を搭載したチャットロボットが公開されていますが,公開当初に,暴言や差別的発言をしてしまい,一時公開が中止されたことがあります.インターネット上の情報を自動的に学習していますので,元を正せばその情報を流した人間が非常識なのですが,その間違った情報を何も考えずに,無批判にすべてを学習してしまったことは問題です.時と場所などTPOを考えて行動すべきですし,気の利いたこともして欲しい.そうなると『常識』と『倫理観』は非常に重要になってきます.人間と共存するには必要不可欠な能力だと思います.

次回は,人工知能の今後の問題点について書いてみたいと思います.