ご利用のブラウザではJavaScriptが無効になっています。すべてのコンテンツを閲覧するにはJavaScriptを有効にしてださい。

目次 > 社会不正(裏社会) > AIはネット集団知には勝てない >

ビッグデータ、ディープラーニングなどで高まるAIへの期待

AIの出す答えは政策などの正当性を保障できない

Expectation-to-AI-increasing-by-big-data-deep-learning, 2017.4.10, 2018.3.20, 評価(C)
インターネットの普及により出現したネット上にある膨大な文章や映像などのデータをビッグデータと呼びます。今、これを統計学などで分析することで人々の関心や思考、ニーズなどを分析しようとする試みが盛んに行われています。無料ブログや無料アプリ・ゲームなどは個人情報の収集という目的もあるでしょうが、その背後ではビッグデータの収集も大きな目的となっているのではないかとみられています。

AIの分野で成果を出しつつある技術や理論にディープラーニングという、反復による自己学習型コンピューティングがあります。ボールを投げるロボットにディープラーニング型AIを組み込むことで、時間ともにボールを投げ入れる精度がどんどんあがり、いずれは100%に近い正確な投げ方をするようになるようなことが話題となっています。

これらの膨大なビッグデータの出現とそれをいずれはうまく処理できるのではないかと期待させるディープラーニングによって、AI研究の分野に注目が集まっています。

ネット掲示板や無料ブログ・アプリ・ゲームなどの情報を自動で解析することで、人々の好みや思考パターンなどが分析され、いずれは商品やサービスなどを最適なタイミングで、最適な物を、最適な場所へ供給できるようになるのではないかと、あるいは乗り物の自動運転やドローン配送などの自動空輸、さらには政治問題などの解決にも利用できるのではないかと期待されています。

AIが正しくデータを分析できるようになりさえすれば、たしかにいろいろな分野での応用が期待できるでしょう。

AIがどこまで進化し、どこまで賢くなるのかは興味深いテーマであり、私たちの生活に直接的に変化をもたらすでしょう。個々の目的に対してはどんどん進化していき、過去のデータを検証しよりよい判断ができるようになっていくでしょう。いずれはそれぞれの分野で人間としか思えない行動をとるロボットを作ることもできるようになるでしょう。

しかし、それはそれぞれの分野の中の話であって、それぞれの分野や物事のあいまいな部分を総合的に判断することは依然として難題としてAI研究の分野に立ちはだかることでしょう。脳神経系を研究していけば、人に限りなく近いAIを作ることはできるでしょうが、それは単なる頭のよい人と同じで、そのAIが社会的な善悪を正当化する根拠とはならないでしょう。

人の思考の持つあいまい性をAIプログラムで再現できたとしても、それは人を同じ思考であっても、正しい答えであるとは言えないのです。ただし、私たちが喜ぶような、感動的な答えなどを選び出す能力が高まってくると、私たちはあっさりとだまされて、支配層の言いなりになってしまうのかもしれません。

そうとはいえ、ほぼ人と同じ思考能力を持つAIが完成したとき、そのAIは24時間365日研究を続け、新たな科学的真実を次から次へと見つけ出して科学技術を急激に発展させたり、企業の判断や従業員の管理を、設定されたプログラム通りに常に最適な状態に保ち、企業利益を最大化させるようなことが起こってくるでしょう。これらはすでに実現されつつあると言ってもいいかもしれません。

すでに起こっている問題としては、完全な人型の思考をするタイプのAIではなく、ここの作業などの最適化に使われているAIが、作業員の労働を常に監視し、最低限度の休息しか与えずに働かせ続けてしまうということが起こっています。これは経営者側がそのように設定して、AIというと大げさですが、監視システムを使っているということです。

AIは状況判断のための情報収集を常に行いますので、人にとってはこれが監視となり、労働管理の分野など人が監視の対象となる場合に、人権侵害や道徳を無視した使われ方をされてしまう危険があるという問題です。

< 参考 >

リアルタイムに動く80億ニューロンの小脳をスパコンでシミュレーション 2018.3.19
AIによる脳の完全再現も近い? 2018.3.20

inserted by FC2 system