ビッグデータと人工知能

ビッグデータ人工知能」を読みました。ビッグデータ人工知能の本質がよくわかりました。要するに両者とも高速統計処理のことだと分かりました。人工知能の限界により、感情ロボットは作れないことがわかりました。だだ汎用的な人工知能は、不可能ですが、集合知による判断を助けるための限局的な人工知能は有望です。シンギュラリティは来ないし、鉄腕アトムは実現できないことを理解しました。備忘します。

人間の論理的な思考においては、演繹と 帰納が双璧をなしている。ところが実は、この演繹と帰納の他に仮説推量(アブダクション)というのがある。演繹や帰納ほど知られていないが、これは人間の論理処理における実践の場合、特に意思決定を迫られる場面でかなり広く用いられているのである。「人間は死ぬと」「ソクラテスは死ぬ」とから「ソクラテスは人間だ」と推量するわけだ。だが仮説推量は必ずしも成り立たない。ページ43
第一と第二次の人工知能ブームのキーワードがそれぞれ論理と知識だとすれば、第三次人工知能ブームのキーワードは統計並びに学習である。つまり、データを統計的に処理することによって、パターンを認識し分類してしまうというわけだ。実はここにはトリックがある。 ページ71
全てのコンピュータ処理は、過去によって完全に規定されているのである。コンピュータは、「こうなったら、こうせよ」という過去に与えられた指令を墨守しているだけなのだ。ビックデータ時代なって、膨大なデータは使えるようになっても、この原則原則は変わらない。いやそれどころか、いっそう過去の比重が大きくなったとも言える。ネットのなかには過去のデータが満ち溢れており、それらを無視できないからである。ページ106
つまり、生物は自律システムであり、機械は他律システムなのだ。ここでシステム論的な境界線がクッキリと現れる(変動する環境条件のもとで、同じ入力に対し異なる出力をする機械を自律システムということがあるが、正確にはそういう自動機械は「適用システム」と呼ぶべきである。作動の変更の仕方あらかじめ設計されているからだ。ページ116
機械翻訳の基本的なアプローチは、文章テキストの対訳の用例を大量に記憶しておき、翻訳する入力文と近い用例を検索し、同様な翻訳文を取得するのである。訳語に複数の候補があるときは、あくまで統計的に見て確率が高いものを選ぶ。ページ121
ここまでくると問題がはっきりした。ロボットに搭載された人工知能は、基本的に論理処理を行う聞く機械である。そして、ロボットの体は多細胞生物である動物の体とは違って、あくまで人工知能の指令に従って動く忠実な物体なのである。とすれば、感情持つロボットとは実に奇妙な存在だ。それは汎用人工知能とほとんど無関係である。それなのに、マスコミが人間に近い未来の機械といった妙な幻想を振りまき、はやしたてる理由は一体なんなのか。まるでドラえもんがもうすぐやってくるとでも言うように。ページ131
人々のネットでの発言もビックデータの一部なので、集合知がビックデータ分析と関わるのは当然である。逆に言えば、ビックデータ分析を、集合知を導くための効果的な方法として位置づけることも可能だろう。ページ170
ビックデータの分析技術は、機械学習、特に深層学習と重なっていることがわかる。ともに統計処理が本質なのだ。ページ171
人工知能によるビックデータ分析は、集合地をまとめるリーダーにとって、実に頼もしい味方になれるはずである。なぜならそれは、過去の膨大なデータの分析をもとに専門家に助言を与え、さらに、人間の多様な意見をほぼ瞬時に集約してくれるしてくれるからだ。ページ178
生物は現在の状況に応じた柔軟な問題設定と情報の意味解釈によって生きていく自律的存在であり、他方機械は、指令どおりのアルゴリズムで過去のデーターを形式的に高速処理する他律的存在である。表向き自律的に見える人工知能ロボットも、内実は過去のデータを統計処理して問題を解決に過ぎない、だから、いかなる人工知能にも、変転する状況に応じたきめの細かい情報処理は期待できないのだ。そういう代償の上で、人工知能は全体としての効率化を達成できるのである。ページ201