ご利用のブラウザではJavaScriptが無効になっています。すべてのコンテンツを閲覧するにはJavaScriptを有効にしてださい。

AIはネット集団知には勝てない

AIの出す答えは政策などの正当性を保障できない

政策のような比較の難しいあいまいな基準がたくさんあるような場合は、融通の利かないAIよりもネットの集団知のほうがよりよい判断が行えるはずです。ただし、それ以外の限られた客観的な基準から判断できるものであればAIの判断のほうが優れています。人間よりも早くて正確な判断ができるからです。そのAIが無線の電波通信技術で人々とつながり、初めは人のニーズに答えていたものが、いつしか人の思考や行動をコントロールするようになる可能性があると警戒されています。技術的には可能なのでAI人類管理計画は着実に進んでいます。AI管理社会では政府の支配権が強大化し、法制やAIのマインドコントロールで人々は奴隷化されます。奴隷市民は定期的に不毛な戦争で命を奪われ、何もできなくなるという不幸な世界になるのではないかと考えられています。 2019.7.18

目次 > 社会不正(裏社会) >
The_AI_cannot_win_net_group_intellect, 2017.4.10, 2019.7.18, 評価(A)
< 注意 >
一般的にはAIという言葉はコンピューターなどで判断や作業を自動化できるものすべてを表すことが多くなっています。ですが、この記事で主なテーマとなっているAIは自動処理全般ではなく、人の脳のシミュレートを目指す人工知性体としてのAIとなっています。2018.6.9


目次

はじめに

AIの危険性

ビッグデータ、ディープラーニングなどで高まるAIへの期待

コンピューターはある程度決まった動作や判断はできるが、そうでないものは苦手

AIによる人の脳の再現は不可能に近い
コンピューターは価値判断などに必要な抽象的な概念が扱えない

超富裕層がAIを新科学として政策判断の根拠にする可能性
科学や統計学を悪用できなくなった超富裕層の次なる正当性作成候補

人間ひとりの精神活動を超えられないAIがネットの集団知に勝てるはずがない

車やドローン、無人兵器などへの自動操縦システムへのAIの活用
AIロボットを平和利用できれば人類の未来はバラ色

関連・参考


はじめに

AIの研究を続けても、AIが人の脳と同じものになるとは思いませんが、人が認識できることのすべてをコンピューターが処理できるように数値化していけば、限りなく人に近いAIが作られる可能性はあるだろうと思います。

そのときネットの集団知がAIに勝つのか、負けるのはかよく分かりません。人の心を動かし、強い説得力を感じさせる方向での研究が進んでいけば、私たちはAIに洗脳され支配されてしまうのかもしれません。

ですが、そのときAIが出す答えは、私たち全員を納得させるようなもののはずですから、AIは平和で幸福な世界を描き出しているのではないでしょうか。

支配層の望むような人を狡猾にだます詐欺的AIも研究が進んでいることかと思いますが、それが完成するまでは、正義のAIで理想を示し、実際には裏で違うことをするという、詐欺的ないつものやり方を支配層は続けるだろうと思います。

このテーマではAIの動作や処理基準は作者である人が決めるものですから、その人の判断と集団知とでは集団知のほうが優れているはずだといった考えを元に書かれています。2018.10.30

< 関連 >
支配層・秘密エリートネットワーク・国際(世界)金融マフィアとは?
世界財閥情報網・グローバリスト・シオニスト・メーソン・偽ユダヤ金融・世界王侯貴族情報網・NWO勢力


AIの危険性

この「AIはネット集団知には勝てない」というテーマの記事では主にAIと人間の知能の比較や有効利用について扱っています。ですがAI自体は危険視されることのほうが多いようです。

AIを人間の知能に近づけるというのは研究者側のテーマであって、普通の人や人間社会にとっては、AIというよりネットワークでつながったコンピューターによって自動化されるものすべてに強い警戒対象として扱われているようです。

一般的には、別にAIが自己学習しなくても、自動で何かを判断させると間違っていたときに危ないということを心配しているように思います。

AIの判断というのはたしかに危ないです。間違った判断するように設計しておいて、AIに責任転嫁するということが10年以上は繰り返されるようになるだろうと思います。

AIが責任をとってそのプログラムコードを開示するようなことは起こらないでしょう。企業秘密やセキュリティの問題などから隠され続けるはずです。

そうすると問題の箇所は教えないがちゃんと直したということでそのままAIが運用され、同じような犯罪や不正行為が繰り返されるはずです。

信用スコアや電子マネーなどもそうですが、コンピューターやネットの陰に隠れた不正や犯罪が続くはずです。

そういうものにいくつかの選択肢が残されていれば、別のAIシステムを使うこともできますが、政府が独占的に管理するようになると、権力犯罪の責任追及は難しいので、長いこと不正や犯罪の温床となってしまうでしょう。

そうなると今も大して変わりませんが、システムの利便性と隠匿性が悪用された金持ち優遇社会が続くことになります。政府主導になるでしょうから防げそうで防げない支配層戦略の目玉になっていくはずです。

対処法の王道としては、やはりAIのプログラムのソースコードの開示です。世の中のスーパープログラマーのみなさんが解析すれば必ず問題点が見つかるはずです。もちろんそれを何だかんだといって隠すのが支配層戦略です。

「証拠のコードを出せ!」、「セキュリティの観点(ハッカーに狙われるなど)から開示はできない」といった台本通りの政治芝居が国会で繰り広げらる日もそう遠くはないかもしれません。

さすがにそのころには各国民のみなさんが支配層の嘘に騙されていることに気がついていて欲しいと思います。 2020.2.2

< 関連 >

支配層戦略、NWO、グローバリズム、シオニズム | 社会不正

映画『AI崩壊』の感想と、皆さんへの警告! 2020/2/1 2020.2.1


AIの政治利用


AIの判断が一番信頼できるとして判断の根拠とし、問題発覚後はAIに責任を押し付けて「このようなことが起こらないようにAIプログラムを改修する」などと言って責任逃れすることが予想されます。

AIの可能性としてはあらゆる判断に利用可能です。まずは政治や経団連などの連合・組合、大企業などから始まり、企業の利益拡大に利用され、自治体や教育などにも広がり最後は家庭内や個人の判断にまで拡大される可能性があります。

個人や中小企業がAIを自作することは難しいので、たぶん各分野でトップの3メーカーくらいが各分野に特化したAIを作成して多くの人はそれをネット経由で有料・無料で利用する形になるだろうと思います。

まずは家庭の食事の献立やコンピューターゲーム内での遊ぶ計画立案や評価をするAIなんかが作られてカジュアルに社会に広まっていくかもしれません。

政治であれば司法・立法・行政、企業なら営利活動、個人なら健康管理やスキルアップ、娯楽などのあらゆる活動の効率化に活用されることになるはずです。

悪用するのであればライバルの活動計画を効率の悪いものにするようなこともできてしまいます。

現実的にはAIには学習と結果の評価が必要になるので、各分野で有能なAIを作り上げるにはそれ相応の時間と技術やセンスが必要になります。

ですから一般向けには完成したAIよりもAIフレームワークとして条件設定や結果の評価をユーザーが行える形で普及していくことが予想されます。

そうなれば多くのユーザーが設定・評価の調整を繰り返すことで効率化されたAI設定データがユーザー間で共有されたり、メーカー製のものが高価格で取引されたりするようになるだろうと思います。

ワーキングプアーの人がお金を稼ぐためのAI設定データを作ってブラック企業データなどが民間で共有されハローワークあたりにだまされないようになったりするといいですね。

AIフレームワークが庶民に普及すればそのメリットは大きくシンギュラリティとなり社会構造を変革するレベルになるだろうと思います。そうなれば効率化が常識となり誰もが無駄を省き効率を重視する社会に変わっていくはずです。

お金稼ぎの効率化は節税へとつながり政治意識を高めさらに政治を効率化対象としてよりよい政策案がそこかしこから出てくるようになるかもしれません。

AI自体は設定と評価次第でどうにでも変わってしまうので今のように妄信的な信頼性はなくなり、人が使う便利なツールであるという自然な認識のされ方をするようになっていくはずです。

AIも自動計算するプログラムにすぎませんので作り方や使い方でどうにでも変化するものです。これがごく単純な事実ですから社会的にも自然とそういう理解のされ方になっていくはずです。

これが近未来のAI活用の姿です。AIに何か問題があれば設定やAIプログラムを確認して修正することができます。

政府が使うAIはメーカーに発注されることになるはずです。国益を害し国民に被害を与える間違った結果を出すAIをわざと作らせておいて、問題発生後は企業秘密などといって間違いを隠す総理大臣の姿が見られるようになるだろうと思います。

その頃には一般国民の中からAIチューニングの達人が現れその間違いを見事に証明してくれるのではないかと期待しています。

政府や企業などのAI悪用を防ぐにはAIプログラムの内容と設定・結果評価の内容をどこまで開示させることにできるかにかかっていると思います。

国会でAI活用関連法案のようなものにプログラムコード及び設定・評価内容の開示義務といったルールを入れ込むことに成功すれば、私たち庶民が幸福や権利を取り戻す日も近いかと思います。

誰もが自分でAIを運用するようになると効率化と同時に設定や判断に厳密な作業が必要になってくるので人々の考え方をより厳密なものに変えていくことができるだろうと思います。

人々が自分の生活や人生をより厳密に効率化していった先にはやはり世界の幸福や権利の保護が実現されるだろうと思います。この点でも未来は明るいです。

ですが、しばらくはAIの判断だということにして政府や官僚が都合のいい内容にしたものが利用されるのではないかと思います。

本当にAIを使って判断すると正しいというかよりよい判断を本当にしてしまうはずなので今の悪政をひた隠しにする支配層にとってはあまりメリットがないように思います。

AIを使うのであればいかにして国民をだましてバレないように悪いことをするかというテーマで悪用されるだろうと思います。

AIから人種差別悪を広める考え方からユダヤ批判を封じたりする妙案が出てくるかもしれません。

ですが、そう簡単にいいアイディアは生まれないので、今と同じように電磁波攻撃で政治批判者への弾圧を続けるような安易な方法が続けられるのではないかと思います。

その基礎データとなるのが大衆監視データです。すでに街灯がスマートポールとして街を照らすだけでなく5G通信や監視カメラ、スピーカーなどの機能が内蔵されています。

< 参考 >


国民には隠していますが電磁波攻撃や人工テレパシー装置も当然内蔵されていて逮捕されずに言い逃れできる程度のグレーな違法市民監視や差別・体罰・虐待行為が行われるように確実になります。

テクノロジー犯罪の被害を見たかぎりではすでにそうなっていると言わざるをえません。それが街中へとより拡大されることになります。

政府が市民弾圧をできないようにさせるのが21世紀の市民のテーマになるかと思います。

政府の市民弾圧の基本は政治批判のリーダーや有能な人をあらゆる手段を使った黙らせることです。リーダー的存在や少数のオピニオンリーダーに頼る形の社会運動ではなく誰もがリーダーとなれるような集団戦に持ち込んだほうがいいだろうと思います。

市民弾圧を証拠を残さずバレずに行えるのが電磁波・音波などの精神工学兵器です。今はバレないのをいいことに乱用されているようです。

私たち市民としてはまずは電磁波や音波、放射能、毒物などによる隠れた政府犯罪の証拠を取る技術を高めていくべきだろうと思います。 2020.6.14



関連

監視社会
1984や人間牧場のような政府が人々の人生を自由に決める世界 2018.3.28

AIも間違った質問の答えは出せない - テレビ放送批評内の記事 2018.3.17

AIで自動化される加害行為 | 便乗型の偽装加害行為が多い 心身の変化や状況に合わせた加害行為で犯罪を隠蔽 2018.10.30

記事内リンク「AIが人に代わる日はかなり遠い」 | ホンマでっか! ?TV (フジテレビ) 2018年10月17日以降 2018.11.15

参考

世界連邦運動 - Wikipedia

人工知能と人間知性

人工知能 - Wikipedia

ゲシュタルト心理学 - Wikipedia

CIAは、AIを使った自然言語処理や情報データベースのインターフェース、画像認識、信号傍受、地理および空間データマネジメント、諜報ワークステーションの環境構築などを1984年からすでに行っていた。2018.4.30

読む機械──自然言語処理の新たな地平 2016.9.1
言葉の持つ概念のネットワークを数値化することで人に近付いたAI 2018.9.27

…人工知能に関する代表的な発表を1つの年表にまとめた 2017.10.17 2019.7.18



inserted by FC2 system