た-くんの狂人日記

最近はほぼ読書日記

おバカな答えもAIしてる

 図書館で見かけて、だったかなぁ?

 こういうブログ:The Blogger Behind “AI Weirdness” Thinks Today’s AI Is Dumb and Dangerous - IEEE Spectrumが書籍化のきっかけになったとか。

 そーえば今ははてブにもAI(と称するもの)がいるんだったね…:はてなブックマークにヤフコメの「表示順位付けAI」導入 「人気コメント」の改善に - ITmedia NEWS

 AIと笑いの記事も:電笑戦 ~ AI は人を笑わせられるのか ? 挑戦を支える技術と AWS - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS さらには、こんな記事も:AIがダジャレ判定→面白いと布団が吹っ飛ぶ “Qiita映え”バッチリ、話題のAI開発した若手チームを直撃:これからのAIの話をしよう(ダジャレ編)(1/4 ページ) - ITmedia NEWS

 これまでに分かったことは以下の五点だとのこと:

  1. AIの危険性は、AIが賢すぎるという点ではなく、むしろわたしたちが期待するほど賢くないという点にある
  2. AIの頭脳はミミズ並み
  3. AIは人間が解決したがっている問題をきちんと理解していない
  4. ただし、AIは人間に言われたとおりのことを実行する。少なくとも、精一杯実行しようとする
  5. そして、AIはいちばんラクな道を選ぶ

 こんなのもあるんだ:wikipedia:無限の猿定理

 そえば今はコールセンターって最初はAIが応答してたりするんだよね:人工知能(AI)を使ってコールセンターを効率化する5種類のソリューション | sAI Chatブログ 結果、人間のオペレーターのところに電話がまわって来た時には、顧客はすでにその受け答えでカッカしてることも多いんだとか。ま、オラはそもそも電話することをあきらめてるが…

 AIの内部構造について研究するのは、脳や生態系を研究するのと似てるんだと。wikipedia:複雑系ってこと?

 wikipedia:アンドリュー・ンによると、

AIによる世界征服について心配するのは、火星の人口過密について心配するようなもの

だとのこと。要は近い将来に現実化する心配はないだろう、ということのようで。

 こんなんもあるんだと:中国には世界人口並みのゴキブリを年産するAI制御の工場がある | ギズモード・ジャパン 恐るべし中国…そえばオラは結局まだ本格的には対面してないや(死骸を見かけたことはある)。

 こんなんもあるんだと:AI記者が世界の報道を変える? 脅威論や悪用の懸念も 写真1枚 国際ニュース:AFPBB News

 こんなんも計画中だとか:ユークリッド衛星 | 天文学辞典 wikipedia:新型コロナウイルス感染症の世界的流行 (2019年-)の影響が懸念されますね。

ダークエネルギーの性質の解明を主目的

ってことは、wikipedia:多田将さんなんかは興味津々のはず(ひょっとして関わってる?)だが。

一貫性があることとバイアスがないことはイコールではない

 転移学習とは?ディープラーニングで期待の「転移学…|Udemy メディア

 AIにクッキーのレシピを考えさせるGoogleの「スマートクッキー」プロジェクトが実施される - GIGAZINE

人間は自動運転車を助けるのが大の苦手だ

 また、著者が言うには、

人間の脳は860億個のニューロンで構成されるニューラル・ネットワークというより、…860億のニューラル・ネットワークで構成される巨大なニューラル・ネットワーク

だそうだ。

 こんなんもあるんでっか:ピーナッツバターを使ったアメリカらしいサンドイッチ3選 | Kyoko's Backyard アメリカで田舎暮らし・キッチン編(2番)

 こんなんもあるんでっか:wikipedia:ディープドリーム

 さらにはこんなのも:GoogLeNet 畳み込みニューラル ネットワーク - MATLAB googlenet - MathWorks 日本 wikipedia:回帰型ニューラルネットワーク wikipedia:en:Botnik Studios

 google:懐ゲーね…ググれば意味は分かるが。

自律的なアルゴリズムに決して兵器を与えてはいけない

往々にして「人間を皆殺しにする」という近道をとるんだと。

 こういうのも:wikipedia:敵対的生成ネットワーク

 なんか今はこんなのもあるとか:日本マイクロソフト、視覚障碍者の“眼”となるSeeing AIの日本語版をiOSで提供開始 - PC Watch

 AIがうまくいかないのは、以下のようなときだそうだ。

  1. AIに幅の広すぎる問題を与えてしまった場合
  2. AIが状況を理解するためのデータが不足している場合
  3. AIを混乱させるデータや時間のムダになるデータを与えてしまった場合
  4. AIに実世界の問題よりもずっと単純な課題をこなすためのトレーニングを行ってしまった場合
  5. AIを実世界と食いちがう状況でトレーニングしてしまった場合

 こんなのもいたそうで:wikipedia:グランピー・キャット

 本書によると、AI(wikipedia:人工知能)はなぜかキリン好きで、ランダムな池や木の写真を見せると、キリンがいる、と報告することが多く、"giraffize"=キリン化という語を使って論文を書いた学者もいるんだと。しかし日本語環境で普通にググると、KIRIN|キリン - よろこびがつなぐ世界へ のAIの話と理解され、詳細不明orz

 こんなのもいたような…BB-8 | Wookieepedia | Fandom

 ある研究者が言うには、

AIは人間の設定した報酬をわざと曲解し、いちばんラクな局所最適解を探そうとする悪魔

だそうだ。

 こんなんもいたそうで:wikipedia:対戦車犬 wikipedia:過剰適合でうまくいかなかったそうだが。

 こんな木も:歩く木がある? - 図鑑.net モバイルブログ

道徳的な監視の目がなければ、企業は時として報酬関数に欠陥のあるAIのようなふるまいをするものなのだ

 こんなんもあったんですか:「Googleインフルトレンド」の失敗から学ぶ、ビッグデータの未来 | HBRアナリティクスブログ|DIAMOND ハーバード・ビジネス・レビュー

人間にはバイアスがあるので、人間がバイアスを見つけて除去しようと細心の注意を払わない限り、人間から学習するアルゴリズムもバイアスからは逃れられない

何もしない限り、バイアスは悪化することはあっても改善することはないんだと。

 MIT Tech Review: 機械学習も偏見や差別と無縁でないことが判明

 指紋認証のハッキングが容易に? 機械学習が生成する「マスター指紋」の威力 | WIRED.jp

 こんな記事もあったけど:超高精度な文章生成ツール「GPT-3」は、“人間にしかできないこと”の定義を根本から揺るがした | WIRED.jp(まだ読んでないけど)著者の経験では、価値ある文章は全体の1~10%、とのこと。

 結局、AIが期待通りに機能するためには人間の助力が必要なので、AIが人間の仕事をすべて奪う、ということにはならない、というのが筆者の主張のようで。それはそうなんだろうけど、障害者がやってるような単純作業は奪われるだろうなぁ…あとは、そのXデーが来るのが早いか、(定年で)逃げ切るのが早いか、くたばるのが早いか…また、なのでAIが人間を理解するのを望むのではなく、人間がAI(の長所と限界)を理解しようとする方が早いんじゃないか、ということみたいで。

変化する世界は、世界を理解するアルゴリズムの設計をいっそう難しくする

 という訳で、また一冊片づけた。