» www.Giftbox.Az - Bir birindən gözəl hədiyyə satışı
ウィキペディアランダム
毎日カテゴリ
共有: WhatsappFacebookTwitterVK

汎用人工知能

計算機科学の未解決問題
汎用人工知能は実現可能なのか?また、実現可能だとすればどのように実現できるのか?

汎用人工知能(はんようじんこうちのう、:Artificial general intelligence、略称:AGI)とは、人間が実現可能なあらゆる知的作業を理解・学習・実行することができる人工知能である[1][2]人工知能の研究においては主要かつ最終的な目標であるとみなされており、未来学SFにおいて話題に上がることが多い。数多くの企業研究機関が汎用人工知能の達成に取り組んでおり、代表的な企業としてはOpenAI[3]DeepMind[4]Anthropic[5]などが挙げられる。

汎用人工知能は未だ実現しておらず、一般的には今後数十年以内に実現すると見積もられているが[6][7][8]、汎用人工知能は将来的にも絶対に完成しないとする少数派の意見も存在する[9]。さらに深層学習などによって作成された「GPT-4ChatGPT)が汎用人工知能の初期バージョンである」という論文も存在するが[10]、これには様々な肯定的意見と否定的意見があり、一貫した意見は存在しない[11][12]GPT-4ChatGPT)は多くの人間向けのテストにおいて人類の平均的な点数を上回ることができることが確認されているが[13]、これが汎用人工知能であるかについては論争が尽きない[14]

2020年の調査では、全世界において37カ国で汎用人工知能の研究開発が行われており、さらに72個のプロジェクトが進行中であることが確認されている[15]

定義

汎用人工知能の他の呼称としては「強いAI[16][17]」や「フルAI[18]」、「ジェネラル・インテリジェント・アクション(英:general intelligent action)[19]」などがあるが、一般的な学術的文章においては感性意識を有するコンピュータプログラムに対しては「強いAI」という言葉を使用することが多い[注釈 1][20]

強いAIの対照的な存在として考えられているのが弱いAI(英語版)(特化型人工知能)である[21][22]。弱いAIは1つの問題を解決するために設計されたプログラムであり、学術的には人間のような意識やを持たないものであると定義されている[23]。弱いAIの代表例として知られるのがSiriAlexaGoogle アシスタントなどである[24][25][26]

人工知能研究においては、人工知能を性能のレベル別に見て、3つに分けることがある[27]

  1. 特化型人工知能(略:ANI): 1つの問題を解決する事に特化した人工知能。特定の問題では人間の能力を凌駕することがあるが(コンピュータチェスなど)、人間のように多種多様な問題に対して柔軟に取り組むことはできない[28]。今まで開発されたほぼ全ての人工知能がこれに含まれる。
  2. 汎用人工知能(略:AGI): 人間と同等の知能を持った人工知能。人間は様々な問題に対して柔軟に対処することのできる「汎用知能」を持つが、汎用人工知能はこれを人工的に再現する[29]。詳細は本記事を参照。
  3. 人工超知能(略:ASI): 人間の知能を全ての面において超えた人工知能[30]。人工超知能が誕生した場合、それは当然として人間の知能を超えた思考を持つため、本質的にどのような挙動をするかという予想が困難とされる[31]。詳細は#人工超知能を参照。

概要

知能」をどのように定義し、基準とするかは様々な意見が存在し、統一的な意見は存在しない[32]。人工知能の知能をテストする方法として最も有名なのはチューリングテストである[注釈 2]

知能の特色

しかしながら、どのような要素で「知能」が組み立てられているかは考察できる。人工知能の研究者間で広く認められている「知能」を構成するのに必要な要素は以下である[33]

さらに、これらの能力を統合((人工知能のシステム統合)(英語版))することが求められる。その他に重要な要素は以下である。

  • 見る、聞くといった能力によって情報をインプットすることができる。
  • それらの情報を元に、行動をアウトプットできる。(例えばロボット工学の技術によって自らの位置を移動させたり、など)

また、危険を回避するなどといった行為によって知的な行動を確認することができる[34][35]。知能に関する学際的研究(認知科学計算知能研究、意思決定研究)では、知能を測るにあたって想像力(プログラム外の心象や概念などを把握できる能力[36])や自律性などを考慮する傾向にある。

意思決定支援システムロボット進化的計算知的エージェント(計算総合性)(英語版)など、これらの能力を獲得しているように見えるコンピュータープログラムは存在するが、すべての分野において優れている統合システムについては未だかつて実現したことはない[37]

人間レベルの汎用人工知能かを判別するためのテスト

汎用人工知能が人間レベルにまで達しているかを確認するためのテストとして、以下のようなものが考案されている[38][39]

チューリング・テストアラン・チューリング
人間が機械を直接的に確認できないように隔離し、文字のみでのコミュニケーションをする。判定者となる人間が高い確率でコミュニケーションの相手が機械であるかどうか判別出来なかった場合、このテストに合格したことになる。注意すべきなのは、チューリングは知能の定義を規定していたわけではなく、ただ人間を騙せた場合において合格であると設定したのみであることである。つまりこのテストに合格したからといって、合格した機械が明確に知能を有するとは断言できない。
コーヒー・テストスティーブ・ウォズニアック
平均的なアメリカの家庭に機械を訪問させ、コーヒーを淹れられるかどうかを試すテスト。このテストに合格可能な機械はコーヒーマシンを見つけ、コーヒー豆を探し、マグカップを取り出し、適切なボタンを押す能力があるとみなされる。
ロボット大学生テスト((ベン・ゲーツェル)(英語版)
機械に大学入試テストを受けさせる。さらに人間と同じように講義に参加させ、学位を取得させる。
就職試験 ((ニルス・ジョン・ニルソン)(英語版)
機械に就職活動を行わせ、人間と同レベルに仕事ができるかどうかを観察する。

上記に挙げたテスト群は、いずれも弱いAIによってでも合格できる可能性がある[40]。根本的に、汎用人工知能が実現したとしても、それが「知能的」であるかどうかをテスト・判別することはできないという立場の研究者も存在する[41]

AI完全問題

機械が人間と同じように課題を解決するためには、当然だが一般的な知能を必要とする[42]。例えば機械翻訳のような単純作業においてさえ、機械は両方の言語を読み書きし(自然言語処理)、著者の主義主張を追い(推論)、どのような話題であるかを知り(知識)、文章の裏にある著者の本当の意図を忠実に再現(社会的知性)する必要がある。つまり人間レベルの知能にまで達するには、これらの能力すべてを獲得していなければならない[43]

ある特定の問題を解決すること仮定する。その問題を解決するのに必要な能力が、人間あるいは強いAIと同レベルの能力を要求し、特化型人工知能(弱いAI)[44]には解決出来ない問題である場合、この問題は非公式に「AI完全」あるいは「AI困難」と呼ばれる[45]。AI完全問題では、一般的なコンピュータビジョン自然言語理解、現実世界では当然起こり得る予期せぬ出来事への対処などを想定している[46]

AI完全問題は、今現在のコンピュータ技術において解決は不可能である[47]。この問題を解くには人間の知能が必要であり、この性質を利用したシステムなども作られている。例えばCAPTCHAのような技術によって人間かロボットかを判別したり、総当たり攻撃によってコンピュータセキュリティの突破を阻止する技術などが挙げられる[48][49]

数学公式化

汎用人工知能を数学的にどのように定義するかについては、2000年にコンピュータ科学者である(マーカス・ハッター)(英語版)によって提案された(AIXI)(英語版)モデルが存在する。AIXIモデルでは「未知なる環境下においても目標を達成できる能力」を最大化する[50]。人間の行動を模倣するのではなく、知能の数学的定義を最大化するタイプの汎用人工知能は普遍的人工知能(:universal artificial intelligence)と呼ばれることもある[51]

2015年、マーカス・ハッターとジャン・リーケは「Legg-Hutter知能は不変の万能チューリング機械(UTM(英語版))を基準にして測定し、もしそのように測定すればAIXIモデルが最も知能的である(つまりAIXIのパレート最適性は主観的である可能性)」ことを示した。これはAIXIのパレート最適性を覆す結果であった[52]。この問題はAIXIが知能の代用として圧縮を用いたことに起因すると考えられており、認知は環境から切り離されて行われる必要があるとされる。これは哲学の領域で実体二元論として知られるものを公式化したものである[53]。しかしながら(現成主義)(英語版)、すなわち認知は目標を追求する環境下において成り立つとされる考え方を支持する科学的根拠が多数存在する[54]。その後、この問題を受けてマイケル・ティモシー・ベネットは現成主義認知を形式化し、「弱点」と呼ばれる知能の代用を特定した[55]。弱点と圧縮の数学的証明による比較実験によって、弱点を最大化すると「様々な問題を解決する能力[56]」あるいは「普遍化能力[57]」が最大になることが示された。つまり結果としては、先程の定義とAIXI、どちらの定義を使っても知能が最大となり、同じであったのである。これらの研究結果により、もし現成主義が成立し実体二元論が成立しないと仮定したならば、圧縮は知能を構成する要素として必要あるいは十分ではないことが明らかになった。こうした経緯によって広く普及している知能に関する見解に疑問が投げかけられた。これらの人工知能に関する数学的問題は(ハッター賞)(英語版)で盛んに議論されている[58]

数学公式化によって導かれた汎用人工知能は、認知に関する立場を問わず自然言語の使用といった人間的な行動を取るかは不明である[59]。人間的な行動をするかどうかは多くの要因に依存し、どのようにエージェントが具体化されるか[56]、飢えや痛みなどの原始的な報酬関数を定めるかによって左右されるからである[60]

歴史

古典的な人工知能研究

1950年代から現代的な人工知能研究が始まった[61]。当時の人工知能研究者は楽観的であり、多くの第1世代人工知能研究者たちは、今後数十年以内において汎用人工知能が実現すると確信していた[62]。人工知能研究のパイオニアであったハーバート・サイモンは1965年にこう書き記している[63]

今後20年以内に、機械は人間が実現可能なあらゆる仕事をできるようになるであろう。 — ハーバート・サイモン

この種の予想はアーサー・C・クラークの小説を元に制作された映画「2001年宇宙の旅」に登場するHAL 9000と呼ばれる人工知能を搭載したキャラクターから大いに影響を受けていた[64]。初期の人工知能研究者であるマービン・ミンスキーは、当時の楽観的な予想に基づいてHAL9000を可能な限り現実化するプロジェクトのコンサルタントを務めていたこともある[65](ダニエル・クラヴィエ)(英語版)は1967年にこのように発言している[66]

今後、一世紀以内に人工知能を作るという問題は実際的に解決されるであろう。 — ダニエル・クラヴィエ

汎用人工知能の研究として特筆すべき初期の研究は、(ダグラス・レナート)(英語版)主導のCycプロジェクトアレン・ニューウェル主導のSoar (認知アーキテクチャ)プロジェクトなどが挙げられる。

しかしながら1970年代初頭から1990年代初頭にかけて、人工知能研究者たちはこのプロジェクトの難易度を甚だしく過小評価していたと自覚しつつあり、初期の楽観主義は長くは続かなかった[67]。人工知能研究に出資していた出資者たちは早急に使い勝手の良い「応用可能なAI」[注釈 3][68][69]を開発するよう、プレッシャーを強めていった。1980年代に入ると、日本の国家プロジェクトである第五世代コンピュータが汎用人工知能への関心を呼び起こした。このプロジェクトでは10年の期間内で、「カジュアルな会話を行える」[70]汎用人工知能を作ることなどが目標の1つとして挙げられていた。さらにエキスパートシステム開発の成功に反応して、産業界は再び人工知能分野に資金を提供し始めた[71][72]。しかし、1980年代後半に入ると人工知能に対する期待は完全に消滅し、日本の第五世代コンピュータも失敗に終わった[73]。20年前に人工知能研究者たちが出していた予想が悉く外れたことも影響し、1990年代に入ると、人工知能研究者は「空約束ばかりする学者集団」という評価を受けるようになった[74]。そのころになると、人工知能研究者たちは「バカバカしい夢想家」という汚名を避けるために、「人間レベルの人工知能」についての発言や予想[注釈 4][75]を意図的に避けるようになった[76]

特化型人工知能(弱いAI)の研究

1990年代から21世紀初頭にかけて、人工知能の研究は主にニューラルネットワークや統計的機械学習に焦点が当てられてきた[77]。その結果として確証可能な結果や商業的応用が可能になり、学術的評価と共に従来を上回る成果を達成した[78]。現代社会において、これらの「特化型人工知能」はありとあらゆる産業全体で使用されており、学術界および産業界両方において多額の資金が供給されている[79]。2020年以降、「特化型人工知能」分野の研究・開発はトレンドであり、完全な停滞期にまで達するには今後10年以上の歳月が必要になると推定されており[80]、さまざまな部分問題を解決するプログラムを開発することが人工知能研究の主流になっている[81]。弱いAIを開発し、それらの統合することによって結果的に強いAIの達成を図ろうとしている研究者も存在する。1988年、人工知能研究者であるハンス・モラベックはこう述べている[82]

私はこう確信している。つまり、人工知能を「下」から研究していくことによって、伝統的な「上」からの研究を上回ることができると。これを続けていくことによって、いつの日か人工知能は推論プログラムによって、これまで捉えようがなかったような常識的知識と応用能力を手にするであろう。そして「上」と「下」の研究成果を統合するゴールデン・スパイクが打たれたその瞬間、完全な人工知能が誕生するであろう。

しかしながらこの考えには異論も存在する。例えばプリンストン大学教授のスティーバン・ハーナッドは、1990年に「シンボルグラウンディング問題」論文の最後にこう書いている[83]

認知をモデル化するための「上」からのアプローチはやがて「下」からのアプローチと統合しうると声高に叫ばれている。しかしこの論文内での考察が正しいのならば、そういった期待は絶望的なまでに単純化されていると言わざるを得ない。感覚からシンボルへ実現可能な方法は唯一つ、一からやり直すしかない。

現代の汎用人工知能に関する研究

1997年、人工知能研究者であるマーク・グブルドは、自動化された軍事作戦について研究する過程において、「汎用人工知能」という単語を提唱した[84]

2002年、(シェーン・レッグ)(英語版)(ベン・ゲーツェル)(英語版)はこの用語をより一般に普及させた[85]。2006年には、ベン・ゲーチェルと王培(Pei Wang)によって汎用人工知能の初期的な研究が行なわれた。

2009年、中国の厦門大学において、汎用人工知能に関する最初の夏期講習会が開かれた。これは厦門大学人工知能研究所と(OpenCog)(英語版)が主催を務めて行なわれたイベントであった[86]

2010年と2011年にかけて、ブルガリアのプロヴディフ大学では、汎用人工知能に関しては初となる大学における専門課程が設置された[87][88]。2018年にはマサチューセッツ工科大学においても汎用人工知能に関する専門課程が設置されている[89]

2017年、刘峰(Feng Liu)、Yong Shi、Ying Liuらは、Google AIやSiriなど、一般的に使用されている弱いAIに対して知能検査を行った。その結果、平均IQは約47であることが判明した。この数値は人間に換算すれば6歳児程度に相当する[90][91]

2020年1月、マイクロソフトは「汎用人工知能を開発し人類に利益をもたらすこと」[92]を目標として設立された研究所であるOpenAIに100億ドル(約1兆2800億円)を投資した[93]

2020年6月11日、OpenAIは自己回帰型言語モデルである「GPT-3」を発表した。GPT-3は汎用人工知能ではないというコンセンサスが取れているが、とはいえ弱いAIとするにはやや高性能すぎるという指摘がある[94][95]

2021年、DeepMindは「汎用」システム「(Gato (DeepMind))(英語版)」を発表した。600個以上の異なる課題を解決できるとされる[96]

2023年、OpenAIはGPT-3の後継にあたる「GPT-4」を発表した[97]マイクロソフトの論文によれば、この言語モデルはこれまでの人工知能とは一線を画しており、「驚くほど人間の能力に近付いている」としている。そのため、「汎用人工知能の初期バージョンである可能性がある」と論文の中で記述している[98]

汎用人工知能の実現可能時期

汎用人工知能がいつ頃実現するかについては諸説あり、今後何世紀もの科学的努力を重ねても、汎用人工知能が実現可能なのかということは基本的な関心となっている[99]。人工知能研究者の多くは、早くとも遅くとも将来的には汎用人工知能が実現可能であると考えている[100]コンピュータ科学者であるジョン・マッカーシーは、汎用人工知能はいずれかは達成されるとしているが、研究速度には不確実性が伴うため、いつ実現するかという正確な予想は不可能であるとしている[101]

2006年、ベン・ゲーチェルが発行した書籍内においては、真に柔軟な汎用人工知能が実現する時間は10年から100年の間とかなり開きがある[102]。2007年にレイ・カーツワイルが発行した「(The Singularity Is Near)(英語版)」においては[103]、主な汎用人工知能研究コミュニティの合意としては、2015年から2045年までに達成する可能性が高いとしている[104]。しかしながらこの意見にはさまざまな異論があり、2045年までに汎用人工知能が達成されるほど研究の進歩が加速するかという点においては議論の余地がある[105]

汎用人工知能の実現可能性についての専門家の見解は一貫しておらず、時代によって変わる。2010年代に入ってからは、汎用人工知能の実現を支持する声が増加している傾向にある。2012年に行なわれたメタ解析によれば、汎用人工知能の誕生が今後16年から26年の間に行われる可能性が高い、という意見にバイアスがかかっていることが示唆されている[106]。2012年と2013年に実施された4つの調査においては、実現可能時期の中央値は2040年から2050年で、平均値は2081年だった。さらに厳しい条件で質問すると、16.5%の専門家が「実現不可能」だと答えた[107]

しかしながら、このような時期に関する予想は科学的な正確性がなく、ロドニー・ブルックスは「この60年間で行われた汎用人工知能に関する予想は、どの時点においても15年後から25年後の間と予想する強い傾向がある」と報告している。これらの結果は、専門家と非専門家の間で実現予想の正確性の差がないことを強く示唆している[108]

このように、汎用人工知能の実現時期に関する研究者の反応は多種多様である。知能は未だ複雑すぎて完全には複製できないと主張する研究者も存在する[109]。とはいえ、汎用人工知能に肯定的な研究者も数多くおり、様々な会社・グループの設立や会議、研究を行っている[110][111]

脳のシミュレーション

全脳エミュレーション

汎用人工知能を達成するためのアプローチとしてしばしば議論される方法が、脳のシミュレーションや精神転送である[112]。低レベルの精神転送では、生物の脳をスキャン・マッピングし、その状態をコンピュータ内においてコピーすることで実現される。もしこれが実現するとするならば、コンピュータはオリジナルの脳と同等の振る舞いをすることが期待され、その振る舞いにおいては本質的あるいは実用的にオリジナルの脳と区別できないこととなる[113]。脳のシミュレーションや精神転送は計算論的神経科学や神経情報科学の分野において、おもに医学研究を目的に研究されている[114]。また、人工知能研究においても強いAIを実現するアプローチとして議論されている。レイ・カーツワイルは著書「The Singularity Is Near」内において、脳内のシミュレーションはいずれ可能になると予想している[103]

初期の研究

 
人間の脳を様々な方法でエミュレートするために必要なコンピュータの処理能力の推定値と、TOP500で示された年ごとのスーパーコンピューターの処理能力の図。傾向で見れば、コンピュータの処理能力が1.1年ごとに2倍になっている。カーツワイルは神経シミュレーションを達成した段階で精神転送が可能になると主張しているが、人間の意識がどこの段階で発生するかについては、専門家の間で意見が分かれている[115]

低レベルの脳のシミュレーションを実行するだけでも、非常に強力なコンピュータが必要になる[116]ヒトの脳には膨大な数のシナプスが存在し、その数は10の15乗であり、ニューロンは10の11乗存在する。この数は3歳児ごろにおいてピークに達し、その後は年齢と共に減少していき、成人に達する頃には安定する[117]。ニューロンの活動を単純なスイッチモデルとして考えると、1秒間に10の14乗シナプスの更新ができるということになる[118]

1997年、カーツワイルは人間の脳と同等のハードウェアを実現するためにはどのぐらいの計算能力が必要か、ということについて考察し、最終的には1秒間に10の16乗(cps)の計算能力があれば実現可能とした[注釈 5][119]。カーツワイルはこの数字をもとに、執筆時(1997年当時)のコンピュータの指数関数的な成長が続けば、2015年から2025年の間に、理論的には人間の脳を十分に模倣できるだけのコンピュータが誕生すると予想した[120]。ちなみに、現在のスーパーコンピューターの評価指標であるFLOPS1回分を「計算」と仮定すると、10の16乗の計算能力は2011年に達成されており、2022年には10の18乗の計算を行うことができるエクサスケールコンピュータが誕生している[121]

ニューロンの詳細なモデル化

人工ニューラルネットワークと呼ばれる人間の脳細胞を模したモデルは、実際の人間の生体神経と比較すると単純的かつ簡略的である[122]。脳シミュレーションを完全に実行するためには、現在の研究ではまだ大まかにしか解明されていない生物学的な神経細胞の詳細な挙動を解明しなければならない可能性がある[123]。神経細胞の生物学的、化学的、物理的な詳細な挙動を分子レベルにまで解明し、完全にモデル化するためには、カーツワイルが想定した計算能力よりもさらに強力な計算能力が必要になると見積もられている[124]。さらに、カーツワイルの試算では人間の認知プロセスに深く関与しているとされるグリア細胞については考慮されていない[125]

現在の研究

2005年に、より高度で複雑な神経モデルを採用しつつ従来のコンピュータで脳のシミュレーションを実行しようとするプロジェクトが発足した[126]。その研究内容によれば、コンピュータ上に「脳」(10の11乗のニューロンを実装)の非リアルタイムシミュレーションを実施した。しかしながら、1秒間のモデルを実行するのに対して50日間を要したという[127]

2006年、Blue Brainプロジェクトでは、IBMが所有していた当時世界最速のスーパーコンピュータであるBlue Geneを使用し、1万個のニューロンと108個のシナプスから構成されるラット大脳新皮質の柱1本をリアルタイムでシュミュレーションすることに成功した[128]。脳のシミュレーションに関する研究においての長期的な目標は、人間の脳の生理的プロセスの詳細を用いて、機能的なシミュレーションを構築することである。

2009年、オックスフォードで開催されたTED (カンファレンス)において、Blue Brainプロジェクトのリーダーである(ヘンリー・マークラム)(英語版)は「人間の脳を人工的に作成することは不可能ではなく、10年以内に実現する可能性がある」と発言している[129]。また、有機工学の研究を活用して、人工的なニューロン(ニューロ・シリコン・インターフェース)を作成して脳のシミュレーションを行うというアプローチが、コンピュータ上での直接的な脳のシミュレーションが達成できなかった場合に有効であるという提言も行われている[130]

カーネギーメロン大学教授であり機械工学者であるハンス・モラベックは、1997年に発表した論文「コンピュータのハードウェアが人間の脳と同レベルになるのはいつ?」内で、脳はより複雑であり、ニューロンをより詳細にモデル化しなければ脳のシミュレーションを達成できないという議論について考察した。論文内において、神経細胞、特に網膜に焦点を当てて既存のソフトウェアがその機能をシミュレートする能力を測定した[131]

(OpenWorm project)(英語版)では、ニューロンがわずか302個しかない線形動物を、細胞レベルで完全にシミュレーションし、コンピュータ上に人工的な生命を作り出すことに目標として研究を開始した[132]。このプロジェクトを開始する前には、人間に比べて遥かに単純な生物である線形動物をシミュレートするのは比較的容易であると予想されていた。しかしながらこれは失敗に終わった。この研究によって、生物のニューロンのモデル化は実際的には想像以上に困難であることが判明した。現在のプロジェクトでは、生物学的な神経細胞を精密にエミュレートすることに力を注いでいるが、未だ成功には至っていない[133]

脳のシミュレーションによって汎用人工知能を達成しようとするアプローチに対しての批判

根本的に、脳のシミュレーションによって汎用人工知能を達成しようとするアプローチ自体に対しての批判が存在する[134]。これらの批判は、「人間は身体を持つから知性が存在する」という考えに基いてなされたものが多い。知性を誕生させるためには物理的な実体が必要であると考えている科学者も存在する[135]。この考えが正しいと仮定すれば、完全に機能する脳のシミュレーションは、ニューロンを完全に再現しただけでは達成できず、ニューロン以上のもの、つまりロボットの身体などを内包する必要がある。ゲーチェルはこの批判に対して、人工知能に仮想的な身体(例えばSecond Lifeのような)を与えることで対処できるとしたが、これが有効かどうかは不明である[136]

2005年頃から、10の9乗以上の性能を持つデスクトップコンピュータが一般向けに販売されている。カーツワイルとモラベックが用いた推定によれば、これはミツバチの脳をシミュレートできるだけの能力を備えていることになる。しかしながら、ミツバチの脳をシミュレートできるソフトウェアはいまだ存在しない[137]。これらの理由については幾つかの仮説が挙げられている。

  1. 現在のニューロンモデルが単純すぎる可能性。(次項参照)
  2. より高次の認知プロセス[注釈 6][138]についての解明がいまだ不十分であり、fMRIなどによって観察されている脳の神経活動が、正確に何に相関するかを十分に確立できていない可能性。
  3. 認知プロセスに関する理解が十分に進んだとしても、初期のシミュレーションプログラムは非常に非効率であることが予想されるために、余計かつ多大な計算能力が要求される可能性。
  4. 生物の脳は重要ではあるが、脳だけを画一的に認知モデルとして採用するには不適切な可能性。そのため、ミツバチの脳をシミュレートするためには、身体や環境自体をもシミュレートしなければいけない可能性[139]

また、人間の脳の規模について、現在のところ完全に正確には特定できていない[140]。ある説では、人間の脳には約1000億個のニューロンと100兆個のシナプスがあるというものがあるが[141]、別の説においては大脳皮質に163億個、小脳に690億個のニューロンがあるともされている[142]グリア細胞に至っては、非常に多いということしかわかっていない[143]

哲学

哲学によって定義された「強いAI」

1980年、哲学者のジョン・サール中国語の部屋と呼ばれる意識に関する思考実験を議論する過程において、「強いAI」という言葉を作り出した。この用語は、人工知能に関する以下のような2つの仮説を区別するために用いられた[注釈 7][144]

  • 「強いAI」仮説: 人工知能は「思考」することができ、「心」を持ち、「意識」を持つことが可能である。
  • 「弱いAI」仮説: 人工知能は「思考」「心」「意識」があたかも存在するかのように振る舞っているだけであり、真に思考することは不可能である。

サールが前者の仮説を「強い」と表現したのは、これがより強い主張を行っているからである[145]。強いAIは人間がテストできるすべての能力を超えた何かが機械に備わったことを仮定している[146]。この思考実験においては、「弱いAI」と「強いAI」の振る舞いを外部から観察すれば同じに見えることになる。しかしながら「強いAI」には主観的意識体験が存在することになる。これらの用語は学術的な人工知能の研究や教科書にも採用されている[147]

人工知能研究の主流では、プログラムがどのように機能するのかという点においてのみ主眼が置かれている。スチュアート・J・ラッセルピーター・ノーヴィグはこう述べている[148]。「プログラムが正常に動作しさえすれば、それをリアルと呼ぼうがシミュレーションと呼ぼうが、人工知能研究者は気にしない」。主流の人工知能研究者にとって、プログラムがあたかも心を持っているかのように完璧に振る舞っているとすれば、実際に心を持っているかを知る必要はない[149]。というのも、心があるかないかを見分ける方法は存在しないからである。したがって、人工知能研究においてサールの「弱いAI仮説」は「汎用人工知能は実現可能である」と矛盾しない。

ラッセルとノーヴィグは「ほとんどの人工知能研究者は弱いAI仮説を当然のこととして受け入れており、強いAI仮説については全く関心がない」と発言している[148]。このように、学術的な人工知能の研究にとっては、「強いAI」と「汎用人工知能」は全く異なるものである。

サールや主流の人工知能研究者とは対照的に、レイ・カーツワイルなどの一部の未来学者は「強いAI」という用語を「人間レベルの人工汎用知能」を意味するかのように使用している[103]。これは人間レベルの汎用人工知能に意識が必要であると仮定しない限り、サールの「強いAI」の定義とは明確に異なっている。これらのことにサールのような学術的な哲学者や人工知能研究者は全く関心を示しておらず、信じてもいない[148]

意識

強いAIの意識に関連して、サイエンスフィクションや倫理面においては、心に関しても大きな関心が置かれている。

このような、強いAIを有した機械の意識に対して関心がもたれる理由としては、もし機械が意識を持つならば、動物の権利と同じように、心を持つ機械にも人権が生じる可能性があるからである[151]。そのために強いAIが発生した場合に備えて、既存の法律や倫理、社会の枠組みにどう心を持つ機械を統合するかというアプローチが研究されている。これらの研究は「強いAI」の法的位置づけと権利に焦点を当てている[152]。コンピュータ科学者であるビル・ジョイは、このような心を持つ機械は、結果的に人間の生命や尊厳を脅かす可能性があると主張している[153]

これらの人間的な意識が「強いAI」に必要不可欠であるかどうかは不明である[154]。そもそも意識を確認するための確実なテストは存在しないため、意識というものの役割が「強いAI」などのような影響をもたらすのかが明確ではない。仮に意識に相関した脳活動をシミュレートできる機械を作ったとしても、自動的に自己認識を持つようになるのかは不明である[155]。意識は作成できるものではなく、汎用人工知能が作られた結果として自然に創発する可能性もある。また、機械が明らかに知的な行動を取るようになれば、これらの特徴を機械に帰属させることが自然になる可能性も存在する。

人工意識の研究

汎用人工知能・強いAIにおける意識の役割には議論の余地があるが、多くの汎用人工知能研究者は意識の実装を重要視している[156]

人工超知能

人類で最も知能指数が高い天才をもはるかに上回る知能を持つ仮定上の知能を超知能と呼ぶ[157]デイヴィッド・チャーマーズは、汎用人工知能は超知能に至る可能性が高いと指摘している[158]。なぜならば、人類と同程度の知能を持つ汎用人工知能が生み出されたと仮定したならば、それは自らのプログラム改良可能であることを意味し、そしてプログラムが改良されたのならばその改良されたプラグラムによって生み出された知能を用いてさらに改良を続けることができ、これが延々と繰り返される[159]。これは「再帰的自己改善(英:Recursive Self-Improvement)」と呼ばれる現象である[160]。また、(知能爆発)や技術的特異点としても知られている[161]。1965年に(I.J.グッド)(英語版)は以下のように発言している[162]

超知能機械を、どれだけ賢い人間よりも優れた知的能力をもつ存在だと仮定しよう。機械を設計することは知的能力によって行われることなので、超知能機械はさらに優れた機械を設計することができる。これが実行された瞬間、間違いなく「知能爆発」が起こり、人類の知的能力は瞬時にして置き去りにされることになる。したがって、超知能機械は人類最後の発明品ということになる。 — (I・J・グッド)(英語版)

汎用人工知能が超知能に至る可能性が高いとされているのは、自らの改良に生物学的な限度がないからである。一般的に、人間は産まれて成長しながら知能を増大させていく[163]。しかしながらそれには生物学的・生理学的な制約が存在し、老化などの現象によって知能の成長は頭打ちになる[164]。それに対して人工知能は拡張性があり、多くのスーパーコンピュータが毎年計算能力を増しているのと同じように、生物学的な制約(の大きさなど)が存在しない[165]

人工超知能

人工知能が超知能に達した場合、それを一般的に人工超知能:Artificial Super Intelligence、略称:ASI)と呼称する[166]

人工超知能が実現した場合、人類は本質的にその行動・思考・原理を理解できない可能性がある[167]。この可能性はすでに現れており[168]、例えば汎用人工知能や人工超知能にすら達していない特化型人工知能(弱いAI)のコンピュータ囲碁ソフトであるAlphaGoとトッププロ囲碁棋士である李世ドルが対局を果たしたAlphaGo対李世ドルにおいては、開発者ですらどのように動作しているか正確に理解できておらず[169]、解説者を務めたマイケル・レドモンドは「これが良い手なのか悪い手なのか本当に理解できない」と述べている[170][171]

これは人工超知能が実現し、ある行動や決定をした場合、たとえその結果が正確なものであっても、その思考経緯が人間には理解できないほど複雑であり[172]数学的証明を求めようにもあまりにも長大すぎて理解できない可能性があるということを示唆している[173][174]。2020年に(ローマン・ヤンポルスキー)(英語版)はこう述べている[175]

人間は複雑な概念を説明しなければならないときがある。例えば、人間の大人が幼児知的障害者などに「赤ちゃんはどこから来るの?」などという複雑な概念を質問された場合、我々はDNA受精子宮といったものではなく、答えを非常に簡略化したり、時にはを付いたりする。もちろん専門的で正確な説明をしてもいいが、そのような専門的な説明を幼児が理解できるかはわからないし、誤解をうむ可能性もある。説明の有用性相対的なものであり、ある人にとっては理解できても、ある人にとっては理解できないことが往々にしてある。

超知能と人類の知能差は、おそらく人間の大人と幼児以上の差がある。これは知能の差がコミュニケーションの幅を非常に狭めることを意味する。そのため、超知能が導き出した概念を人間が理解するのは難しい。それはオオカミに育てられた知的障害のある4歳児に、量子物理学を教えるようなものである。

— (ローマン・ヤンポルスキー)(英語版)


問題・危険性

技術的失業

歴史的に、科学技術の進歩によって、機械に置き換えられて存在しなくなった仕事が多数存在する(例えば電話交換手など)[176][177]。しかしながらそれに伴って新たな労働が生まれることにより、人間の雇用の全体的な数は減少するのではなく、増加する傾向にある[178]。一方、人工知能の進歩にも以前のような傾向が適応されるかという点については、経済学の観点からみても不明である[179]。仮に汎用人工知能が実現した場合、それはもちろん人間に匹敵した知能を持つ。よって導入費用や心理的抵抗などの諸問題を無視すれば、人間に可能な知的労働は全て代替可能であることを意味する[180][181]

過去の機械化による失業は、主に単純作業などの低賃金労働者(ブルーカラー)に影響を与えたが、汎用人工知能による失業は中流階級に大きな影響をもたらす可能性がある[182]マサチューセッツ工科大学経済学部教授の(デビッド・オーター)(英語版)は「人工知能による労働環境の変化では、変化の幅において大いに不確実性を伴う。特に懸念すべきなのは、高賃金の仕事に就いている人々から職を奪い、フードコートの店員のような職しか残らないというようなことになるかもしれないということである」と指摘している[183]。いずれにせよ、汎用人工知能が実現した場合には雇用、株式市場福祉など、経済システム全体に大きな影響を与える可能性が高い[184][185]

汎用人工知能による人類滅亡リスク

人類にとって人工知能は存亡の危機を左右する存在であり、そのリスクが高まっているという主張は多くの公人の間で広く支持されている[186]。この危機を訴える著名人として代表的なのはスティーヴン・ホーキングイーロン・マスクビル・ゲイツなどである。人工知能研究者としてこの危機を強く警鐘している人物として知られるのがスチュアート・J・ラッセル(ローマン・ヤンポルスキー)(英語版)、アレクセイ・ターチンなどである[187][152][188]。しかしながら人工知能による人類滅亡リスクを気にしない人々も存在し、ビル・ゲイツは「一体なぜ心配しない人がいるのかが理解不能だ」と述べている[189]。2014年にスティーヴン・ホーキングはこの危機に関する無関心を以下のように強く批判している[190]

もし人類より遥かに優れた文明を持つ異星人が「数十年後にそちらに到着する予定だ」とメッセージを送ってきたとき、我々はただ「わかった、着いたら連絡してね。待っとくよ」と返信してそのまま何もせずにしておくだろうか?しかしながら、これは人工知能においてまさにいま起こっていることだ。 — スティーブン・ホーキング

2021年、サンシャイン・コースト大学の人間工学者・社会情報システムセンターの研究者が実施した、汎用人工知能に関するリスクを分析する研究においては、データの少なさに苦言を呈しながらも、以下のような潜在的なリスクがあると結論づけられた。「汎用人工知能が人間の管理者や所有者のコントロール下から脱すること、汎用人工知能に人々に危害を与える命令を与えること、根本的に安全ではない汎用人工知能を開発すること、倫理観・道徳観がプログラミングされていない汎用人工知能を開発すること、そして汎用人工知能を不適切に管理することは、我々の実存的リスクを招く可能性がある」[191]

実存的リスク、すなわち人類滅亡の可能性は「(AIのコントロール問題)(英語版)」という難問を解決する必要がある[192]。この問題を解決することが、人工知能を安全に管理する最善の方法だとみなされているが、大規模で非常にリソースが必要な研究であるとみなされている[193]。人工知能のコントロール問題で重要視されるのは以下の概念である。すなわち「どのように自己複製を繰り返し、人間には遥かに理解できないほどの超知能を手に入れた人工知能を、人類に友好的な人工知能にできるのか?」ということである[152][194]。汎用人工知能を各国が軍拡競争的に開発していくとすると、複数の国家によって汎用人工知能を搭載した軍事兵器の開発が行われることが想定される[195][196]。汎用人工知能を前提とした国際紛争が発生した場合、軍事戦略をも汎用人工知能に頼ることになり、結果的には汎用人工知能同士が戦争を行うという自体もシナリオの1つとして研究されている[197][198]

もちろん、人工知能が人類滅亡を促すという考えには多くの懐疑主義者たちも存在する[199]。懐疑主義者たちは、自己複製を繰り返して超知能が誕生する可能性(シンギュラリティ)自体を疑問視し、宗教的であると批判している。すなわち、への信仰が人工知能にすり替わっただけではないか、という批判である。ジャロン・ラニアーは機械が知的になるという概念自体が金持ちによる「大規模な詐欺」である、と主張している[200]

汎用人工知能の実現への懐疑論

2023年現在、汎用人工知能は未だ実現していないため、すべては推論の域を出ていない[201]。根本的に汎用人工知能が実現可能なのか、またいつ実現するのかについては様々な見解が存在し、統一されていない。そのために、根本的に汎用人工知能自体が実現不可能だと考える研究者もいる[202]。1965年、人工知能のパイオニアとして知られるハーバート・サイモンは「今後20年以内に人間が実行できるあらゆる仕事が機械によってできるようになるだろう」と予想したが、この予想は完全に外れた。哲学者ヒューバート・ドレイファスロジャー・ペンローズは、強いAI自体が根本的に実現不可能だと考えている[203]マイクロソフト共同創業者であるポール・アレンは、汎用人工知能を実現するためには「根本的に予測不可能なブレイクスルー」と「認知に関する科学的な深い解明」が必要であるため、21世紀中には実現不可能だと予想している[204]。ロボット工学者のアラン・ウィンフィールドはガーディアン紙に「現在のコンピュータ科学と汎用人工知能のレベルの差は、現在の宇宙飛行と光速を超える宇宙飛行と同じぐらいの差がある」と寄稿している[205]コンピュータ科学者であるゴードン・ベルは、人類技術的特異点に到達する前に絶滅すると主張している。また、「ムーアの法則」の発案者として知られるゴードン・ムーアは「私は汎用人工知能の実現に懐疑的だ。なぜならば、技術的特異点は長い間起こりそうにないと思っているからだ。この感覚に根拠はない。そしてなぜそう感じるのかもわからない」と述べている[206]

研究の遅延

1956年に人工知能の研究が始まって以降、人間に匹敵する知能を持つ機械を作成するというこの分野の進歩は、遅々として進んでいない[207]。その原因として挙げられるのは、現在のコンピュータは計算機科学神経科学を進めるために特化しておらず、これらの研究を推進するためのメモリや処理能力、柔軟性が欠けていることがなどが考えられる[148][208]。また、そもそも人工知能研究が複雑すぎるために強いAIの進展を阻害している可能性もある[148]

概念上の限界が人工知能研究の遅れの原因であり、人工知能研究者は強いAIの実現に向けて概念的な枠組みを修正する必要があるとも考えられる[208]

この問題からはモラベックのパラドックスと呼ばれる根本的な矛盾が生じる。つまり、これまで作成されてきた人工知能は、膨大な数の計算やチェスのプレイなどといった人間には困難な仕事をこなすことは容易なのだが、逆に人間にとって簡単な「歩く」と言った動作や「1歳児レベルの知覚」といったものは難しいのである[209]。とはいえ、これらのギャップは一部の労働者にとっては脅威になる場合がある。このパラドックスについて、ランジャニ・C・ナラヤンはこう記述している[210]

多くの人々は肉体労働が人工知能による自動化によって取って代わると思っているが、現実はその逆である。人工知能にとっては、知的に難しい仕事のほうが遥かに容易である。 別の言い方をすれば、チェスのグランドマスターであるマグヌス・カールセンを倒せるのは人工知能であり、その後の掃除をするのが人間である。

過去数十年に渡る人工知能研究における遅れは、人工知能分野そのものに対する不信感をも生み出し、その不信感が更に汎用人工知能の研究を妨げている。人工知能研究者が予想した結果が外れたり、人工知能が人間の行動を部分的にしか理解できないことによって、人間レベルの人工知能を作成するという原初の発想に対する極度の楽観主義は消滅した[148]。とはいえ、人工知能に関する研究は失望や衰退を繰り返しながらも改善が進んでいるのは事実であり[211]、多くの研究者は21世紀中には汎用人工知能が完成することに肯定的である[148]

他に提唱されている汎用人工知能の遅れの原因と考えられるのは、学問分野間での連携が取れていないことなどが挙げられる。具体的には、多くの汎用人工知能研究者はコンピュータ上で人間の脳を再現しようと試みてきたが、それらを達成するためには神経生理学心理学において人間の脳を完全に理解することが必要不可欠である[212][213][214]。しかしながら人工知能に関する研究者の多くは、人工知能の将来予測にかかわる疑念の多くを過小評価する傾向があり、人間の脳のモデル化といった本質的な問題の解決策を見落としている可能性がある[215]

ウィリアム・クロクシンは人工知能研究を妨げる概念上の理由として、人工知能研究者が装置やコンピュータプログラムを使用するに当たって、誤った技法を用いている可能性があると述べている[208]。人工知能研究者が汎用人工知能を目標として研究を始めた当初、主な関心は人間の推論をエミュレートすることであった[148]。初期の研究者たちは、人間の推論を通じて人間の知性の数学的なモデル化を確立し、特定の認知機能を持つコンピュータを設計する方法について研究していた[148]

これに対し、研究において抽象化・再定義をしつつ作業を進める方法を用いれば、人工知能研究者にとっては複雑な概念に取り組むよりも、数個の概念に集中できる[148]。人工知能研究においては、計画と問題解決をする方法として抽象化を用いることが多い[148]。これらの方法は計算の高速化を目的として用いられるが、あまりに抽象化しすぎると問題が生じることもある[216]

さらに挙げられる人工知能の研究が遅れている理由としては、多くの研究者が人間のひらめき(ヒューリスティクス)がコンピュータの性能よりも圧倒的に優れていると認めている点にある[217]。しかしながら、よりコンピュータが高性能化すれば、人間のひらめきという能力すらも人工知能で再現できる可能性がある[218]。ひらめきという人間の能力は、必ずしも強いAIを実現するための必須条件であるとはみなされていないが、大きな課題であることは広く認められている。

根本的には、そもそも機械に感情を持たせるべきなのかという問題が存在する[219]。典型的な人工知能のモデルには感情という機能は実装されておらず、感情をプログラムとして実装することで初めて機械が感情を持つと主張するものもいる[208]。しかしながら、人間の感情というものは、個々人がそれまで経験してきたことの総括として存在するものでもある[148](デヴィッド・ゲランター)(英語版)は「人間の感情のニュアンスをすべてシュミレートできないかぎり、機械は創造的にはなれない」と発言している[148]。このように感情に関する問題は多数存在し、強いAIの研究が発展するにあたっては、これらの問題に向き合う必要があると言える[9][220]

関連項目

  •  人工脳 - 人間の脳や動物の脳と同等の認知能力を持つソフトウェアとハードウェア
  • (人工知能の安全性)(英語版)- 人工知能をより安全で有益なものにするための研究分野
  • (人工知能アライメント)(英語版)- 人工知能に開発者が意図した動作を行わせるための概念
  • A.I.ライジング - 2018年の映画
  • (自動機械学習)(英語版) - 機械学習を自動化する技術
  • ブレイン・イニシアチブ - オバマ大統領によって推進された大規模な脳研究プロジェクト
  • (中国脳プロジェクト)(英語版)- 中国で進行中の脳研究プロジェクト。合計15年間の研究期間で、最初の5年間だけで約1100億円が予算として組まれている。
  • (人類の未来研究所)(英語版)- オックスフォード大学によって設立された人工知能研究所
  • (General Game Playing)(英語版)- 人工知能に未知のゲームを提示し、初見のゲームを高い確立でプレイ可能なプログラムを作成する研究
  • (ヒューマン・ブレイン・プロジェクト)(英語版)- EU主導の脳研究プロジェクト
  • 知能増幅 - 人間の知能そのものを強化する試み
  • (機械のための倫理学)(英語版)- 知能を持った人工知能に人間的な倫理を教育する構想・研究
  • (マルチタスク学習)(英語版)- 複数のタスクを同時に学習させることによってタスクの予想精度を上げる機械学習の一種
  • (人工知能の概要)(英語版)- 人工知能技術の概要とガイド
  • トランスヒューマニズム - 哲学運動
  • 転移学習 - すでに学習済みのモデルを利用し、効率的に学習する機械学習の一種
  • ローブナー賞 - チューリングテストを行い、最も人間に近いとされた人工知能を表彰する賞
  • 弱いAI - 強いAIの対義的な存在

注釈

  1. ^ 強いAIの語源については「強いAI(英語版)」を参照。強いAIと弱いAIの学術的な定義については「中国語の部屋」を参照。
  2. ^ 「人工知能」という言葉を最初に使用したジョン・マッカーシーはこう発言している。「我々はまだ、なんらかの種類の計算手順が『知能的』である、といったことを特徴づけることが出来ていない」(どのように知能を定義するかというAI研究者による議論は(人工知能の哲学)(英語版)を参照)
  3. ^ (ライトヒル報告)(英語版)内ではAIの「非現実的な目標」について痛烈に批判し、イギリス国内でのAI研究は壊滅状態に陥った。一方、アメリカ合衆国のDARPAは、「基礎研究ではなく、実用可能な直接的な研究」にのみ資金提供を行うと決定した。
  4. ^ ジョン・マッカーシーは「ニューフォーマリズムの人たちが、人工知能への希望をより新しい形で表現してくれるならば、人工知能研究者にとってこれほどの救いはないだろう」と述べた。
  5. ^ 「マインドチルドレン」では10の15乗という値が採用されている。
  6. ^ ゲーツェルの汎用人工知能に関する書籍の中では、現在のハードウェアを最大限利用し、脳をシミュレーションするためには「コードとデータ」「感覚モダリティ」「概念と分類」「思考」「熟考(意識)」という、理解しなければならない5段階の問題があるとしている。
  7. ^ 標準的な人工知能の教科書で定義されているように、「機械が知的に行動する可能性がある(あるいは知的であるかのように振る舞うことがある)」という主張は、哲学者によって『弱いAI仮説』と呼ばれ、「機械が本質的に思考している(シミュレートしているのではない)」という主張は『強いAI仮説』と呼ばれている。
  8. ^ 意識を定義するのが非常に困難なことに注意。トマス・ネーゲルは意識があるということを「感じる」ことであるとしている。もし生物が意識をもっていないのならば、それは何も感じないということである。ネーゲルはコウモリを例に出しており、「コウモリであることはどんな気分であるか?」と感覚的に問うことはできるが、「トースターであることはどんな気分であるか?」と問うことはまずないとしている。これらのことから、コウモリは意識を持っているように見えるが、トースターは意識を持っていないと結論づけている。

脚注

  1. ^ Hodson, Hal (2019年3月1日). . (1843). オリジナルの2020年7月7日時点におけるアーカイブ。. 2020年7月7日閲覧. "AGI stands for Artificial General Intelligence, a hypothetical computer program..." 
  2. ^ Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (2019-10-04). “The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge” (英語). EMBO Reports 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID (31531926). https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6776890/. 
  3. ^ “OpenAI Charter” (英語). openai.com. 2023年4月25日閲覧。
  4. ^ “Real-world challenges for AGI” (英語). www.deepmind.com. 2023年4月25日閲覧。
  5. ^ “Core Views on AI Safety: When, Why, What, and How” (英語). Anthropic. 2023年4月25日閲覧。
  6. ^ Friederich, Simon (2023-03-16). “Symbiosis, not alignment, as the goal for liberal democracies in the transition to artificial general intelligence” (英語). AI and Ethics. doi:10.1007/s43681-023-00268-7. ISSN 2730-5961. https://doi.org/10.1007/s43681-023-00268-7. 
  7. ^ Cotra, Ajeya (英語). Two-year update on my personal AI timelines. https://www.alignmentforum.org/posts/AfH2oPHCApdKicM4m/two-year-update-on-my-personal-ai-timelines. 
  8. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018-07-31). “Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts” (英語). Journal of Artificial Intelligence Research 62: 729–754. doi:10.1613/jair.1.11222. ISSN 1076-9757. https://jair.org/index.php/jair/article/view/11222. 
  9. ^ a b Kaplan, Andreas; Haenlein, Michael (2019). “Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence”. Business Horizons 62: 15–25. doi:10.1016/j.bushor.2018.08.004. 
  10. ^ “Sparks of Artificial General Intelligence: Early experiments with GPT-4”. 2023年4月25日閲覧。
  11. ^ “Artificial general intelligence: Are we close, and does it even make sense to try?” (英語). MIT Technology Review. 2023年4月25日閲覧。
  12. ^ PhD, CP Lu (2023年4月17日). “Beyond the Turing Test: Two Scenarios for the Future of AGI” (英語). Medium. 2023年4月25日閲覧。
  13. ^ Anderson, Denise; Lassmann, Timo (2022-03-09). “An expanded phenotype centric benchmark of variant prioritisation tools”. Human Mutation 43 (5): 539–546. doi:10.1002/humu.24362. ISSN 1059-7794. http://dx.doi.org/10.1002/humu.24362. 
  14. ^ Zhang, Chaoning; Zhang, Chenshuang; Li, Chenghao; Qiao, Yu; Zheng, Sheng; Dam, Sumit Kumar; Zhang, Mengchun; Kim, Jung Uk et al. (2023-04-04). “One Small Step for Generative AI, One Giant Leap for AGI: A Complete Survey on ChatGPT in AIGC Era”. arXiv:2304.06488 [cs]. http://arxiv.org/abs/2304.06488. 
  15. ^ Baum, Seth, , Global Catastrophic Risk Institute Working Paper 20, オリジナルの14 November 2021時点におけるアーカイブ。, 2022年1月13日閲覧。 
  16. ^ Kurzweil, Ray (5 August 2005a), , Forbes, オリジナルの2005-08-14時点におけるアーカイブ。,  : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  17. ^ Treder, Mike (10 August 2005), , Responsible Nanotechnology, オリジナルの16 October 2019時点におけるアーカイブ。,  
  18. ^ “”. 2014年2月26日時点のオリジナルよりアーカイブ。2014年2月22日閲覧。
  19. ^ Newell, Allen (1980-04). “Physical Symbol Systems*” (英語). Cognitive Science 4 (2): 135–183. doi:10.1207/s15516709cog0402_2. http://doi.wiley.com/10.1207/s15516709cog0402_2. 
  20. ^ “What is Strong AI? | IBM” (英語). www.ibm.com. 2023年3月28日閲覧。
  21. ^ “”. 2009年9月25日時点のオリジナルよりアーカイブ。2007年10月8日閲覧。
  22. ^ Kurzweil, Ray (5 August 2005a), , Forbes, オリジナルの2005-08-14時点におけるアーカイブ。,  : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  23. ^ “https://www.cs.princeton.edu/courses/archive/spring11/cos126/lectures/ai-2x2.pdf”. 2023年3月25日閲覧。
  24. ^ Goertzel, Ben (2010年2月6日). “The Multiverse According to Ben: Siri, the new iPhone "AI personal assistant": Some useful niche applications, not so much AI”. The Multiverse According to Ben. 2023年3月28日閲覧。
  25. ^ Marr, Bernard (2021年7月2日). “What is Weak (Narrow) AI? Here Are 8 Practical Examples” (英語). Bernard Marr. 2023年3月28日閲覧。
  26. ^ Fetter, Amanda (2023年1月24日). “The difference between weak AI and strong AI” (英語). VoiceHQ. 2023年3月28日閲覧。
  27. ^ “THREE TYPES OF ARTIFICIAL INTELLIGENCE”. 2023年4月28日閲覧。
  28. ^ “Understanding employees’ responses to artificial intelligence”. 2023年4月27日閲覧。
  29. ^ Rainsberger, Livia (2022), Rainsberger, Livia, ed. (英語), Explanation: What Is New and Different About AI?, Springer Fachmedien, pp. 1–16, doi:10.1007/978-3-658-38251-3_1, ISBN (978-3-658-38251-3), https://doi.org/10.1007/978-3-658-38251-3_1 2023年4月28日閲覧。 
  30. ^ Pohl, Jens (2015-08-03). “Artificial Superintelligence: Extinction or Nirvana?”. Proceedings of InterSymp-2015, IIAS, 27th International Conference on Systems Research, Informatics, and Cybernetics. https://digitalcommons.calpoly.edu/arch_fac/82. 
  31. ^ “BEYOND MAD?: THE RACE FOR ARTIFICIAL GENERAL INTELLIGENCE”. 2023年4月28日閲覧。
  32. ^ Legg, Shane; Hutter, Marcus (2007-06-07). “A Collection of Definitions of Intelligence”. Proceedings of the 2007 conference on Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms: Proceedings of the AGI Workshop 2006 (NLD: IOS Press): 17–24. doi:10.5555/1565455.1565458. ISBN (978-1-58603-758-1). https://dl.acm.org/doi/10.5555/1565455.1565458. 
  33. ^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  34. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN (0-262-16239-3)
  35. ^ White, R. W. (1959). “Motivation reconsidered: The concept of competence”. Psychological Review 66 (5): 297–333. doi:10.1037/h0040934. PMID (13844397). 
  36. ^ Johnson 1987
  37. ^ Fjelland, Ragnar (2020-06-17). “Why general artificial intelligence will not be realized” (英語). Humanities and Social Sciences Communications 7 (1): 1–9. doi:10.1057/s41599-020-0494-4. ISSN 2662-9992. https://www.nature.com/articles/s41599-020-0494-4. 
  38. ^ Muehlhauser (2013年8月11日). “”. Machine Intelligence Research Institute. 2014年4月25日時点のオリジナルよりアーカイブ。2014年5月1日閲覧。
  39. ^ “” (英語). Talky Blog (2019年7月13日). 2019年7月17日時点のオリジナルよりアーカイブ。2019年7月17日閲覧。
  40. ^ “Strong AI vs Weak AI: What's the Difference | Built In” (英語). builtin.com. 2023年3月25日閲覧。
  41. ^ Voss, Peter (2017年1月21日). “Can the Turing Test confirm AGI?” (英語). Medium. 2023年3月25日閲覧。
  42. ^ “https://cse.buffalo.edu/~shapiro/Papers/ai.pdf”. 2023年3月25日閲覧。
  43. ^ “http://ftp.cs.ucla.edu/tech-report/198_-reports/870017.pdf”. 2023年3月25日閲覧。
  44. ^ Shapiro, Stuart C. (1992). “Artificial Intelligence”. In Stuart C. Shapiro. (Second ed.). New York: John Wiley. pp. 54–57. オリジナルの1 February 2016時点におけるアーカイブ。. http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf  (Section 4 is on "AI-Complete Tasks".)
  45. ^ “Artificial Intelligence”. ニューヨーク州立大学オスウィゴ校. 2023年3月27日閲覧。
  46. ^ Yampolskiy, Roman V. (2012). Xin-She Yang. ed. “Turing Test as a Defining Feature of AI-Completeness”. Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf. 
  47. ^ “http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf”. 2023年3月24日閲覧。
  48. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security 4 March 2016 at the Wayback Machine.. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  49. ^ Bergmair, Richard (7 January 2006). “Natural Language Steganography and an "AI-complete" Security Primitive”. CiteSeer. 
  50. ^ Hutter, Marcus (2005). . Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN (978-3-540-26877-2). オリジナルの19 July 2022時点におけるアーカイブ。. 2022年7月19日閲覧。 
  51. ^ Goertzel, Ben (2014). “Artificial General Intelligence: Concept, State of the Art, and Future Prospects”. Journal of Artificial General Intelligence 8598. doi:10.1007/978-3-319-09274-4. ISBN (978-3-319-09273-7). https://www.researchgate.net/publication/271390398. 
  52. ^ Leike, Jan; Hutter, Marcus (2015). . The 28th Conference on Learning Theory. 2022年12月6日時点のオリジナルよりアーカイブ。2022年12月6日閲覧
  53. ^ Bennett, Michael Timothy (2022). "Computable artificial general intelligence". arXiv:(2205.10513) [(cs.AI)]。
  54. ^ Ward, Dave; Silverman, David; Villalobos, Mario (2017). “Introduction: The Varieties of Enactivism”. Topoi 36 (1): 365–375. doi:10.1007/s11245-017-9484-6. 
  55. ^ Ward, Dave; Silverman, David; Villalobos, Mario (2017-09-01). “Introduction: The Varieties of Enactivism” (英語). Topoi 36 (3): 365–375. doi:10.1007/s11245-017-9484-6. ISSN 1572-8749. https://doi.org/10.1007/s11245-017-9484-6. 
  56. ^ a b Bennett, Michael Timothy (2021). . 14th Conference on Artificial General Intelligence. doi:10.1007/978-3-030-93758-4_4. 2022年7月19日時点のオリジナルよりアーカイブ。2022年7月19日閲覧
  57. ^ Chollet, Francois (2019). "On the Measure of Intelligence". arXiv:(1911.01547) [(cs.AI)]。
  58. ^ Hutter, Marcus. “Human Knowledge Compression Contest: Frequently Asked Questions & Answers” (英語). prize.hutter1.net. 2023年3月27日閲覧。
  59. ^ Bennett, Michael Timothy; Maruyama, Yoshihiro (2022). “Philosophical Specification of Empathetic Ethical Artificial Intelligence”. IEEE Transactions on Cognitive and Developmental Systems 14 (2): 292–300. arXiv:2107.10715. doi:10.1109/TCDS.2021.3099945. https://link.springer.com/article/10.1007/s11245-017-9484-6 2022年12月6日閲覧。. 
  60. ^ Bennett, Michael Timothy; Maruyama, Yoshihiro (2021). . 14th Conference on Artificial General Intelligence. doi:10.1007/978-3-030-93758-4_6. 2022年7月19日時点のオリジナルよりアーカイブ。2022年7月19日閲覧
  61. ^ Crevier 1993, pp. 48–50
  62. ^ “”. 2022年5月6日時点のオリジナルよりアーカイブ。2022年3月12日閲覧。
  63. ^ Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  64. ^ Crevier, Daniel (1993). AI : the tumultuous history of the search for artificial intelligence. Internet Archive. New York : BasicBooks. ISBN (978-0-465-00104-0). https://archive.org/details/aitumultuoushist00crev 
  65. ^ “”. 2012年7月16日時点のオリジナルよりアーカイブ。2008年4月5日閲覧。
  66. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  67. ^ “The History of Artificial Intelligence”. ワシントン大学. 2023年3月28日閲覧。
  68. ^ “”. web.archive.org (2007年8月17日). 2023年2月15日閲覧。
  69. ^ “”. web.archive.org (2007年5月15日). 2023年2月15日閲覧。
  70. ^ Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  71. ^ “”. web.archive.org (2008年1月12日). 2023年2月15日閲覧。
  72. ^ Crevier 1993, pp. 161–162, 197–203, 240; Russell & Norvig 2003, p. 25.
  73. ^ Crevier 1993, pp. 209–212
  74. ^ “https://www.researchgate.net/publication/322234922_History_of_Artificial_Intelligence”. 2023年3月25日閲覧。
  75. ^ ”. web.archive.org (2008年9月30日). 2023年2月15日閲覧。
  76. ^ Markoff, John (2005年10月14日). . The New York Times. オリジナルの2023年2月2日時点におけるアーカイブ。. 2017年2月18日閲覧. "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers." 
  77. ^ “https://publications.jrc.ec.europa.eu/repository/bitstream/JRC120469/jrc120469_historical_evolution_of_ai-v1.1.pdf”. 2023年3月25日閲覧。
  78. ^ Russell & Norvig 2003, pp. 25–26
  79. ^ “Strong and Weak AI: Deweyan Considerations”. CEUR Workshop Proceedings. 2023年3月27日閲覧。
  80. ^ “”. Gartner Reports. 2019年5月22日時点のオリジナルよりアーカイブ。2019年5月7日閲覧。
  81. ^ “https://www.cs.princeton.edu/courses/archive/spring11/cos126/lectures/ai-2x2.pdf”. 2023年3月25日閲覧。
  82. ^ Moravec 1988, p. 20
  83. ^ Harnad, S (1990). “The Symbol Grounding Problem”. Physica D 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode: 1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. 
  84. ^ Gubrud 1997
  85. ^ Wang & Goertzel 2007
  86. ^ “”. 2020年9月28日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  87. ^ “” (ブルガリア語). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020年7月26日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  88. ^ “” (ブルガリア語). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020年7月26日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  89. ^ (日本語) MIT AGI: Artificial General Intelligence, https://www.youtube.com/watch?v=-GV_A9Js2nM 2023年4月2日閲覧。 
  90. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). “Intelligence Quotient and Intelligence Grade of Artificial Intelligence”. Annals of Data Science 4 (2): 179–191. arXiv:1709.10242. Bibcode: 2017arXiv170910242L. doi:10.1007/s40745-017-0109-0. 
  91. ^ Brien (2017年10月5日). “” (ドイツ語). 2019年1月3日時点のオリジナルよりアーカイブ。2019年1月2日閲覧。
  92. ^ “Planning for AGI and beyond” (英語). openai.com. 2023年4月2日閲覧。
  93. ^ “Microsoft Considers $10 Billion Investment in ChatGPT Creator” (英語). Bloomberg.com. (2023年1月10日). https://www.bloomberg.com/news/articles/2023-01-10/microsoft-weighs-10-billion-chatgpt-investment-semafor-says 2023年4月2日閲覧。 
  94. ^ Grossman (2020年9月3日). “”. (VentureBeat). 2020年9月4日時点のオリジナルよりアーカイブ。2020年9月5日閲覧。 “"Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI."”
  95. ^ Quach. “”. The Register. 2021年10月16日時点のオリジナルよりアーカイブ。2021年10月16日閲覧。
  96. ^ Wiggers, Kyle (May 13, 2022), , TechCrunch, オリジナルの16 June 2022時点におけるアーカイブ。, 2022年6月12日閲覧。 
  97. ^ OpenAI (2023-03-16). “GPT-4 Technical Report”. arXiv:2303.08774 [cs]. http://arxiv.org/abs/2303.08774. 
  98. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat et al. (2023-03-22). “Sparks of Artificial General Intelligence: Early experiments with GPT-4”. arXiv:2303.12712 [cs]. http://arxiv.org/abs/2303.12712. 
  99. ^ “Identifying and Measuring Developments in Artificial Intelligence: making the impossible possible”. 2023年4月2日閲覧。
  100. ^ Goertzel, Ben; Wang, Pei (2007) (英語). Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms : Proceedings of the AGI Workshop 2006. IOS Press. ISBN (978-1-58603-758-1). https://books.google.co.jp/books?hl=ja&lr=lang_ja%7Clang_en&id=t2G5srpFRhEC&oi=fnd&pg=PR1&dq=info:yCnUCKP0-CMJ:scholar.google.com/&ots=hB1LoQSJS5&sig=ft96bWX7OEM5QnmtQ2Nkt40nk4s&redir_esc=y#v=onepage&q&f=false 
  101. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  102. ^ “”. web.archive.org (2013年3月20日). 2023年2月19日閲覧。
  103. ^ a b c (Kurzweil 2005, p. 260) or see Advanced Human Intelligence 30 June 2011 at the Wayback Machine. where he defines strong AI as "machine intelligence with the full range of human intelligence."
  104. ^ Goertzel, Ben (2007-12-01). “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil” (英語). Artificial Intelligence 171 (18): 1161–1173. doi:10.1016/j.artint.2007.10.011. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001464. 
  105. ^ Goertzel, Ben (2013-04-29), More, Max; Vita‐More, Natasha, eds. (英語), Artificial General Intelligence and the Future of Humanity (1 ed.), Wiley, pp. 128–137, doi:10.1002/9781118555927.ch12, ISBN (978-1-118-33429-4), https://onlinelibrary.wiley.com/doi/10.1002/9781118555927.ch12 2023年4月2日閲覧。 
  106. ^ Katja Grace (2016年). “”. AI Impacts. 2020年12月4日時点のオリジナルよりアーカイブ。2020年8月24日閲覧。
  107. ^ Raffi Khatchadourian (2015年11月23日). . (The New Yorker). オリジナルの2016年1月28日時点におけるアーカイブ。. 2016年2月7日閲覧。 
  108. ^ Brooks (2014年11月11日). “”. Robohub. 2023年2月2日時点のオリジナルよりアーカイブ。2022年5月31日閲覧。
  109. ^ “The subtle art of language: why artificial general intelligence might be impossible” (英語). Big Think. 2023年3月25日閲覧。
  110. ^ “Planning for AGI and beyond” (英語). openai.com. 2023年3月25日閲覧。
  111. ^ “Real-world challenges for AGI” (英語). www.deepmind.com. 2023年3月25日閲覧。
  112. ^ “https://intelligence.org/files/AGI-HMM.pdf”. 2023年3月25日閲覧。
  113. ^ Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  114. ^ Goertzel, Ben (2007-12-01). “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil” (英語). Artificial Intelligence 171 (18): 1161–1173. doi:10.1016/j.artint.2007.10.011. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001464. 
  115. ^ “http://www.fhi.ox.ac.uk/Reports/2008-3.pdf”. 2023年3月16日閲覧。
  116. ^ “ABS: Scanning Neural Networks for Back-doors by Artificial Brain Stimulation”. パデュー大学. 2023年3月27日閲覧。
  117. ^ Drachman, D. (2005). “Do we have brain to spare?” (英語). Neurology. https://www.semanticscholar.org/paper/Do-we-have-brain-to-spare-Drachman/7ab8452d744fa72700c30913d37afedb4d947705. 
  118. ^ “Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年2月19日閲覧。
  119. ^ Erdt, Terrence (1989). “Review of Mind Children, the Future of Robot and Human Intelligence”. Computers and the Humanities 23 (4/5): 445–448. ISSN 0010-4817. https://www.jstor.org/stable/30204385. 
  120. ^ Nawar, Haytham (2020). Language of Tomorrow: Towards a Transcultural Visual Communication System in a Posthuman Condition (NED - New edition ed.). Intellect. ISBN (978-1-78938-183-2). https://www.jstor.org/stable/j.ctv36xvqb7 
  121. ^ “Folding@Home exceeds 1.5 ExaFLOPS in the battle against Covid-19” (英語). TechSpot. 2023年3月27日閲覧。
  122. ^ “Artificial Neural Network - an overview | ScienceDirect Topics”. www.sciencedirect.com. 2023年3月25日閲覧。
  123. ^ “Deep Neural Networks Don't Lead Us Towards AGI” (英語). KDnuggets. 2023年3月25日閲覧。
  124. ^ “https://cis.temple.edu/~pwang/Publication/AGI-CNN.pdf”. 2023年3月25日閲覧。
  125. ^ Swaminathan, Nikhil (Jan–Feb 2011). “Glia—the other brain cells”. Discover. http://discovermagazine.com/2011/jan-feb/62 2014年1月24日閲覧。. 
  126. ^ Izhikevich, Eugene M.; Edelman, Gerald M. (2008-03-04). “Large-scale model of mammalian thalamocortical systems” (英語). Proceedings of the National Academy of Sciences 105 (9): 3593–3598. doi:10.1073/pnas.0712231105. ISSN 0027-8424. PMC PMC2265160. PMID (18292226). https://pnas.org/doi/full/10.1073/pnas.0712231105. 
  127. ^ Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). “Large-scale model of mammalian thalamocortical systems”. PNAS 105 (9): 3593–3598. Bibcode: 2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID (18292226). http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf 2015年6月23日閲覧。. 
  128. ^ “Project Milestones”. Blue Brain. 2008年8月11日閲覧。
  129. ^ . BBC News. (2009年7月22日). オリジナルの2017年7月26日時点におけるアーカイブ。. 2009年7月25日閲覧。 
  130. ^ University of Calgary news 18 August 2009 at the Wayback Machine., NBC News news 4 July 2017 at the Wayback Machine.
  131. ^ “”. web.archive.org (2006年6月15日). 2023年3月16日閲覧。
  132. ^ “OpenWorm: overview and recent advances in integrative biological simulation of Caenorhabditis elegans”. 2023年3月27日閲覧。
  133. ^ niconiconi (英語). Whole Brain Emulation: No Progress on C. elegans After 10 Years. https://www.lesswrong.com/posts/mHqQxwKuzZS69CXX5/whole-brain-emulation-no-progress-on-c-elegans-after-10. 
  134. ^ Yamakawa, Hiroshi (2021-12-01). “The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain” (英語). Neural Networks 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. https://www.sciencedirect.com/science/article/pii/S0893608021003543. 
  135. ^ de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  136. ^ “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil”. 2023年3月16日閲覧。
  137. ^ “]”. Honey Bee Brain. 2008年7月25日時点のオリジナルよりアーカイブ。2010年3月30日閲覧。
  138. ^ “”. web.archive.org (2009年4月11日). 2023年3月16日閲覧。
  139. ^ Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). “Dynamic model of the octopus arm. I. Biomechanics of the octopus reaching movement”. J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID (15829594). 
  140. ^ “5 unsolved mysteries about the brain” (英語). Allen Institute. 2023年4月2日閲覧。
  141. ^ Williams & Herrup 1988
  142. ^ “”. web.archive.org (2021年2月18日). 2023年3月16日閲覧。
  143. ^ “The Search for True Numbers of Neurons and Glial Cells in the Human Brain: A Review of 150 Years of Cell Counting”. アメリカ国立医学図書館. 2023年4月2日閲覧。
  144. ^ “Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年3月16日閲覧。
  145. ^ “Chinese Room Argument | Internet Encyclopedia of Philosophy” (英語). 2023年3月25日閲覧。
  146. ^ Cam, Philip (1990-03-01). “Searle on Strong AI”. Australasian Journal of Philosophy 68 (1): 103–108. doi:10.1080/00048409012340203. ISSN 0004-8402. https://doi.org/10.1080/00048409012340203. 
  147. ^ Baron, Corey (2017-04-19). “In Defense of Strong AI: Semantics as Second-Order Rules” (英語). Stance: an international undergraduate philosophy journal 10 (1): 38–49. doi:10.33043/S.10.1.38-49. ISSN 1943-1899. https://openjournals.bsu.edu/stance/article/view/1917. 
  148. ^ a b c d e f g h i j k l m “http://lib.ysu.am/disciplines_bk/b7707dde83ee24b2b23999b4df5fd988.pdf”. 2023年3月25日閲覧。
  149. ^ “Paradigms of Artificial Intelligence Programming” (英語). dl.acm.org. doi:10.5555/530559. 2023年3月25日閲覧。
  150. ^ “”. web.archive.org (2011年10月16日). 2023年3月16日閲覧。
  151. ^ “https://www.accessnow.org/wp-content/uploads/2018/11/AI-and-Human-Rights.pdf”. 2023年3月25日閲覧。
  152. ^ a b c Sotala, Kaj; Yampolskiy, Roman V. (2014-12-19). “Responses to catastrophic AGI risk: a survey”. (Physica Scripta) 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949. 
  153. ^ “”. web.archive.org (2006年6月15日). 2023年2月15日閲覧。
  154. ^ Bołtuć, Piotr (2020-01-01). “Consciousness for AGI” (英語). Procedia Computer Science 169: 365–372. doi:10.1016/j.procs.2020.02.231. ISSN 1877-0509. https://www.sciencedirect.com/science/article/pii/S1877050920303549. 
  155. ^ Joshi, Naveen. “Chasing The Myth: Why Achieving Artificial General Intelligence May Be A Pipe Dream” (英語). Forbes. 2023年3月25日閲覧。
  156. ^ “”. web.archive.org (2009年4月11日). 2023年3月16日閲覧。
  157. ^ “https://dictionary.cambridge.org/us/dictionary/english/superintelligence”. 2023年3月25日閲覧。
  158. ^ “https://consc.net/papers/singularity.pdf”. 2023年3月25日閲覧。
  159. ^ “http://mattmahoney.net/rsi.pdf”. 2023年3月25日閲覧。
  160. ^ Wang, Wenyi (2018-05-17). “A Formulation of Recursive Self-Improvement and Its Possible Efficiency”. arXiv:1805.06610 [cs]. http://arxiv.org/abs/1805.06610. 
  161. ^ “https://intelligence.org/files/IE-EI.pdf”. 2023年3月25日閲覧。
  162. ^ “”. web.archive.org (2001年5月27日). 2023年3月25日閲覧。
  163. ^ Stoddard, George D. (1941-12-15). “Patterns of Growth in Human Intelligence” (英語). Proceedings of the National Academy of Sciences 27 (12): 551–555. doi:10.1073/pnas.27.12.551. ISSN 0027-8424. PMC PMC1078380. PMID (16588502). https://pnas.org/doi/full/10.1073/pnas.27.12.551. 
  164. ^ “https://dorshon.com/wp-content/uploads/2017/05/superintelligence-paths-dangers-strategies-by-nick-bostrom.pdf”. 2023年3月25日閲覧。
  165. ^ “https://philpapers.org/archive/MLLFPI”. 2023年3月25日閲覧。
  166. ^ Gill, Karamjit S. (2016-05-01). “Artificial super intelligence: beyond rhetoric” (英語). AI & SOCIETY 31 (2): 137–143. doi:10.1007/s00146-016-0651-x. ISSN 1435-5655. https://doi.org/10.1007/s00146-016-0651-x. 
  167. ^ “a book review by Christopher M. Doran: Our Final Invention: Artificial Intelligence and the End of the Human Era”. www.nyjournalofbooks.com. 2023年3月25日閲覧。
  168. ^ Rogers, Adam. “Council Post: What Deep Blue And AlphaGo Can Teach Us About Explainable AI” (英語). Forbes. 2023年3月28日閲覧。
  169. ^ Metz, Cade. “Google's AI Wins Pivotal Second Game in Match With Go Grandmaster” (英語). Wired. ISSN 1059-1028. https://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/ 2023年3月28日閲覧。 
  170. ^ “What AlphaGo’s sly move says about machine creativity” (英語). Washington Post. ISSN 0190-8286. https://www.washingtonpost.com/news/innovations/wp/2016/03/15/what-alphagos-sly-move-says-about-machine-creativity/ 2023年3月28日閲覧。 
  171. ^ “Artificial superintelligence and its limits: why AlphaZero cannot become a general agent”. 2023年3月28日閲覧。
  172. ^ Yampolskiy, Roman V (2017-07-28). “What are the ultimate limits to computational techniques: verifier theory and unverifiability”. Physica Scripta 92 (9): 093001. doi:10.1088/1402-4896/aa7ca8. ISSN 0031-8949. https://iopscience.iop.org/article/10.1088/1402-4896/aa7ca8. 
  173. ^ Bassler, O. Bradley (2006-01-01). “The Surveyability of Mathematical Proof: A Historical Perspective” (英語). Synthese 148 (1): 99–133. doi:10.1007/s11229-004-6221-7. ISSN 1573-0964. https://doi.org/10.1007/s11229-004-6221-7. 
  174. ^ Coleman, Edwin (2009-03-01). “The Surveyability of Long Proofs” (英語). Foundations of Science 14 (1): 27–43. doi:10.1007/s10699-008-9145-8. ISSN 1572-8471. https://doi.org/10.1007/s10699-008-9145-8. 
  175. ^ “Unexplainability and Incomprehensibility of Artificial Intelligence”. 2023年3月28日閲覧。
  176. ^ “GOODBYE, CENTRAL: CRANK PHONE DIES” (英語). The New York Times. (1983年10月12日). ISSN 0362-4331. https://www.nytimes.com/1983/10/12/us/goodbye-central-crank-phone-dies.html 2023年5月4日閲覧。 
  177. ^ Chuang, Szufang; Graham, Carroll (2018). “Embracing the sobering reality of technological influences on jobs, employment and human resource development” (英語). European Journal of Training and Development. https://www.semanticscholar.org/paper/Embracing-the-sobering-reality-of-technological-on-Chuang-Graham/d2bcd02c6e895772f9ea4b0bfeb8d488d910b8c9. 
  178. ^ Leontief, Wassily (1983). “Technological Advance, Economic Growth, and the Distribution of Income”. Population and Development Review 9 (3): 403–410. doi:10.2307/1973315. ISSN 0098-7921. https://www.jstor.org/stable/1973315. 
  179. ^ McGaughey, Ewan (2018-01-10) (英語). Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy. Rochester, NY. https://papers.ssrn.com/abstract=3044448. 
  180. ^ Walsh, Toby (2018-06-13). “Expert and Non-expert Opinion About Technological Unemployment” (英語). Machine Intelligence Research 15 (5): 637–642. doi:10.1007/s11633-018-1127-x. ISSN 2731-538X. https://www.mi-research.net/en/article/doi/10.1007/s11633-018-1127-x. 
  181. ^ “THE IMPACT OF ARTIFICIAL INTELLIGENCE ON THE FUTURE OF WORKFORCES IN THE EUROPEAN UNION AND THE UNITED STATES OF AMERICA”. 2023年5月4日閲覧。
  182. ^ “Automation and anxiety”. The Economist. ISSN 0013-0613. https://www.economist.com/special-report/2016/06/23/automation-and-anxiety 2023年5月4日閲覧。 
  183. ^ “US experts warn AI likely to kill off jobs – and widen wealth inequality | Artificial intelligence (AI) | The Guardian”. amp.theguardian.com. 2023年5月4日閲覧。
  184. ^ Simon, Charles. “Council Post: AGI Is Ready To Emerge (Along With The Risks It Will Bring)” (英語). Forbes. 2023年5月4日閲覧。
  185. ^ “NOTES FROM THE AI FRONTIER MODELING THE IMPACT OF AI ON THE WORLD ECONOMY”. 2023年5月5日閲覧。
  186. ^ “”. web.archive.org (2018年2月5日). 2023年3月25日閲覧。
  187. ^ Müller, Vincent C. (2014-07-03). “Risks of general artificial intelligence”. Journal of Experimental & Theoretical Artificial Intelligence 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. 
  188. ^ Turchin, Alexey (2019-03-01). “Assessing the future plausibility of catastrophically dangerous AI” (英語). Futures 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. https://www.sciencedirect.com/science/article/pii/S0016328718301319. 
  189. ^ Rawlinson, Kevin. . BBC News. オリジナルの2015年1月29日時点におけるアーカイブ。. 2015年1月30日閲覧。 
  190. ^ “Stephen Hawking: 'Are we taking Artificial Intelligence seriously” (英語). The Independent (2014年5月1日). 2023年3月24日閲覧。
  191. ^ McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (2021-08-13). “The risks associated with Artificial General Intelligence: A systematic review”. Journal of Experimental & Theoretical Artificial Intelligence: 1–15. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. 
  192. ^ Hendrycks, Dan; Carlini, Nicholas; Schulman, John; Steinhardt, Jacob (2022-06-16). “Unsolved Problems in ML Safety”. arXiv:2109.13916 [cs]. http://arxiv.org/abs/2109.13916. 
  193. ^ “”. web.archive.org (2023年2月10日). 2023年3月25日閲覧。
  194. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN (978-0199678112) 
  195. ^ Naudé, Wim; Dimitri, Nicola (2020-06-01). “The race for an artificial general intelligence: implications for public policy” (英語). AI & Society 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. 
  196. ^ Torres, Phil (2019-05-04). “The possibility and risks of artificial general intelligence”. Bulletin of the Atomic Scientists 75 (3): 105–108. Bibcode: 2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. https://doi.org/10.1080/00963402.2019.1604873 2022年8月29日閲覧。. 
  197. ^ Turchin, Alexey; Denkenberger, David (2018-07-27), , Artificial Intelligence Safety and Security (First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC): 375–393, doi:10.1201/9781351251389-25, ISBN (978-1-351-25138-9), オリジナルの2 February 2023時点におけるアーカイブ。, 2022年8月29日閲覧。 
  198. ^ Carayannis, Elias G.; Draper, John (2022-01-11). “Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence” (英語). AI & Society: 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID (35035113). https://doi.org/10.1007/s00146-021-01382-y 2022年8月29日閲覧。. 
  199. ^ “”. web.archive.org (2020年11月8日). 2023年3月25日閲覧。
  200. ^ Yamakawa, Hiroshi (2021-12-01). “The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain” (英語). Neural Networks 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. https://www.sciencedirect.com/science/article/pii/S0893608021003543. 
  201. ^ itu.int: Beyond Mad?: The Race For Artificial General Intelligence 9 November 2020 at the Wayback Machine., "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  202. ^ Gambini-Buffalo, Bert (2022年8月25日). “Book: AI is cool, but nowhere near human capacity” (英語). Futurity. 2023年4月2日閲覧。
  203. ^ “http://lib.ysu.am/disciplines_bk/b7707dde83ee24b2b23999b4df5fd988.pdf”. 2023年3月25日閲覧。
  204. ^ Allen, Paul; Greaves, Mark (2011年10月12日). “The Singularity Isn't Near”. MIT Technology Review. http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ 2014年9月17日閲覧。 
  205. ^ Winfield, Alan. . The Guardian. オリジナルの2014年9月17日時点におけるアーカイブ。. 2014年9月17日閲覧。 
  206. ^ (英語). IEEE Spectrum: Technology, Engineering, and Science News (SPECIAL REPORT: THE SINGULARITY). (2008年6月1日). オリジナルの2019年4月30日時点におけるアーカイブ。. 2020年4月8日閲覧。 
  207. ^ Clocksin, W. (2003). “Artificial intelligence and the future” (英語). Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences. https://www.semanticscholar.org/paper/Artificial-intelligence-and-the-future-Clocksin/784cb587a17a0dc354ae4119ef070452f2de7d70. 
  208. ^ a b c d Clocksin, William F. (2003-08-15). MacFarlane, A. G. J.. ed. “Artificial intelligence and the future” (英語). Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://royalsocietypublishing.org/doi/10.1098/rsta.2003.1232. 
  209. ^ “MORAVEC’S PARADOX: CONSIDERATION IN THE CONTEXT OF TWO BRAIN HEMISPHERE FUNCTIONS”. 2023年3月25日閲覧。
  210. ^ Narayan, Ranjani C. (2018年1月28日). “The AI Paradox” (英語). Digital Flâneur. 2023年3月16日閲覧。
  211. ^ Strickland, Eliza (2021-10). “The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle?”. IEEE Spectrum 58 (10): 26–31. doi:10.1109/MSPEC.2021.9563956. ISSN 1939-9340. https://ieeexplore.ieee.org/document/9563956. 
  212. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  213. ^ Yamakawa, Hiroshi (2021-12-01). “The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain” (英語). Neural Networks 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. https://www.sciencedirect.com/science/article/pii/S0893608021003543. 
  214. ^ Jones, David T.; Kerber, Kevin A. (2022-02-08). “Artificial Intelligence and the Practice of Neurology in 2035: The Neurology Future Forecasting Series” (英語). Neurology 98 (6): 238–245. doi:10.1212/WNL.0000000000013200. ISSN 0028-3878. PMID (35131918). https://n.neurology.org/content/98/6/238. 
  215. ^ Goertzel, Ben (2007-12-01). “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil” (英語). Artificial Intelligence 171 (18): 1161–1173. doi:10.1016/j.artint.2007.10.011. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001464. 
  216. ^ Zucker, Jean-Daniel (2003-07-29). “A grounded theory of abstraction in artificial intelligence”. Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences 358 (1435): 1293–1309. doi:10.1098/rstb.2003.1308. ISSN 0962-8436. PMC 1693211. PMID (12903672). https://pubmed.ncbi.nlm.nih.gov/12903672/. 
  217. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  218. ^ “https://agi-conf.org/2010/wp-content/uploads/2009/06/paper_41.pdf”. 2023年3月25日閲覧。
  219. ^ Deane, George (2022). “Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence”. Artificial Life 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID (35881678). http://dx.doi.org/10.1162/artl_a_00368. 
  220. ^ Priyadarshini, Ishaani; Cotton, Chase (2022). “AI Cannot Understand Memes: Experiments with OCR and Facial Emotions” (英語). Computers, Materials & Continua 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. https://www.techscience.com/cmc/v70n1/44391 2022年8月28日閲覧。. 

出典

  • 『UNESCO Science Report: the Race Against Time for Smarter Development.』UNESCO、Paris、2021年6月11日。ISBN (978-92-3-100450-6)。 オリジナルの2022年6月18日時点におけるアーカイブhttps://unesdoc.unesco.org/ark:/48223/pf0000377433/PDF/377433eng.pdf.multi2021年9月22日閲覧 
  • (AleksanderIgor)『Impossible Minds』World Scientific Publishing Company、1996年。ISBN (978-1-86094-036-1)https://archive.org/details/impossiblemindsm0000alek 
  • 「」『The Journal of Comparative Neurology』第513巻第5号、532–41頁、2009年4月。doi:10.1002/cne.21974。PMID (19226510)。 オリジナルの2021年2月18日時点におけるアーカイブ2013年9月4日閲覧 
  • BerglasAnthony2008年。 オリジナルの2014年7月23日時点におけるアーカイブ2012年8月31日閲覧 
  • ChalmersDavid『The Conscious Mind』Oxford University Press.、1996年。 
  • ClocksinWilliam「Artificial intelligence and the future」『(Philosophical Transactions of the Royal Society A)』第361巻第1809号、1721–1748頁、2003年8月。Bibcode: 2003RSPTA.361.1721C。doi:10.1098/rsta.2003.1232。PMID (12952683)。 .
  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN (0-465-02997-3)。
  • DarrachBrad「Meet Shakey, the First Electronic Person」『(Life Magazine)』、58–68頁1970年11月20日。 .
  • DrachmanD「Do we have brain to spare?」『Neurology』第64巻第12号、2004–5頁、2005年。doi:10.1212/01.WNL.0000166914.38327.BB。PMID (15985565)。 .
  • (FeigenbaumEdward A.); (McCorduckPamela)『The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World』Michael Joseph、1983年。ISBN (978-0-7181-2401-4)。 
  • GelernterDavid2010年。 オリジナルの2010年7月26日時点におけるアーカイブ2010年7月25日閲覧 
  • GoertzelBen; PennachinCassio 編Springer、2006年。ISBN (978-3-540-23733-4)。 オリジナルの2013年3月20日時点におけるアーカイブ 
  • (GoertzelBen)「」『Artificial Intelligence』第171巻18, Special Review Issue、1161–1173頁、2007年12月。doi:10.1016/j.artint.2007.10.011。 オリジナルの2016年1月7日時点におけるアーカイブ2009年4月1日閲覧 .
  • GubrudMark「」『Fifth Foresight Conference on Molecular Nanotechnology』1997年11月。 オリジナルの2011年5月29日時点におけるアーカイブ2011年5月7日閲覧 
  • “”. 2013年6月6日時点のオリジナルよりアーカイブ。2023年2月15日閲覧。
  • HolteRC; ChoueiryBY「Abstraction and reformulation in artificial intelligence」『(Philosophical Transactions of the Royal Society B)』第358巻第1435号、1197–1204頁、2003年。doi:10.1098/rstb.2003.1317。PMC 1693218。PMID (12903653)http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid=1693218 .
  • HoweJ.1994年11月。 オリジナルの2007年8月17日時点におけるアーカイブ2007年8月30日閲覧 
  • JohnsonMark『The body in the mind』Chicago、1987年。ISBN (978-0-226-40317-5)。 
  • KurzweilRay『The Singularity is Near』Viking Press、2005年。 
  • (LighthillProfessor Sir James)「Artificial Intelligence: A General Survey」『Artificial Intelligence: a paper symposium』Science Research Council、1973年。 
  • LugerGeorge; StubblefieldWilliam『Artificial Intelligence: Structures and Strategies for Complex Problem Solving』(5th)The Benjamin/Cummings Publishing Company, Inc.、2004年、720頁。ISBN (978-0-8053-4780-7)https://archive.org/details/artificialintell0000luge/page/720 
  • (McCarthyJohn)「From here to human-level AI」『Artificial Intelligence』第171巻第18号、1174–1182頁、2007年10月。doi:10.1016/j.artint.2007.10.009。 .
  • McCorduck, Pamela (2004), Machines Who Think (2 ed.), Natick, MA: A. K. Peters, Ltd., ISBN (1-56881-205-1), http://www.pamelamc.com/html/machines_who_think.html 
  • (MoravecHans)1976年。 オリジナルの2016年3月3日時点におけるアーカイブ2007年9月29日閲覧 
  • (MoravecHans)『Mind Children』Harvard University Press、1988年。 
  • MoravecHans「」『Journal of Evolution and Technology』第1巻、1998年。 オリジナルの2006年6月15日時点におけるアーカイブ2006年6月23日閲覧 
  • Nagel「」『Philosophical Review』第83巻第4号、435–50頁、1974年。doi:10.2307/2183914。JSTOR 2183914。 オリジナルの2011年10月16日時点におけるアーカイブ2009年11月7日閲覧 .
  • (NewellAllen); SimonH. A. 著「GPS: A Program that Simulates Human Thought」、FeigenbaumE.A.; FeldmanJ. 編『Computers and Thought』McGraw-Hill、New York、1963年。 
  • (Newell, Allen); Simon, H. A. (1976). “Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM 19 (3): 113–126. doi:10.1145/360018.360022. 
  • (NilssonNils)『Artificial Intelligence: A New Synthesis』Morgan Kaufmann Publishers、1998年。ISBN (978-1-55860-467-4)。 
  • (NRC)「Developments in Artificial Intelligence」National Academy Press、1999年。 オリジナルの2008年1月12日時点におけるアーカイブhttp://www.nap.edu/readingroom/books/far/ch9.html2007年9月29日閲覧 
  • (OmohundroSteve)『The Nature of Self-Improving Artificial Intelligence』presented and distributed at the 2007 Singularity Summit, San Francisco, CA.、2008年。 
  • (PooleDavid); MackworthAlan; GoebelRandyOxford University Press、New York、1998年。 オリジナルの2009年7月25日時点におけるアーカイブ2007年12月6日閲覧 
  • Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN (0-13-790395-2), http://aima.cs.berkeley.edu/ 
  • SandbergAnders; BoströmNickFuture of Humanity Institute, Oxford University〈Technical Report #2008‐3〉、2008年。 オリジナルの2020年3月25日時点におけるアーカイブ2009年4月5日閲覧 
  • SearleJohn「」『Behavioral and Brain Sciences』第3巻第3号、417–457頁、1980年。doi:10.1017/S0140525X00005756。 オリジナルの2019年3月17日時点におけるアーカイブ2020年9月3日閲覧 
  • SimonH. A.『The Shape of Automation for Men and Management』Harper & Row、New York、1965年。 
  • SutherlandJ.G.「Holographic Model of Memory, Learning, and Expression」『International Journal of Neural Systems』1–3、256–267頁、1990年。 .
  • de VegaManuel; GlenbergArthur; GraesserArthur 編『Symbols and Embodiment: Debates on meaning and cognition』Oxford University Press、2008年。ISBN (978-0-19-921727-4)。 .
  • Wang, Pei、Goertzel, Ben「Introduction: Aspects of Artificial General Intelligence」『Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms: Proceedings of the AGI Workshop 2006』2007年、1–16頁。ISBN (978-1-58603-758-1)。 オリジナルの2021年2月18日時点におけるアーカイブhttps://www.researchgate.net/publication/2348011542020年12月13日閲覧 
  • 「The control of neuron number」『Annual Review of Neuroscience』第11巻、423–53頁、1988年。doi:10.1146/annurev.ne.11.030188.002231。PMID (3284447)。 .
  • (YudkowskyEliezer)「」『Annual Review of Psychology』第49巻、Springer、585–612頁、2006年。doi:10.1146/annurev.psych.49.1.585。ISBN (978-3-540-23733-4)。PMID (9496632)。 オリジナルの2009年4月11日時点におけるアーカイブ .
  • (YudkowskyEliezer)「Artificial Intelligence as a Positive and Negative Factor in Global Risk」『Global Catastrophic Risks』2008年。Bibcode: 2008gcr..book..303Y。doi:10.1093/oso/9780198570509.003.0021。ISBN (9780198570509)。 .
  • ZuckerJean-Daniel「A grounded theory of abstraction in artificial intelligence」『(Philosophical Transactions of the Royal Society B)』第358巻第1435号、1293–1309頁、2003年7月。doi:10.1098/rstb.2003.1308。PMC 1693211。PMID (12903672)http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid=1693211 .

外部リンク

  • The AGI portal maintained by Pei Wang
  • – Modern research on the computations that underlay human intelligence
  • OpenCog – open source project to develop a human-level AI
  • Simulating logical human thought
  • What Do We Know about AI Timelines? – Literature review
ウィキペディア、ウィキ、本、library、論文、読んだ、ダウンロード、自由、無料ダウンロード、mp3、video、mp4、3gp、 jpg、jpeg、gif、png、画像、音楽、歌、映画、本、ゲーム、ゲーム。