人工知能
じんこう・ちのう artificial intelligence, AI
解説:池田光穂
人工知能 (AI)とは、計算科学では、連合学習 (Federated learning)を機械におこなわせることである。また、一般的には、人工知能とは、(1)人間の知性・ 知能を計算機によって作り出すこと、(2)作り出され た〈実体〉、あるいは、(3)このことに関 する学問分野や実践、さらには欲望など、を指す多義的な意味をもつ言葉である。俗にいう人工知能(artificial intelligence)とは、コンピュータ科学が定義する、「機械学習」+ 「デープラーニング」+「連合学習=フェデレーティッド・ラーニング」の3つの様態の人工的な学習プロセスのことであり、これは有機体としての人間がおこ なっている「人間学習(human learning)」とは根本的異なっている代物である。その意味で、人間学習は、非人工知能学習(natural learning)のことであり、人工知能がシリコンチップによる無機学 習だとすれば、有機学習であるとも言える。英 語のウィキペディアはそのことを正しく定義している;"Artificial intelligence (AI) is intelligence demonstrated by machines, as opposed to the natural intelligence displayed by humans or animals."(人工知能(AI)とは、人間や動物が示す自然な知能とは異なり、機械が示す知能のことである)(→「人工知能(辞書的定義)」「人工知能の定義をめぐる支離滅裂さ」「人工知能・機械学習・深層学習・連合=協調学習」)
こ こで言う知性・知能とは、単に計算能力だけでなく、推論や学習などの高度の知的能力(それゆえ インテリジェンスの語がつく)のことである。この知的能力の様式をもった[あるいは類似の]活動が計算機=コンピュータにある時[あるいは、あるように思 える時]、技術者は人工知能(AI)を使っていると表現する。計算科学者のジャン=ガブリエル・ガナシアはこういう:「そもそも知能とは、単純作業を実施 するスピードのことでも、メモリに保存された情報量のことでもない。演算能力が向上したり記憶容量が増えたりしたからといって、自動的に知能が生じるわけ ではない」(ガナシア 2019:60)。
人間の知性・知能と計算機のそれは、同じであるのか、そうでないのか。あるいは、将来可能になる のか、ならないのかという学問的議論は、人工知能論争(じんこうちのう・ろんそう, AI論争)と呼ばれており、その決着はついていない(知性・知能の定義次第で、議論は大幅に変わりうるので、永遠に決着が着かないという表現も、もう決着 はついているという表現もともに可能である)。人間と同じ能力をもつ人工知能は、汎用人工知能(Artificial general intelligence)と呼ばれる。
![]()
|
☆人工知能(Artificial intelligence, AI)
Artificial intelligence
(AI) is the capability of computational systems to perform tasks
typically associated with human intelligence, such as learning,
reasoning, problem-solving, perception, and decision-making. It is a
field of research in computer science that develops and studies methods
and software that enable machines to perceive their environment and use
learning and intelligence to take actions that maximize their chances
of achieving defined goals.[1] High-profile applications of AI include advanced web search engines (e.g., Google Search); recommendation systems (used by YouTube, Amazon, and Netflix); virtual assistants (e.g., Google Assistant, Siri, and Alexa); autonomous vehicles (e.g., Waymo); generative and creative tools (e.g., language models and AI art); and superhuman play and analysis in strategy games (e.g., chess and Go). However, many AI applications are not perceived as AI: "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore."[2][3] Various subfields of AI research are centered around particular goals and the use of particular tools. The traditional goals of AI research include learning, reasoning, knowledge representation, planning, natural language processing, perception, and support for robotics.[a] To reach these goals, AI researchers have adapted and integrated a wide range of techniques, including search and mathematical optimization, formal logic, artificial neural networks, and methods based on statistics, operations research, and economics.[b] AI also draws upon psychology, linguistics, philosophy, neuroscience, and other fields.[4] Some companies, such as OpenAI, Google DeepMind and Meta,[5] aim to create artificial general intelligence (AGI)—AI that can complete virtually any cognitive task at least as well as a human. Artificial intelligence was founded as an academic discipline in 1956,[6] and the field went through multiple cycles of optimism throughout its history,[7][8] followed by periods of disappointment and loss of funding, known as AI winters.[9][10] Funding and interest vastly increased after 2012 when graphics processing units started being used to accelerate neural networks and deep learning outperformed previous AI techniques.[11] This growth accelerated further after 2017 with the transformer architecture.[12] In the 2020s, an ongoing period of rapid progress in advanced generative AI became known as the AI boom. Generative AI's ability to create and modify content has led to several unintended consequences and harms, which has raised ethical concerns about AI's long-term effects and potential existential risks, prompting discussions about regulatory policies to ensure the safety and benefits of the technology. |
人工知能(AI)とは、学習、推論、問題解決、知覚、意思決定など、通
常人間の知能に関連するタスクを実行する計算システムの能力のことです。これは、機械が環境を知覚し、学習と知能を用いて、定義された目標を達成する可能
性を最大限に高める行動を取ることを可能にする手法やソフトウェアを開発、研究するコンピュータサイエンスの研究分野です。[1] AI の注目すべき応用例としては、高度なウェブ検索エンジン(Google 検索など)、レコメンデーションシステム(YouTube、Amazon、Netflix で使用)、 バーチャルアシスタント(例:Googleアシスタント、Siri、Alexa)、自律走行車(例:Waymo)、生成型・創造的ツール(例:言語モデ ル、AIアート)、戦略ゲーム(例:チェス、囲碁)における超人的なプレイと分析などがあります。しかし、多くのAIアプリケーションはAIとして認識さ れていません:「最先端のAIの多くは、一般アプリケーションに浸透していますが、有用で一般的になるとAIと呼ばれなくなるため、AIと呼ばれないこと が多いのです。」[2][3] AI 研究のさまざまなサブフィールドは、特定の目標と特定のツールの使用を中心に展開されている。AI 研究の伝統的な目標には、学習、推論、知識表現、計画、自然言語処理、知覚、ロボット工学の支援などがある。[a] これらの目標を達成するために、AI 研究者は、検索や数学的最適化、形式論理、人工ニューラルネットワーク、統計、オペレーションズリサーチ、経済学に基づく手法など、幅広い技術を適応、統 合してきた。[b] AIは、心理学、言語学、哲学、神経科学、その他の分野からも影響を受けている。[4] OpenAI、Google DeepMind、Meta[5]などの企業は、人工汎用知能(AGI)——人間と同等以上の認知タスクをほぼすべて実行できるAI——の創造を目指して いる。 人工知能は1956年に学術分野として設立され[6]、その歴史を通じて複数の楽観的なサイクルを経て[7][8]、失望と資金不足の時期(AIの冬)を 経験してきました[9][10]。2012年以降、グラフィック処理ユニットがニューラルネットワークの加速に利用され、ディープラーニングが従来のAI 技術を凌駕したことで、資金と関心は急増しました。[11] 2017年以降、トランスフォーマーアーキテクチャの登場により、この成長はさらに加速した。[12] 2020年代には、高度な生成AIの急速な進展が続く期間が「AIブーム」として知られるようになった。生成AIがコンテンツを作成・改変する能力は、い くつかの予期せぬ結果や害を引き起こし、AIの長期的な影響や潜在的な存在リスクに関する倫理的な懸念を招き、技術の安全性と利益を確保するための規制政 策に関する議論を促している。 |
Goals The general problem of simulating (or creating) intelligence has been broken into subproblems. These consist of particular traits or capabilities that researchers expect an intelligent system to display. The traits described below have received the most attention and cover the scope of AI research.[a] Reasoning and problem-solving Early researchers developed algorithms that imitated step-by-step reasoning that humans use when they solve puzzles or make logical deductions.[13] By the late 1980s and 1990s, methods were developed for dealing with uncertain or incomplete information, employing concepts from probability and economics.[14] Many of these algorithms are insufficient for solving large reasoning problems because they experience a "combinatorial explosion": They become exponentially slower as the problems grow.[15] Even humans rarely use the step-by-step deduction that early AI research could model. They solve most of their problems using fast, intuitive judgments.[16] Accurate and efficient reasoning is an unsolved problem. Knowledge representation ![]() An ontology represents knowledge as a set of concepts within a domain and the relationships between those concepts. Knowledge representation and knowledge engineering[17] allow AI programs to answer questions intelligently and make deductions about real-world facts. Formal knowledge representations are used in content-based indexing and retrieval,[18] scene interpretation,[19] clinical decision support,[20] knowledge discovery (mining "interesting" and actionable inferences from large databases),[21] and other areas.[22] A knowledge base is a body of knowledge represented in a form that can be used by a program. An ontology is the set of objects, relations, concepts, and properties used by a particular domain of knowledge.[23] Knowledge bases need to represent things such as objects, properties, categories, and relations between objects;[24] situations, events, states, and time;[25] causes and effects;[26] knowledge about knowledge (what we know about what other people know);[27] default reasoning (things that humans assume are true until they are told differently and will remain true even when other facts are changing);[28] and many other aspects and domains of knowledge. Among the most difficult problems in knowledge representation are the breadth of commonsense knowledge (the set of atomic facts that the average person knows is enormous);[29] and the sub-symbolic form of most commonsense knowledge (much of what people know is not represented as "facts" or "statements" that they could express verbally).[16] There is also the difficulty of knowledge acquisition, the problem of obtaining knowledge for AI applications.[c] Planning and decision-making An "agent" is anything that perceives and takes actions in the world. A rational agent has goals or preferences and takes actions to make them happen.[d][32] In automated planning, the agent has a specific goal.[33] In automated decision-making, the agent has preferences—there are some situations it would prefer to be in, and some situations it is trying to avoid. The decision-making agent assigns a number to each situation (called the "utility") that measures how much the agent prefers it. For each possible action, it can calculate the "expected utility": the utility of all possible outcomes of the action, weighted by the probability that the outcome will occur. It can then choose the action with the maximum expected utility.[34] In classical planning, the agent knows exactly what the effect of any action will be.[35] In most real-world problems, however, the agent may not be certain about the situation they are in (it is "unknown" or "unobservable") and it may not know for certain what will happen after each possible action (it is not "deterministic"). It must choose an action by making a probabilistic guess and then reassess the situation to see if the action worked.[36] In some problems, the agent's preferences may be uncertain, especially if there are other agents or humans involved. These can be learned (e.g., with inverse reinforcement learning), or the agent can seek information to improve its preferences.[37] Information value theory can be used to weigh the value of exploratory or experimental actions.[38] The space of possible future actions and situations is typically intractably large, so the agents must take actions and evaluate situations while being uncertain of what the outcome will be. A Markov decision process has a transition model that describes the probability that a particular action will change the state in a particular way and a reward function that supplies the utility of each state and the cost of each action. A policy associates a decision with each possible state. The policy could be calculated (e.g., by iteration), be heuristic, or it can be learned.[39] Game theory describes the rational behavior of multiple interacting agents and is used in AI programs that make decisions that involve other agents.[40] |
目標 知能のシミュレーション(または創造)という一般的な問題は、いくつかのサブ問題に分かれている。これらは、研究者が知能システムに期待する特定の特性や能力で構成されている。以下で説明する特性は、最も注目されているもので、AI 研究の範囲を網羅している。 推論と問題解決 初期の研究者は、人間がパズルを解いたり、論理的な推論を行う際に使用する段階的な推論を模倣したアルゴリズムを開発した。1980年代後半から1990年代にかけて、不確実または不完全な情報を扱うための手法が、確率論や経済学の概念を用いて開発された。[14] これらのアルゴリズムの多くは、大規模な推論問題を解決するには不十分である。なぜなら、これらは「組み合わせの爆発」に直面するからだ。つまり、問題が 大きくなるにつれて、その処理速度は指数関数的に低下する。[15] 人間でさえ、初期のAI研究でモデル化されたような段階的な推論をほとんど使用しない。人間は、ほとんどの問題を、迅速で直感的な判断によって解決してい る[16]。正確かつ効率的な推論は、未解決の問題である。 知識表現 ![]() オントロジーは、ある領域内の概念の集合と、それらの概念間の関係として知識を表す 知識表現と知識工学[17]により、AI プログラムは、質問に対してインテリジェントに答え、現実世界の事実について推論を行うことが可能になる。形式的な知識表現は、コンテンツベースの索引付 けと検索[18]、シーン解釈[19]、臨床意思決定支援[20]、知識発見(大規模データベースから「興味深い」かつ実用的な推論を抽出する) [21]、その他の分野で使用されている[22]。 知識ベースは、プログラムで使用できる形式で表現された知識の集合体だ。オントロジーは、特定の知識領域で使用されるオブジェクト、関係、概念、およびプ ロパティのセットだ。[23] 知識ベースは、オブジェクト、プロパティ、カテゴリ、オブジェクト間の関係などのものを表現する必要がある。[24] 状況、イベント、状態、および時間。[25] 原因と結果。[26] 知識に関する知識(他の人が知っていることについて私たちが知っていること)。[27] デフォルト推論(人間が、異なる情報が得られるまで真実であると想定し、他の事実が変化しても真実であり続けると想定する事柄)[28]、およびその他の 多くの側面や知識領域。 知識表現における最も困難な問題としては、常識知識の広範さ(平均的な人が知っている原子的な事実の集合は膨大である)[29]、およびほとんどの常識知 識が記号以下の形式である(人々が知っていることの多くは、言葉で表現できる「事実」や「文」として表現できない)ことが挙げられる。[16] また、AI アプリケーションのために知識を取得する、知識獲得の問題もある。[c] 計画と意思決定 「エージェント」とは、世界を知覚し、行動するあらゆるもののことだ。合理的なエージェントは目標や好みを持っており、それらを実現するために行動する。 [d][32] 自動計画では、エージェントは特定の目標を持つ。[33] 自動意思決定では、エージェントは好みを持つ——ある状況は好むし、ある状況は避けたい。意思決定エージェントは、各状況に数値(ユーティリティと呼ばれ る)を割り当て、エージェントがその状況をどれだけ好むかを測定する。各可能な行動について、その行動の結果として生じるすべての結果のユーティリティ に、その結果が生じる確率を乗じた「期待ユーティリティ」を計算することができる。そして、期待ユーティリティが最大の行動を選択することができる。 [34] 古典的な計画では、エージェントはあらゆる行動の結果を正確に知っている。[35] しかし、現実世界の多くの問題では、エージェントは自分が置かれている状況について確信を持っていない(状況は「未知」または「観測不能」である)場合が あり、各可能な行動後に何が起こるかについても確信を持っていない(状況は「決定論的」ではない)場合がある。そのため、確率的な推測に基づいて行動を選 択し、その後、その行動が機能したかどうかを再評価する必要がある。[36] 一部の問題では、特に他のエージェントや人間が関与している場合、エージェントの好みが不確実である場合があります。これらは学習可能(例えば、逆強化学 習)である場合もあれば、エージェントが自分の好みを改善するための情報を求める場合もあります。[37] 情報価値理論は、探索的または実験的な行動の価値を評価するために使用できます。[38] 将来起こりうる行動や状況の空間は通常、非常に広大であるため、エージェントは結果が不確かなまま行動を取り、状況を評価しなければならない。 マルコフ決定過程には、特定の行動が特定の方法で状態を変化させる確率を表す遷移モデルと、各状態の効用と各行動のコストを提供する報酬関数がある。ポリ シーは、各可能な状態に決定を関連付けます。ポリシーは、反復によって計算される、ヒューリスティックである、または学習される場合があります。[39] ゲーム理論は、複数の相互作用するエージェントの合理的な行動を記述し、他のエージェントを含む決定を行う AI プログラムで使用されます。[40] |
Learning Machine learning is the study of programs that can improve their performance on a given task automatically.[41] It has been a part of AI from the beginning.[e] ![]() In supervised learning, the training data is labelled with the expected answers, while in unsupervised learning, the model identifies patterns or structures in unlabelled data. There are several kinds of machine learning. Unsupervised learning analyzes a stream of data and finds patterns and makes predictions without any other guidance.[44] Supervised learning requires labeling the training data with the expected answers, and comes in two main varieties: classification (where the program must learn to predict what category the input belongs in) and regression (where the program must deduce a numeric function based on numeric input).[45] In reinforcement learning, the agent is rewarded for good responses and punished for bad ones. The agent learns to choose responses that are classified as "good".[46] Transfer learning is when the knowledge gained from one problem is applied to a new problem.[47] Deep learning is a type of machine learning that runs inputs through biologically inspired artificial neural networks for all of these types of learning.[48] Computational learning theory can assess learners by computational complexity, by sample complexity (how much data is required), or by other notions of optimization.[49] |
学習 機械学習とは、与えられたタスクのパフォーマンスを自動的に向上させることができるプログラムの研究だ[41]。これは当初から AI の一部として取り入れられてきた[e]。 ![]() 教師あり学習では、トレーニングデータに予想される答えがラベル付けされるのに対し、教師なし学習では、モデルがラベルのないデータからパターンや構造を識別する。 機械学習にはいくつかの種類がある。教師なし学習は、データの流れを分析し、他の指示なしにパターンを発見し、予測を行う。[44] 教師あり学習では、トレーニングデータに期待される回答をラベル付けする必要があり、主に2つの種類に分類される:分類(プログラムが入力データが属する カテゴリを予測するように学習する)と回帰(プログラムが数値入力に基づいて数値関数を導き出す)。[45] 強化学習では、エージェントは良い反応に対して報酬を受け、悪い反応に対して罰を受ける。エージェントは、「良い」と分類される反応を選択することを学習 する。[46] 転移学習とは、ある問題から得た知識を新しい問題に適用することである。[47] ディープラーニングは、これらの学習のすべてについて、生物にヒントを得た人工ニューラルネットワークに入力を通す機械学習の一種である。[48] 計算学習理論は、計算の複雑さ、サンプルの複雑さ(必要なデータ量)、またはその他の最適化の概念によって学習者を評価することができる。[49] |
Natural language processing Natural language processing (NLP) allows programs to read, write and communicate in human languages.[50] Specific problems include speech recognition, speech synthesis, machine translation, information extraction, information retrieval and question answering.[51] Early work, based on Noam Chomsky's generative grammar and semantic networks, had difficulty with word-sense disambiguation[f] unless restricted to small domains called "micro-worlds" (due to the common sense knowledge problem[29]). Margaret Masterman believed that it was meaning and not grammar that was the key to understanding languages, and that thesauri and not dictionaries should be the basis of computational language structure. Modern deep learning techniques for NLP include word embedding (representing words, typically as vectors encoding their meaning),[52] transformers (a deep learning architecture using an attention mechanism),[53] and others.[54] In 2019, generative pre-trained transformer (or "GPT") language models began to generate coherent text,[55][56] and by 2023, these models were able to get human-level scores on the bar exam, SAT test, GRE test, and many other real-world applications.[57] Perception Machine perception is the ability to use input from sensors (such as cameras, microphones, wireless signals, active lidar, sonar, radar, and tactile sensors) to deduce aspects of the world. Computer vision is the ability to analyze visual input.[58] The field includes speech recognition,[59] image classification,[60] facial recognition, object recognition,[61] object tracking,[62] and robotic perception.[63] |
自然言語処理 自然言語処理(NLP)は、プログラムが人間の言語を読み、書き、コミュニケーションすることを可能にする。[50] 具体的な問題としては、音声認識、音声合成、機械翻訳、情報抽出、情報検索、質問応答などが挙げられる。[51] 初期の研究は、ノーム・チョムスキーの生成文法と意味ネットワークに基づいており、一般的な知識の問題[29]のため、「マイクロワールド」と呼ばれる小 さな領域に限定されない限り、単語の意味の曖昧性解消[f]に困難を伴った。マーガレット・マスターマンは、言語を理解する鍵は文法ではなく意味であり、 計算言語構造の基盤は辞書ではなく類語辞典であるべきだと主張した。 現代のNLPにおける深層学習技術には、単語埋め込み(単語を、その意味を符号化したベクトルとして表す手法)[52]、トランスフォーマー(注意メカニ ズムを用いた深層学習アーキテクチャ)[53]などがある[54]。2019年、生成型事前訓練トランスフォーマー(または「GPT」)言語モデルが、一 貫性のあるテキストを生成し始めた。[55][56]、2023 年には、これらのモデルは司法試験、SAT 試験、GRE 試験、およびその他の多くの実世界アプリケーションで人間レベルのスコアを獲得できるようになりました。[57] 知覚 機械知覚とは、センサー(カメラ、マイク、無線信号、アクティブライダー、ソナー、レーダー、触覚センサーなど)からの入力を使用して、世界に関する側面を推測する能力です。コンピュータビジョンは、視覚的な入力を分析する能力だ。[58] この分野には、音声認識[59]、画像分類[60]、顔認識、物体認識[61]、物体追跡[62]、ロボット知覚[63]などが含まれる。 |
Social intelligence Kismet, a robot head which was made in the 1990s; it is a machine that can recognize and simulate emotions.[64] Affective computing is a field that comprises systems that recognize, interpret, process, or simulate human feeling, emotion, and mood.[65] For example, some virtual assistants are programmed to speak conversationally or even to banter humorously; it makes them appear more sensitive to the emotional dynamics of human interaction, or to otherwise facilitate human–computer interaction. However, this tends to give naïve users an unrealistic conception of the intelligence of existing computer agents.[66] Moderate successes related to affective computing include textual sentiment analysis and, more recently, multimodal sentiment analysis, wherein AI classifies the effects displayed by a videotaped subject.[67] General intelligence A machine with artificial general intelligence would be able to solve a wide variety of problems with breadth and versatility similar to human intelligence.[68] |
社会的知能 1990年代に製作されたロボットの頭部「キスメット」は、感情を認識し、シミュレートすることができる機械だ。[64] 感情コンピューティングは、人間の感情、感情、気分を認識、解釈、処理、またはシミュレートするシステムで構成される分野だ。[65] 例えば、一部の仮想アシスタントは、会話のように話したり、ユーモラスな冗談を言ったりするようにプログラムされており、人間同士の感情のやり取りに敏感 であるように見える、あるいは人間とコンピュータの相互作用を促進するように見える。 しかし、これは、経験の浅いユーザーに、既存のコンピュータエージェントの知能について非現実的な概念を与える傾向がある。[66] 感情コンピューティングに関連する中程度の成功例としては、テキストの感情分析、そして最近では、AI がビデオに録画された対象者が示す感情を分類するマルチモーダル感情分析がある。 汎用知能 汎用人工知能を備えた機械は、人間の知能と同様の幅広さと汎用性をもって、さまざまな問題を解決することができるだろう。[68] |
Techniques AI research uses a wide variety of techniques to accomplish the goals above.[b] Search and optimization AI can solve many problems by intelligently searching through many possible solutions.[69] There are two very different kinds of search used in AI: state space search and local search. State space search State space search searches through a tree of possible states to try to find a goal state.[70] For example, planning algorithms search through trees of goals and subgoals, attempting to find a path to a target goal, a process called means-ends analysis.[71] Simple exhaustive searches[72] are rarely sufficient for most real-world problems: the search space (the number of places to search) quickly grows to astronomical numbers. The result is a search that is too slow or never completes.[15] "Heuristics" or "rules of thumb" can help prioritize choices that are more likely to reach a goal.[73] Adversarial search is used for game-playing programs, such as chess or Go. It searches through a tree of possible moves and countermoves, looking for a winning position.[74] Local search ![]() Illustration of gradient descent for 3 different starting points; two parameters (represented by the plan coordinates) are adjusted in order to minimize the loss function (the height) Local search uses mathematical optimization to find a solution to a problem. It begins with some form of guess and refines it incrementally.[75] Gradient descent is a type of local search that optimizes a set of numerical parameters by incrementally adjusting them to minimize a loss function. Variants of gradient descent are commonly used to train neural networks,[76] through the backpropagation algorithm. Another type of local search is evolutionary computation, which aims to iteratively improve a set of candidate solutions by "mutating" and "recombining" them, selecting only the fittest to survive each generation.[77] Distributed search processes can coordinate via swarm intelligence algorithms. Two popular swarm algorithms used in search are particle swarm optimization (inspired by bird flocking) and ant colony optimization (inspired by ant trails).[78] Logic Formal logic is used for reasoning and knowledge representation.[79] Formal logic comes in two main forms: propositional logic (which operates on statements that are true or false and uses logical connectives such as "and", "or", "not" and "implies")[80] and predicate logic (which also operates on objects, predicates and relations and uses quantifiers such as "Every X is a Y" and "There are some Xs that are Ys").[81] Deductive reasoning in logic is the process of proving a new statement (conclusion) from other statements that are given and assumed to be true (the premises).[82] Proofs can be structured as proof trees, in which nodes are labelled by sentences, and children nodes are connected to parent nodes by inference rules. Given a problem and a set of premises, problem-solving reduces to searching for a proof tree whose root node is labelled by a solution of the problem and whose leaf nodes are labelled by premises or axioms. In the case of Horn clauses, problem-solving search can be performed by reasoning forwards from the premises or backwards from the problem.[83] In the more general case of the clausal form of first-order logic, resolution is a single, axiom-free rule of inference, in which a problem is solved by proving a contradiction from premises that include the negation of the problem to be solved.[84] Inference in both Horn clause logic and first-order logic is undecidable, and therefore intractable. However, backward reasoning with Horn clauses, which underpins computation in the logic programming language Prolog, is Turing complete. Moreover, its efficiency is competitive with computation in other symbolic programming languages.[85] Fuzzy logic assigns a "degree of truth" between 0 and 1. It can therefore handle propositions that are vague and partially true.[86] Non-monotonic logics, including logic programming with negation as failure, are designed to handle default reasoning.[28] Other specialized versions of logic have been developed to describe many complex domains. |
手法 AI 研究では、上記の目標を達成するためにさまざまな手法が用いられている[b]。 検索と最適化 AI は、考えられる多くの解決策をインテリジェントに検索することで、多くの問題を解決することができる[69]。AI で用いられる検索には、状態空間検索と局所検索という 2 つのまったく異なる種類がある。 状態空間検索 状態空間検索は、考えられる状態のツリーを検索して、目標状態を見つけようとする。[70] 例えば、計画アルゴリズムは、目標とサブ目標のツリーを検索し、目標への経路を見つけようとする、手段-目的分析と呼ばれるプロセスを行う。 単純な網羅的検索[72] は、ほとんどの現実の問題にはほとんど不十分だ。検索空間(検索する場所の数)は、すぐに天文学的な数に膨れ上がるからだ。その結果、検索が過度に遅く なったり、完了しなくなったりする[15]。「ヒューリスティック」や「経験則」は、目標に到達する可能性の高い選択肢の優先順位付けに役立つ[73]。 敵対的検索は、チェスや囲碁などのゲームプログラムで使用される。可能な手と反手の手のツリーを検索し、勝利の位置を探す[74]。 局所検索 ![]() 3 つの異なる開始点に対する勾配降下法の図。損失関数(高さ)を最小化するために、2 つのパラメータ(計画座標で表される)が調整される。 ローカル検索は、数学的最適化を用いて問題の解決策を見つける。まず、何らかの推測から始め、それを段階的に改良していく。[75] 勾配降下法は、損失関数を最小化するために一連の数値パラメータを段階的に調整して最適化する、ローカル検索の一種である。勾配降下法の変種は、バックプロパゲーションアルゴリズムを通じて、ニューラルネットワークのトレーニングに広く使われている。[76] ローカル検索のもう1つのタイプは、進化計算で、候補解のセットを「突然変異」および「再結合」して、各世代で最も適した解のみを選択することで、そのセットを反復的に改善することを目的としている。[77] 分散検索プロセスは、群知能アルゴリズムによって調整することができます。検索で使用される 2 つの一般的な群アルゴリズムは、粒子群最適化(鳥の群れから着想)と蟻群最適化(蟻の群れから着想)です。[78] 論理 形式論理は、推論や知識表現に使用されます。[79] 形式論理は主に2つの形態に分けられる:命題論理(真または偽の文を操作し、「かつ」「または」「否定」「含意」などの論理接続詞を使用する)[80]と 述語論理(対象、述語、関係も操作し、「すべてのXはYである」や「XのうちYであるものが存在する」などの量化詞を使用する)。[81] 論理における演繹的推論とは、与えられた、かつ真であると仮定される他の文(前提)から、新しい文(結論)を証明するプロセスだ。[82] 証明は、ノードが文でラベル付けされ、子ノードが推論規則によって親ノードに接続された証明ツリーとして構造化することができる。 問題と前提の集合が与えられた場合、問題解決は、問題の解でラベル付けされた根ノードを持ち、葉ノードが前提または公理でラベル付けされた証明木を検索す る作業に還元される。ホーン節の場合、問題解決の検索は、前提から順方向に推論するか、問題から逆方向に推論することで実行できる。[83] より一般的な一階論理の節形式の場合、解決は、解決すべき問題を含む否定を含む前提から矛盾を証明することで問題を解決する、単一の公理のない推論規則で ある。[84] ホーン節論理と一階論理の両方における推論は決定不能であり、したがって扱いが難しい。しかし、論理プログラミング言語 Prolog の計算の基礎となるホーン節を用いた逆推論は、チューリング完全である。さらに、その効率は他の記号プログラミング言語の計算と競合する。[85] ファジー論理は、0 から 1 までの「真度」を割り当てる。したがって、曖昧で部分的に真である命題を扱うことができる。[86] 失敗を否定とする論理プログラミングを含む非単調論理は、デフォルト推論を扱うために設計されている。[28] 多くの複雑な領域を記述するために、他の特殊な論理が開発されている。 |
Probabilistic methods for uncertain reasoning A simple Bayesian network, with the associated conditional probability tables Many problems in AI (including reasoning, planning, learning, perception, and robotics) require the agent to operate with incomplete or uncertain information. AI researchers have devised a number of tools to solve these problems using methods from probability theory and economics.[87] Precise mathematical tools have been developed that analyze how an agent can make choices and plan, using decision theory, decision analysis,[88] and information value theory.[89] These tools include models such as Markov decision processes,[90] dynamic decision networks,[91] game theory and mechanism design.[92] Bayesian networks[93] are a tool that can be used for reasoning (using the Bayesian inference algorithm),[g][95] learning (using the expectation–maximization algorithm),[h][97] planning (using decision networks)[98] and perception (using dynamic Bayesian networks).[91] Probabilistic algorithms can also be used for filtering, prediction, smoothing, and finding explanations for streams of data, thus helping perception systems analyze processes that occur over time (e.g., hidden Markov models or Kalman filters).[91] Expectation–maximization clustering of Old Faithful eruption data starts from a random guess but then successfully converges on an accurate clustering of the two physically distinct modes of eruption. Classifiers and statistical learning methods The simplest AI applications can be divided into two types: classifiers (e.g., "if shiny then diamond"), on one hand, and controllers (e.g., "if diamond then pick up"), on the other hand. Classifiers[99] are functions that use pattern matching to determine the closest match. They can be fine-tuned based on chosen examples using supervised learning. Each pattern (also called an "observation") is labeled with a certain predefined class. All the observations combined with their class labels are known as a data set. When a new observation is received, that observation is classified based on previous experience.[45] There are many kinds of classifiers in use.[100] The decision tree is the simplest and most widely used symbolic machine learning algorithm.[101] K-nearest neighbor algorithm was the most widely used analogical AI until the mid-1990s, and Kernel methods such as the support vector machine (SVM) displaced k-nearest neighbor in the 1990s.[102] The naive Bayes classifier is reportedly the "most widely used learner"[103] at Google, due in part to its scalability.[104] Neural networks are also used as classifiers.[105] Artificial neural networks A neural network is an interconnected group of nodes, akin to the vast network of neurons in the human brain. An artificial neural network is based on a collection of nodes also known as artificial neurons, which loosely model the neurons in a biological brain. It is trained to recognise patterns; once trained, it can recognise those patterns in fresh data. There is an input, at least one hidden layer of nodes and an output. Each node applies a function and once the weight crosses its specified threshold, the data is transmitted to the next layer. A network is typically called a deep neural network if it has at least 2 hidden layers.[105] Learning algorithms for neural networks use local search to choose the weights that will get the right output for each input during training. The most common training technique is the backpropagation algorithm.[106] Neural networks learn to model complex relationships between inputs and outputs and find patterns in data. In theory, a neural network can learn any function.[107] In feedforward neural networks the signal passes in only one direction.[108] The term perceptron typically refers to a single-layer neural network.[109] In contrast, deep learning uses many layers.[110] Recurrent neural networks (RNNs) feed the output signal back into the input, which allows short-term memories of previous input events. Long short-term memory networks (LSTMs) are recurrent neural networks that better preserve longterm dependencies and are less sensitive to the vanishing gradient problem.[111] Convolutional neural networks (CNNs) use layers of kernels to more efficiently process local patterns. This local processing is especially important in image processing, where the early CNN layers typically identify simple local patterns such as edges and curves, with subsequent layers detecting more complex patterns like textures, and eventually whole objects.[112] Deep learning Deep learning is a subset of machine learning, which is itself a subset of artificial intelligence.[113] Deep learning uses several layers of neurons between the network's inputs and outputs.[110] The multiple layers can progressively extract higher-level features from the raw input. For example, in image processing, lower layers may identify edges, while higher layers may identify the concepts relevant to a human such as digits, letters, or faces.[114] Deep learning has profoundly improved the performance of programs in many important subfields of artificial intelligence, including computer vision, speech recognition, natural language processing, image classification,[115] and others. The reason that deep learning performs so well in so many applications is not known as of 2021.[116] The sudden success of deep learning in 2012–2015 did not occur because of some new discovery or theoretical breakthrough (deep neural networks and backpropagation had been described by many people, as far back as the 1950s)[i] but because of two factors: the incredible increase in computer power (including the hundred-fold increase in speed by switching to GPUs) and the availability of vast amounts of training data, especially the giant curated datasets used for benchmark testing, such as ImageNet.[j] |
不確実な推論のための確率的手法 AI(人工知能)の多くの問題(推論、計画、学習、知覚、ロボット工学など)では、エージェントが不完全または不確実な情報に基づいて動作する必要があり ます。AI 研究者は、確率論や経済学の手法を用いてこれらの問題を解決するための数多くのツールを考案してきた。[87] 意思決定理論、意思決定分析[88]、情報価値理論[89] を使用して、エージェントが選択を行い計画を立てる方法を分析する精密な数学的ツールが開発されている。これらのツールには、マルコフ決定過程[90]、 動的意思決定ネットワーク[91]、ゲーム理論、メカニズム設計などのモデルが含まれる。[92] ベイズネットワーク[93] は、推論(ベイズ推定アルゴリズムを使用)、[g][95] 学習(期待値最大化アルゴリズムを使用)、[h][97] 計画(決定ネットワークを使用)、[98] 認識(動的ベイズネットワークを使用)に使用できるツールです。[91] 確率アルゴリズムは、フィルタリング、予測、平滑化、およびデータストリームの説明の発見にも使用でき、これにより、知覚システムが時間経過とともに発生するプロセス(隠れたマルコフモデルやカルマンフィルタなど)を分析するのに役立つ。[91] オールド・フェイスフル火山の噴火データの期待値最大化クラスタリングは、ランダムな推測から始まりますが、最終的には、物理的に異なる 2 つの噴火モードの正確なクラスタリングにうまく収束しています。 分類器と統計的学習手法 最も単純なAIアプリケーションは、分類器(例:「光っているならダイヤモンド」)とコントローラー(例:「ダイヤモンドなら拾う」)の2種類に分類でき る。分類器[99]は、パターンマッチングを使用して最も近い一致を決定する関数です。これらは、選択された例に基づいて監督学習により微調整可能です。 各パターン(観測値とも呼ばれる)は、事前に定義されたクラスでラベル付けされます。すべての観測値とそのクラスラベルの組み合わせはデータセットと呼ば れます。新しい観測値が受信されると、その観測値は過去の経験に基づいて分類されます。[45] 使用されている分類器には多くの種類がある。[100] 決定木は、最も単純で広く使用されている記号的機械学習アルゴリズムである。[101] K 最近傍アルゴリズムは、1990 年代半ばまで最も広く使用されていた類推 AI だったが、1990 年代にはサポートベクターマシン (SVM) などのカーネル手法が K 最近傍に取って代わった。[102] ナイーブベイズ分類器は、そのスケーラビリティもあって、Google で「最も広く使用されている学習器」[103] であると報告されている。[104] ニューラルネットワークも分類器として使用されている。[105] 人工ニューラルネットワーク ニューラルネットワークは、人間の脳内の広大なニューロンのネットワークに似た、相互に接続されたノードのグループだ。 人工ニューラルネットワークは、生物の脳内のニューロンを大まかに模倣した、人工ニューロンとも呼ばれるノードの集合体に基づいています。パターン認識の ために訓練され、訓練後は新しいデータ内のパターンを認識することができます。入力、少なくとも1つの隠れたノード層、および出力があります。各ノードは 関数を適用し、重みが指定された閾値を超えると、データは次の層に伝達されます。ネットワークは、少なくとも 2 つの隠れ層を持つ場合、通常、深層神経ネットワークと呼ばれる。[105] ニューラルネットワークの学習アルゴリズムは、トレーニング中に各入力に対して正しい出力を得る重みを選択するために、局所探索を使用する。最も一般的な トレーニング手法は、バックプロパゲーションアルゴリズムである。[106] ニューラルネットワークは、入力と出力の間の複雑な関係をモデル化し、データ内のパターンを見つけることを学習する。理論的には、ニューラルネットワーク はあらゆる関数を学習することができる。[107] フィードフォワードニューラルネットワークでは、信号は一方向のみに伝達される。[108] パーセプトロンという用語は、通常、単層ニューラルネットワークを指す。[109] 対照的に、ディープラーニングは多くの層を使用する。[110] リカレントニューラルネットワーク(RNN)は、出力信号を入力に戻し、以前の入力イベントの短期記憶を可能にする。長短期記憶ネットワーク(LSTM) は、長期依存性をよりよく保持し、勾配消失問題に敏感でない再帰型ニューラルネットワークだ。[111] 畳み込みニューラルネットワーク(CNN)は、カーネルの層を使用して局所的なパターンを効率的に処理する。この局所的な処理は、画像処理において特に重 要だ。画像処理では、CNN の初期層では通常、エッジや曲線などの単純な局所パターンが識別され、その後の層でテクスチャなどのより複雑なパターンが検出され、最終的には物体全体が 検出される。[112] ディープラーニング ディープラーニングは、人工知能の一分野である機械学習の一分野だ。[113] ディープラーニングは、ネットワークの入力と出力の間に複数のニューロン層を使用する。[110] 複数の層により、生入力からより高レベルの特性を段階的に抽出することができます。例えば、画像処理では、下層はエッジを識別し、上層は数字、文字、顔な ど、人間に関連する概念を識別します。[114] ディープラーニングは、コンピュータビジョン、音声認識、自然言語処理、画像分類[115] など、人工知能の多くの重要なサブフィールドにおけるプログラムのパフォーマンスを飛躍的に向上させました。ディープラーニングがこれほど多くのアプリ ケーションで優れたパフォーマンスを発揮する理由は、2021 年の時点ではまだ不明だ。[116] 2012 年から 2015 年にかけてディープラーニングが突然成功を収めたのは、何らかの新しい発見や理論上の飛躍的進歩があったからではない(ディープニューラルネットワークや バックプロパゲーションは、1950 年代にはすでに多くの人々によって説明されていた)。[i] 成功の要因は 2 つある。コンピュータの処理能力の驚異的な向上(GPUへの移行による速度の100倍以上の向上を含む)と、大量のトレーニングデータの可用性、特に ImageNetのようなベンチマークテスト用に整備された大規模なデータセットの可用性[j]。 |
GPT Generative pre-trained transformers (GPT) are large language models (LLMs) that generate text based on the semantic relationships between words in sentences. Text-based GPT models are pre-trained on a large corpus of text that can be from the Internet. The pretraining consists of predicting the next token (a token being usually a word, subword, or punctuation). Throughout this pretraining, GPT models accumulate knowledge about the world and can then generate human-like text by repeatedly predicting the next token. Typically, a subsequent training phase makes the model more truthful, useful, and harmless, usually with a technique called reinforcement learning from human feedback (RLHF). Current GPT models are prone to generating falsehoods called "hallucinations". These can be reduced with RLHF and quality data, but the problem has been getting worse for reasoning systems.[124] Such systems are used in chatbots, which allow people to ask a question or request a task in simple text.[125][126] Current models and services include ChatGPT, Claude, Gemini, Copilot, and Meta AI.[127] Multimodal GPT models can process different types of data (modalities) such as images, videos, sound, and text.[128] |
GPT 生成型事前学習済みトランスフォーマー(GPT)は、文中の単語間の意味関係に基づいてテキストを生成する大規模言語モデル(LLM)です。テキストベー スの GPT モデルは、インターネットなどから取得した大規模なテキストコーパスを用いて事前学習されます。事前学習では、次のトークン(トークンは通常、単語、サブ ワード、または句読点)を予測します。この事前学習を通じて、GPTモデルは世界に関する知識を蓄積し、次のトークンを繰り返し予測することで人間のよう なテキストを生成できるようになる。通常、その後のトレーニングフェーズでは、強化学習から人間フィードバック(RLHF)と呼ばれる技術を用いて、モデ ルをより真実性が高く、有用で、無害なものにする。現在の GPT モデルは、「幻覚」と呼ばれる虚偽の生成を起こしやすい傾向がある。これは RLHF と高品質のデータによって軽減できるが、推論システムではこの問題が悪化している。[124] このようなシステムは、人々が簡単なテキストで質問をしたり、タスクを依頼したりできるチャットボットで使用されている。[125][126] 現在のモデルおよびサービスには、ChatGPT、Claude、Gemini、Copilot、Meta AI などがある。[127] マルチモーダル GPT モデルは、画像、動画、音声、テキストなど、さまざまなタイプのデータ(モダリティ)を処理することができる。[128] |
Hardware and software Main articles: Programming languages for artificial intelligence and Hardware for artificial intelligence In the late 2010s, graphics processing units (GPUs) that were increasingly designed with AI-specific enhancements and used with specialized TensorFlow software had replaced previously used central processing unit (CPUs) as the dominant means for large-scale (commercial and academic) machine learning models' training.[129] Specialized programming languages such as Prolog were used in early AI research,[130] but general-purpose programming languages like Python have become predominant.[131] The transistor density in integrated circuits has been observed to roughly double every 18 months—a trend known as Moore's law, named after the Intel co-founder Gordon Moore, who first identified it. Improvements in GPUs have been even faster,[132] a trend sometimes called Huang's law,[133] named after Nvidia co-founder and CEO Jensen Huang. |
ハードウェアとソフトウェア 主な記事:人工知能のためのプログラミング言語、人工知能のためのハードウェア 2010年代後半、AIに特化した機能強化がますます進んだグラフィックスプロセッシングユニット(GPU)が、専用のTensorFlowソフトウェア とともに、大規模(商業および学術)の機械学習モデルのトレーニングの主流手段として、これまで使用されていた中央処理装置(CPU)に取って代わった。 [129] 初期の人工知能研究ではPrologのような専門的なプログラミング言語が使用されていましたが、[130] Pythonのような汎用プログラミング言語が主流となっています。[131] 集積回路のトランジスタ密度は、およそ18ヶ月ごとに2倍になる傾向が見られ、この傾向は、それを最初に指摘したインテル社の共同創設者ゴードン・ムーア にちなんで「ムーアの法則」と呼ばれている。GPUの進歩はさらに急速で[132]、この傾向は、Nvidia社の共同創設者兼CEOであるジェンセン・ フアンにちなんで「フアンの法則」と呼ばれることもある。 |
Applications Main article: Applications of artificial intelligence AI and machine learning technology is used in most of the essential applications of the 2020s, including: search engines (such as Google Search), targeting online advertisements, recommendation systems (offered by Netflix, YouTube or Amazon), driving internet traffic, targeted advertising (AdSense, Facebook), virtual assistants (such as Siri or Alexa), autonomous vehicles (including drones, ADAS and self-driving cars), automatic language translation (Microsoft Translator, Google Translate), facial recognition (Apple's FaceID or Microsoft's DeepFace and Google's FaceNet) and image labeling (used by Facebook, Apple's Photos and TikTok). The deployment of AI may be overseen by a chief automation officer (CAO). Health and medicine Main article: Artificial intelligence in healthcare The application of AI in medicine and medical research has the potential to increase patient care and quality of life.[134] Through the lens of the Hippocratic Oath, medical professionals are ethically compelled to use AI, if applications can more accurately diagnose and treat patients.[135][136] For medical research, AI is an important tool for processing and integrating big data. This is particularly important for organoid and tissue engineering development which use microscopy imaging as a key technique in fabrication.[137] It has been suggested that AI can overcome discrepancies in funding allocated to different fields of research.[137][138] New AI tools can deepen the understanding of biomedically relevant pathways. For example, AlphaFold 2 (2021) demonstrated the ability to approximate, in hours rather than months, the 3D structure of a protein.[139] In 2023, it was reported that AI-guided drug discovery helped find a class of antibiotics capable of killing two different types of drug-resistant bacteria.[140] In 2024, researchers used machine learning to accelerate the search for Parkinson's disease drug treatments. Their aim was to identify compounds that block the clumping, or aggregation, of alpha-synuclein (the protein that characterises Parkinson's disease). They were able to speed up the initial screening process ten-fold and reduce the cost by a thousand-fold.[141][142] Games Main article: Artificial intelligence in video games Game playing programs have been used since the 1950s to demonstrate and test AI's most advanced techniques.[143] Deep Blue became the first computer chess-playing system to beat a reigning world chess champion, Garry Kasparov, on 11 May 1997.[144] In 2011, in a Jeopardy! quiz show exhibition match, IBM's question answering system, Watson, defeated the two greatest Jeopardy! champions, Brad Rutter and Ken Jennings, by a significant margin.[145] In March 2016, AlphaGo won 4 out of 5 games of Go in a match with Go champion Lee Sedol, becoming the first computer Go-playing system to beat a professional Go player without handicaps. Then, in 2017, it defeated Ke Jie, who was the best Go player in the world.[146] Other programs handle imperfect-information games, such as the poker-playing program Pluribus.[147] DeepMind developed increasingly generalistic reinforcement learning models, such as with MuZero, which could be trained to play chess, Go, or Atari games.[148] In 2019, DeepMind's AlphaStar achieved grandmaster level in StarCraft II, a particularly challenging real-time strategy game that involves incomplete knowledge of what happens on the map.[149] In 2021, an AI agent competed in a PlayStation Gran Turismo competition, winning against four of the world's best Gran Turismo drivers using deep reinforcement learning.[150] In 2024, Google DeepMind introduced SIMA, a type of AI capable of autonomously playing nine previously unseen open-world video games by observing screen output, as well as executing short, specific tasks in response to natural language instructions.[151] Mathematics Large language models, such as GPT-4, Gemini, Claude, Llama or Mistral, are increasingly used in mathematics. These probabilistic models are versatile, but can also produce wrong answers in the form of hallucinations. They sometimes need a large database of mathematical problems to learn from, but also methods such as supervised fine-tuning[152] or trained classifiers with human-annotated data to improve answers for new problems and learn from corrections.[153] A February 2024 study showed that the performance of some language models for reasoning capabilities in solving math problems not included in their training data was low, even for problems with only minor deviations from trained data.[154] One technique to improve their performance involves training the models to produce correct reasoning steps, rather than just the correct result.[155] The Alibaba Group developed a version of its Qwen models called Qwen2-Math, that achieved state-of-the-art performance on several mathematical benchmarks, including 84% accuracy on the MATH dataset of competition mathematics problems.[156] In January 2025, Microsoft proposed the technique rStar-Math that leverages Monte Carlo tree search and step-by-step reasoning, enabling a relatively small language model like Qwen-7B to solve 53% of the AIME 2024 and 90% of the MATH benchmark problems.[157] Alternatively, dedicated models for mathematical problem solving with higher precision for the outcome including proof of theorems have been developed such as AlphaTensor, AlphaGeometry, AlphaProof and AlphaEvolve[158] all from Google DeepMind,[159] Llemma from EleutherAI[160] or Julius.[161] When natural language is used to describe mathematical problems, converters can transform such prompts into a formal language such as Lean to define mathematical tasks. The experimental model Gemini Deep Think accepts natural language prompts directly and achieved gold medal results in the International Math Olympiad of 2025.[162] Some models have been developed to solve challenging problems and reach good results in benchmark tests, others to serve as educational tools in mathematics.[163] Topological deep learning integrates various topological approaches. Finance Finance is one of the fastest growing sectors where applied AI tools are being deployed: from retail online banking to investment advice and insurance, where automated "robot advisers" have been in use for some years.[164] According to Nicolas Firzli, director of the World Pensions & Investments Forum, it may be too early to see the emergence of highly innovative AI-informed financial products and services. He argues that "the deployment of AI tools will simply further automatise things: destroying tens of thousands of jobs in banking, financial planning, and pension advice in the process, but I'm not sure it will unleash a new wave of [e.g., sophisticated] pension innovation."[165] Military Main article: Military applications of artificial intelligence Various countries are deploying AI military applications.[166] The main applications enhance command and control, communications, sensors, integration and interoperability.[167] Research is targeting intelligence collection and analysis, logistics, cyber operations, information operations, and semiautonomous and autonomous vehicles.[166] AI technologies enable coordination of sensors and effectors, threat detection and identification, marking of enemy positions, target acquisition, coordination and deconfliction of distributed Joint Fires between networked combat vehicles, both human-operated and autonomous.[167] AI has been used in military operations in Iraq, Syria, Israel and Ukraine.[166][168][169][170] |
アプリケーション 主な記事:人工知能の応用 AIと機械学習技術は、2020年代の重要なアプリケーションのほとんどで使用されている。その例としては、検索エンジン(Google検索など)、オン ライン広告のターゲティング、レコメンデーションシステム(Netflix、YouTube、Amazonなどが提供)、インターネットトラフィックの誘 導、ターゲット広告(AdSense、Facebook)、仮想アシスタント(SiriやAlexaなど)、 自律走行車両(ドローン、ADAS、自動運転車を含む)、自動言語翻訳(Microsoft Translator、Google Translate)、顔認識(AppleのFaceID、MicrosoftのDeepFace、GoogleのFaceNet)、画像ラベル付け (Facebook、AppleのPhotos、TikTokで利用されている)など。AIの展開は、チーフオートメーションオフィサー(CAO)によっ て監督される場合があります。 保健および医療 主な記事:医療における人工知能 医療および医学研究における AI の応用は、患者ケアと生活の質を向上させる可能性を秘めている。[134] ヒポクラテスの誓いという観点からは、医療従事者は、AI の応用によって患者の診断と治療がより正確になるのであれば、倫理的に AI を使用することが義務付けられている。[135][136] 医学研究において、AI はビッグデータを処理・統合するための重要なツールです。これは、製造の主要技術として顕微鏡画像診断を用いるオルガノイドおよび組織工学の開発において 特に重要です。[137] AI は、異なる研究分野に割り当てられる資金格差を克服できると示唆されています。[137][138] 新しい AI ツールは、生物医学に関連する経路の理解を深めることができます。例えば、AlphaFold 2 (2021) は、タンパク質の 3D 構造を数ヶ月ではなく数時間で近似する能力を発揮しました。[139] 2023 年、AI による創薬が、2 種類の薬剤耐性菌を殺すことのできる抗生物質の発見に貢献したと報告されました。[140] 2024年、研究者は機械学習を用いてパーキンソン病の治療薬探索を加速させた。その目的は、パーキンソン病の特徴的なタンパク質であるアルファシヌクレ インの凝集を阻害する化合物を特定することだった。彼らは初期スクリーニングプロセスを10倍速くし、コストを1000分の1に削減した。[141] [142] ゲーム 主な記事:ビデオゲームにおける人工知能 ゲームプレイプログラムは、1950年代からAIの最先端技術を実証・試験するために使用されてきた。[143] 1997年5月11日、ディープブルーは、世界チェスチャンピオンであるガリ・カスパロフを破った、チェスをプレイする最初のコンピュータシステムとなっ た。[144] 2011 年、クイズ番組「Jeopardy! 」のエキシビションマッチで、IBM の質問応答システム「Watson」は、Jeopardy! の 2 大チャンピオンであるブラッド・ラッターとケン・ジェニングスを、大きな差をつけて破った。[145] 2016年3月、AlphaGoは囲碁チャンピオンの李世ドルとの5局中4局を制し、ハンディキャップなしでプロの囲碁プレイヤーを破った最初のコン ピュータ囲碁システムとなった。その後、2017年には世界一の囲碁プレイヤーだった柯潔を破った。[146] 他のプログラムは不完全情報ゲームにも対応しており、ポーカープレイプログラムのPluribusなどがその例だ。[147] DeepMind は、チェス、囲碁、アタリ社のゲームなどをプレイするように訓練できる MuZero など、ますます汎用性の高い強化学習モデルを開発した。[148] 2019 年、DeepMind の AlphaStar は、マップ上で何が起こっているのかが不完全な情報しか得られない、特に難易度の高いリアルタイム戦略ゲーム「スタークラフト II」で、グランドマスターレベルを達成した。[149] 2021年、AIエージェントがPlayStation Gran Turismoの競技会で、深層強化学習を用いて世界トップクラスのGran Turismoドライバー4人を破って優勝した。[150] 2024年、Google DeepMindはSIMAというAIを導入した。これは、画面出力を観察して9つの未見のオープンワールドビデオゲームを自律的にプレイし、自然言語の 指示に応じて短い特定のタスクを実行できるAIだ。[151] 数学 GPT-4、Gemini、Claude、Llama、Mistral などの大規模言語モデルは、数学でますます利用されるようになっている。これらの確率モデルは汎用性があるが、幻覚という形で間違った答えを出すこともあ る。これらのモデルは、学習のために大規模な数学問題データベースを必要とする場合もありますが、新しい問題に対する答えを改善し、修正から学習するため に、教師ありの微調整[152] や、人間が注釈を付けたデータを用いて訓練した分類器などの手法も必要です[153]。2024年2月の研究では、トレーニングデータに含まれていない数 学の問題を解く推論能力について、一部の言語モデルのパフォーマンスは、トレーニングデータからわずかな偏差がある問題でも低かったことが示されました。 [154] これらのパフォーマンスを向上させるための 1 つの手法は、正しい結果だけでなく、正しい推論手順を生成するようにモデルをトレーニングすることだ。[155] Alibaba Group は、Qwen モデルのバージョンである Qwen2-Math を開発し、数学のコンテスト問題データセット MATH データセットで 84% の精度を達成するなど、いくつかの数学ベンチマークで最先端のパフォーマンスを達成した。[156] 2025年1月、マイクロソフトはモンテカルロ木探索とステップバイステップ推論を活用するrStar-Mathという技術を提案し、Qwen-7Bのよ うな比較的小さな言語モデルでAIME 2024の53%とMATHベンチマーク問題の90%を解決可能にした。[157] あるいは、定理の証明など、より正確な結果を求める数学の問題解決に特化したモデルも開発されている。Google DeepMind の AlphaTensor、AlphaGeometry、AlphaProof、AlphaEvolve[158]、EleutherAI の Llemma[160]、Julius[161] などだ。 自然言語が数学の問題を記述するために使用される場合、コンバーターは、そのようなプロンプトを Lean などの形式言語に変換して、数学的なタスクを定義することができる。実験的なモデル Gemini Deep Think は、自然言語のプロンプトを直接受け付け、2025 年の国際数学オリンピックで金メダルを獲得した。[162] いくつかのモデルは、困難な問題を解決し、ベンチマークテストで良い結果を達成するために開発されており、他のモデルは数学の教育ツールとして活用されている。[163] トポロジカルディープラーニングは、さまざまなトポロジカルアプローチを統合したものだ。 金融 金融は、応用 AI ツールが導入されている最も急成長している分野のひとつだ。小売オンラインバンキングから投資アドバイス、保険まで、自動化された「ロボットアドバイザー」が数年前から使用されている。[164] ワールド・ペンションズ・アンド・インベスターズ・フォーラムのディレクター、ニコラス・フィルズリ氏は、高度に革新的なAIを活用した金融商品やサービ スの出現は、まだ時期尚早かもしれないと指摘している。彼は「AIツールの展開は単に既存の業務をさらに自動化させるだけで、銀行、金融計画、年金アドバ イス分野で数万人の雇用を破壊するだろうが、それが[例えば高度な]年金イノベーションの新たな波を引き起こすかどうかは不明だ」と主張している。 [165] 軍事 主な記事:人工知能の軍事利用 さまざまな国が AI の軍事利用を展開している。[166] 主な用途は、指揮統制、通信、センサー、統合、相互運用性の強化だ。[167] 研究は、情報収集と分析、ロジスティクス、サイバー作戦、情報作戦、半自律型および自律型車両を対象としている。[166] AI 技術は、センサーとエフェクターの連携、脅威の検出と識別、敵の位置のマーク付け、目標の捕捉、ネットワーク化された戦闘車両(人間操作および自律型)間 の分散型共同射撃の連携と調整を可能にする。 AI は、イラク、シリア、イスラエル、ウクライナでの軍事作戦で使用されている。[166][168][169][170] |
Generative AI![]() Vincent van Gogh in watercolour created by generative AI software These paragraphs are an excerpt from Generative artificial intelligence.[edit] Generative artificial intelligence (Generative AI, GenAI,[171] or GAI) is a subfield of artificial intelligence that uses generative models to produce text, images, videos, or other forms of data.[172][173][174] These models learn the underlying patterns and structures of their training data and use them to produce new data[175][176] based on the input, which often comes in the form of natural language prompts.[177][178] Generative AI tools have become more common since the AI boom in the 2020s. This boom was made possible by improvements in transformer-based deep neural networks, particularly large language models (LLMs). Major tools include chatbots such as ChatGPT, Copilot, Gemini, Claude, Grok, and DeepSeek; text-to-image models such as Stable Diffusion, Midjourney, and DALL-E; and text-to-video models such as Veo and Sora.[179][180][181][182][183] Technology companies developing generative AI include OpenAI, xAI, Anthropic, Meta AI, Microsoft, Google, DeepSeek, and Baidu.[177][184][185] Generative AI is used across many industries, including software development,[186] healthcare,[187] finance,[188] entertainment,[189] customer service,[190] sales and marketing,[191] art, writing,[192] fashion,[193] and product design.[194] The production of Generative AI systems requires large scale data centers using specialized chips which require high levels of energy for processing and water for cooling.[195] |
生成型 AI![]() 生成型 AI ソフトウェアによって作成された水彩画のヴィンセント・ヴァン・ゴッホ これらの段落は、生成型人工知能からの抜粋です。[編集] 生成型人工知能(Generative AI、GenAI、[171]、または GAI)は、生成モデルを使用してテキスト、画像、動画、その他の形式のデータを生成する人工知能のサブ分野です。[172][173][174] これらのモデルは、トレーニングデータの根本的なパターンと構造を学習し、入力に基づいて新しいデータを生成する[175][176]。入力は、多くの場 合、自然言語の 프롬프트 の形式で与えられる[177][178]。 生成AIツールは、2020年代のAIブーム以来、より一般的になってきた。このブームは、トランスフォーマーベースの深層ニューラルネットワーク、特に 大規模言語モデル(LLM)の改良によって可能になった。主なツールとしては、ChatGPT、Copilot、Gemini、Claude、Grok、 DeepSeek などのチャットボット、Stable Diffusion、Midjourney、DALL-E などのテキストから画像への変換モデル、Veo や Sora などのテキストから動画への変換モデルがある。[179][180][181][182][183] 生成AIを開発するテクノロジー企業には、OpenAI、xAI、Anthropic、Meta AI、Microsoft、Google、DeepSeek、Baiduがある。[177][184][185] 生成 AI は、ソフトウェア開発[186]、医療[187]、金融[188]、エンターテイメント[189]、顧客サービス[190]、販売およびマーケティング [191]、芸術、執筆[192]、ファッション[193]、製品設計など、多くの業界で使用されている。[194] 生成AIシステムの生産には、処理に高いエネルギーと冷却に水が必要な専用チップを使用する大規模データセンターが必要だ。[195] |
Agents Main article: Agentic AI AI agents are software entities designed to perceive their environment, make decisions, and take actions autonomously to achieve specific goals. These agents can interact with users, their environment, or other agents. AI agents are used in various applications, including virtual assistants, chatbots, autonomous vehicles, game-playing systems, and industrial robotics. AI agents operate within the constraints of their programming, available computational resources, and hardware limitations. This means they are restricted to performing tasks within their defined scope and have finite memory and processing capabilities. In real-world applications, AI agents often face time constraints for decision-making and action execution. Many AI agents incorporate learning algorithms, enabling them to improve their performance over time through experience or training. Using machine learning, AI agents can adapt to new situations and optimise their behaviour for their designated tasks.[196][197][198] Sexuality Applications of AI in this domain include AI-enabled menstruation and fertility trackers that analyze user data to offer predictions,[199] AI-integrated sex toys (e.g., teledildonics),[200] AI-generated sexual education content,[201] and AI agents that simulate sexual and romantic partners (e.g., Replika).[202] AI is also used for the production of non-consensual deepfake pornography, raising significant ethical and legal concerns.[203] AI technologies have also been used to attempt to identify online gender-based violence and online sexual grooming of minors.[204][205] Other industry-specific tasks There are also thousands of successful AI applications used to solve specific problems for specific industries or institutions. In a 2017 survey, one in five companies reported having incorporated "AI" in some offerings or processes.[206] A few examples are energy storage, medical diagnosis, military logistics, applications that predict the result of judicial decisions, foreign policy, or supply chain management. AI applications for evacuation and disaster management are growing. AI has been used to investigate patterns in large-scale and small-scale evacuations using historical data from GPS, videos or social media. Furthermore, AI can provide real-time information on the evacuation conditions.[207][208][209] In agriculture, AI has helped farmers to increase yield and identify areas that need irrigation, fertilization, pesticide treatments. Agronomists use AI to conduct research and development. AI has been used to predict the ripening time for crops such as tomatoes, monitor soil moisture, operate agricultural robots, conduct predictive analytics, classify livestock pig call emotions, automate greenhouses, detect diseases and pests, and save water. Artificial intelligence is used in astronomy to analyze increasing amounts of available data and applications, mainly for "classification, regression, clustering, forecasting, generation, discovery, and the development of new scientific insights." For example, it is used for discovering exoplanets, forecasting solar activity, and distinguishing between signals and instrumental effects in gravitational wave astronomy. Additionally, it could be used for activities in space, such as space exploration, including the analysis of data from space missions, real-time science decisions of spacecraft, space debris avoidance, and more autonomous operation. During the 2024 Indian elections, US$50 million was spent on authorized AI-generated content, notably by creating deepfakes of allied (including sometimes deceased) politicians to better engage with voters, and by translating speeches to various local languages.[210] |
エージェント 主な記事:エージェント型 AI AI エージェントは、環境を知覚し、意思決定を行い、特定の目標を達成するために自律的に行動するように設計されたソフトウェアエンティティだ。これらのエー ジェントは、ユーザー、その環境、または他のエージェントと対話することができる。AI エージェントは、仮想アシスタント、チャットボット、自動運転車、ゲームプレイシステム、産業用ロボットなど、さまざまなアプリケーションで使用されてい る。AI エージェントは、そのプログラミング、利用可能な計算リソース、およびハードウェアの制限の範囲内で動作する。つまり、定義された範囲内のタスクの実行に 制限され、メモリや処理能力にも限りがある。現実世界のアプリケーションでは、AI エージェントは意思決定や行動の実行において時間的制約に直面することが多い。多くの AI エージェントは学習アルゴリズムを組み込んでおり、経験やトレーニングを通じて、時間の経過とともにパフォーマンスを向上させることができる。機械学習を 使用することで、AI エージェントは新しい状況に適応し、指定されたタスクに合わせて行動を最適化することができる。[196][197][198] セクシュアリティ この分野における AI の応用例としては、ユーザーデータを分析して予測を提供する AI 搭載の月経・妊娠追跡アプリ[199]、AI を組み込んだ大人のおもちゃ(テレディルドニクスなど)[200]、AI によって生成された性教育コンテンツ[201]、性的パートナーや恋愛パートナーをシミュレートする AI エージェント(Replika など)がある。[202] AI は、同意のないディープフェイクポルノの制作にも使用されており、重大な倫理的および法的問題を引き起こしている。[203] AI 技術は、オンラインでのジェンダーに基づく暴力や未成年者に対するオンラインでの性的誘惑の特定にも使用されている。[204][205] その他の業界固有のタスク 特定の業界や機関の特定の課題を解決するために、数千ものAIアプリケーションが成功裏に活用されている。2017年の調査では、5社に1社が、一部の製 品やプロセスに「AI」を組み込んでいると回答している。[206] 例としては、エネルギー貯蔵、医療診断、軍事物流、司法判断の結果を予測するアプリケーション、外交政策、サプライチェーンマネジメントなどが挙げられ る。 避難および災害管理のためのAIアプリケーションが拡大している。AI は、GPS、ビデオ、ソーシャルメディアからの履歴データを用いて、大規模および小規模の避難のパターンを調査するために使用されている。さらに、AI は避難状況に関するリアルタイムの情報を提供することができる。[207][208][209] 農業分野では、AI は農家の収穫量の増加や、灌漑、施肥、農薬散布が必要な地域の特定に役立っている。農学者は AI を研究開発に活用している。AI は、トマトなどの作物の成熟時期の予測、土壌水分モニタリング、農業用ロボットの操作、予測分析、家畜の感情の分類、温室の自動化、病気や害虫の検出、節 水などに活用されている。 人工知能は、主に「分類、回帰、クラスタリング、予測、生成、発見、および新しい科学的知見の開発」のために、利用可能なデータやアプリケーションの増加 を分析するために天文学で活用されている。例えば、系外惑星の発見、太陽活動の予測、重力波天文学における信号と機器の影響の区別などに活用されていま す。さらに、宇宙探査を含む宇宙活動、例えば宇宙ミッションからのデータ分析、宇宙船のリアルタイム科学判断、宇宙ごみの回避、より自律的な運用などにも 活用される可能性があります。 2024年のインドの選挙では、有権者の関心を高めるため、同盟国の政治家(時には故人を含む)のディープフェイクを作成したり、演説をさまざまな現地言語に翻訳したりするなど、認可された AI 生成コンテンツに 5,000 万米ドルが費やされた。 |
Ethics Main article: Ethics of artificial intelligence Street art in Tel Aviv[211][212] AI has potential benefits and potential risks.[213] AI may be able to advance science and find solutions for serious problems: Demis Hassabis of DeepMind hopes to "solve intelligence, and then use that to solve everything else".[214] However, as the use of AI has become widespread, several unintended consequences and risks have been identified.[215][216] In-production systems can sometimes not factor ethics and bias into their AI training processes, especially when the AI algorithms are inherently unexplainable in deep learning.[217] Risks and harm Privacy and copyright Further information: Information privacy and Artificial intelligence and copyright Machine learning algorithms require large amounts of data. The techniques used to acquire this data have raised concerns about privacy, surveillance and copyright. AI-powered devices and services, such as virtual assistants and IoT products, continuously collect personal information, raising concerns about intrusive data gathering and unauthorized access by third parties. The loss of privacy is further exacerbated by AI's ability to process and combine vast amounts of data, potentially leading to a surveillance society where individual activities are constantly monitored and analyzed without adequate safeguards or transparency. Sensitive user data collected may include online activity records, geolocation data, video, or audio.[218] For example, in order to build speech recognition algorithms, Amazon has recorded millions of private conversations and allowed temporary workers to listen to and transcribe some of them.[219] Opinions about this widespread surveillance range from those who see it as a necessary evil to those for whom it is clearly unethical and a violation of the right to privacy.[220] AI developers argue that this is the only way to deliver valuable applications and have developed several techniques that attempt to preserve privacy while still obtaining the data, such as data aggregation, de-identification and differential privacy.[221] Since 2016, some privacy experts, such as Cynthia Dwork, have begun to view privacy in terms of fairness. Brian Christian wrote that experts have pivoted "from the question of 'what they know' to the question of 'what they're doing with it'."[222] Generative AI is often trained on unlicensed copyrighted works, including in domains such as images or computer code; the output is then used under the rationale of "fair use". Experts disagree about how well and under what circumstances this rationale will hold up in courts of law; relevant factors may include "the purpose and character of the use of the copyrighted work" and "the effect upon the potential market for the copyrighted work".[223][224] Website owners who do not wish to have their content scraped can indicate it in a "robots.txt" file.[225] In 2023, leading authors (including John Grisham and Jonathan Franzen) sued AI companies for using their work to train generative AI.[226][227] Another discussed approach is to envision a separate sui generis system of protection for creations generated by AI to ensure fair attribution and compensation for human authors.[228] Dominance by tech giants The commercial AI scene is dominated by Big Tech companies such as Alphabet Inc., Amazon, Apple Inc., Meta Platforms, and Microsoft.[229][230][231] Some of these players already own the vast majority of existing cloud infrastructure and computing power from data centers, allowing them to entrench further in the marketplace.[232][233] Power needs and environmental impacts See also: Environmental impacts of artificial intelligence In January 2024, the International Energy Agency (IEA) released Electricity 2024, Analysis and Forecast to 2026, forecasting electric power use.[234] This is the first IEA report to make projections for data centers and power consumption for artificial intelligence and cryptocurrency. The report states that power demand for these uses might double by 2026, with additional electric power usage equal to electricity used by the whole Japanese nation.[235] Prodigious power consumption by AI is responsible for the growth of fossil fuel use, and might delay closings of obsolete, carbon-emitting coal energy facilities. There is a feverish rise in the construction of data centers throughout the US, making large technology firms (e.g., Microsoft, Meta, Google, Amazon) into voracious consumers of electric power. Projected electric consumption is so immense that there is concern that it will be fulfilled no matter the source. A ChatGPT search involves the use of 10 times the electrical energy as a Google search. The large firms are in haste to find power sources – from nuclear energy to geothermal to fusion. The tech firms argue that – in the long view – AI will be eventually kinder to the environment, but they need the energy now. AI makes the power grid more efficient and "intelligent", will assist in the growth of nuclear power, and track overall carbon emissions, according to technology firms.[236] A 2024 Goldman Sachs Research Paper, AI Data Centers and the Coming US Power Demand Surge, found "US power demand (is) likely to experience growth not seen in a generation...." and forecasts that, by 2030, US data centers will consume 8% of US power, as opposed to 3% in 2022, presaging growth for the electrical power generation industry by a variety of means.[237] Data centers' need for more and more electrical power is such that they might max out the electrical grid. The Big Tech companies counter that AI can be used to maximize the utilization of the grid by all.[238] In 2024, the Wall Street Journal reported that big AI companies have begun negotiations with the US nuclear power providers to provide electricity to the data centers. In March 2024 Amazon purchased a Pennsylvania nuclear-powered data center for US$650 million.[239] Nvidia CEO Jensen Huang said nuclear power is a good option for the data centers.[240] In September 2024, Microsoft announced an agreement with Constellation Energy to re-open the Three Mile Island nuclear power plant to provide Microsoft with 100% of all electric power produced by the plant for 20 years. Reopening the plant, which suffered a partial nuclear meltdown of its Unit 2 reactor in 1979, will require Constellation to get through strict regulatory processes which will include extensive safety scrutiny from the US Nuclear Regulatory Commission. If approved (this will be the first ever US re-commissioning of a nuclear plant), over 835 megawatts of power – enough for 800,000 homes – of energy will be produced. The cost for re-opening and upgrading is estimated at US$1.6 billion and is dependent on tax breaks for nuclear power contained in the 2022 US Inflation Reduction Act.[241] The US government and the state of Michigan are investing almost US$2 billion to reopen the Palisades Nuclear reactor on Lake Michigan. Closed since 2022, the plant is planned to be reopened in October 2025. The Three Mile Island facility will be renamed the Crane Clean Energy Center after Chris Crane, a nuclear proponent and former CEO of Exelon who was responsible for Exelon's spinoff of Constellation.[242] After the last approval in September 2023, Taiwan suspended the approval of data centers north of Taoyuan with a capacity of more than 5 MW in 2024, due to power supply shortages.[243] Taiwan aims to phase out nuclear power by 2025.[243] On the other hand, Singapore imposed a ban on the opening of data centers in 2019 due to electric power, but in 2022, lifted this ban.[243] Although most nuclear plants in Japan have been shut down after the 2011 Fukushima nuclear accident, according to an October 2024 Bloomberg article in Japanese, cloud gaming services company Ubitus, in which Nvidia has a stake, is looking for land in Japan near nuclear power plant for a new data center for generative AI.[244] Ubitus CEO Wesley Kuo said nuclear power plants are the most efficient, cheap and stable power for AI.[244] On 1 November 2024, the Federal Energy Regulatory Commission (FERC) rejected an application submitted by Talen Energy for approval to supply some electricity from the nuclear power station Susquehanna to Amazon's data center.[245] According to the Commission Chairman Willie L. Phillips, it is a burden on the electricity grid as well as a significant cost shifting concern to households and other business sectors.[245] In 2025, a report prepared by the International Energy Agency estimated the greenhouse gas emissions from the energy consumption of AI at 180 million tons. By 2035, these emissions could rise to 300–500 million tonnes depending on what measures will be taken. This is below 1.5% of the energy sector emissions. The emissions reduction potential of AI was estimated at 5% of the energy sector emissions, but rebound effects (for example if people switch from public transport to autonomous cars) can reduce it.[246] Misinformation See also: YouTube § Moderation and offensive content YouTube, Facebook and others use recommender systems to guide users to more content. These AI programs were given the goal of maximizing user engagement (that is, the only goal was to keep people watching). The AI learned that users tended to choose misinformation, conspiracy theories, and extreme partisan content, and, to keep them watching, the AI recommended more of it. Users also tended to watch more content on the same subject, so the AI led people into filter bubbles where they received multiple versions of the same misinformation.[247] This convinced many users that the misinformation was true, and ultimately undermined trust in institutions, the media and the government.[248] The AI program had correctly learned to maximize its goal, but the result was harmful to society. After the U.S. election in 2016, major technology companies took some steps to mitigate the problem.[249] In the early 2020s, generative AI began to create images, audio, and texts that are virtually indistinguishable from real photographs, recordings, or human writing,[250] while realistic AI-generated videos became feasible in the mid-2020s.[251][252][253] It is possible for bad actors to use this technology to create massive amounts of misinformation or propaganda;[254] one such potential malicious use is deepfakes for computational propaganda.[255] AI pioneer Geoffrey Hinton expressed concern about AI enabling "authoritarian leaders to manipulate their electorates" on a large scale, among other risks.[256] AI researchers at Microsoft, OpenAI, universities and other organisations have suggested using "personhood credentials" as a way to overcome online deception enabled by AI models.[257] Algorithmic bias and fairness Main articles: Algorithmic bias and Fairness (machine learning) Machine learning applications will be biased[k] if they learn from biased data.[259] The developers may not be aware that the bias exists.[260] Bias can be introduced by the way training data is selected and by the way a model is deployed.[261][259] If a biased algorithm is used to make decisions that can seriously harm people (as it can in medicine, finance, recruitment, housing or policing) then the algorithm may cause discrimination.[262] The field of fairness studies how to prevent harms from algorithmic biases. On June 28, 2015, Google Photos's new image labeling feature mistakenly identified Jacky Alcine and a friend as "gorillas" because they were black. The system was trained on a dataset that contained very few images of black people,[263] a problem called "sample size disparity".[264] Google "fixed" this problem by preventing the system from labelling anything as a "gorilla". Eight years later, in 2023, Google Photos still could not identify a gorilla, and neither could similar products from Apple, Facebook, Microsoft and Amazon.[265] COMPAS is a commercial program widely used by U.S. courts to assess the likelihood of a defendant becoming a recidivist. In 2016, Julia Angwin at ProPublica discovered that COMPAS exhibited racial bias, despite the fact that the program was not told the races of the defendants. Although the error rate for both whites and blacks was calibrated equal at exactly 61%, the errors for each race were different—the system consistently overestimated the chance that a black person would re-offend and would underestimate the chance that a white person would not re-offend.[266] In 2017, several researchers[l] showed that it was mathematically impossible for COMPAS to accommodate all possible measures of fairness when the base rates of re-offense were different for whites and blacks in the data.[268] A program can make biased decisions even if the data does not explicitly mention a problematic feature (such as "race" or "gender"). The feature will correlate with other features (like "address", "shopping history" or "first name"), and the program will make the same decisions based on these features as it would on "race" or "gender".[269] Moritz Hardt said "the most robust fact in this research area is that fairness through blindness doesn't work."[270] Criticism of COMPAS highlighted that machine learning models are designed to make "predictions" that are only valid if we assume that the future will resemble the past. If they are trained on data that includes the results of racist decisions in the past, machine learning models must predict that racist decisions will be made in the future. If an application then uses these predictions as recommendations, some of these "recommendations" will likely be racist.[271] Thus, machine learning is not well suited to help make decisions in areas where there is hope that the future will be better than the past. It is descriptive rather than prescriptive.[m] Bias and unfairness may go undetected because the developers are overwhelmingly white and male: among AI engineers, about 4% are black and 20% are women.[264] There are various conflicting definitions and mathematical models of fairness. These notions depend on ethical assumptions, and are influenced by beliefs about society. One broad category is distributive fairness, which focuses on the outcomes, often identifying groups and seeking to compensate for statistical disparities. Representational fairness tries to ensure that AI systems do not reinforce negative stereotypes or render certain groups invisible. Procedural fairness focuses on the decision process rather than the outcome. The most relevant notions of fairness may depend on the context, notably the type of AI application and the stakeholders. The subjectivity in the notions of bias and fairness makes it difficult for companies to operationalize them. Having access to sensitive attributes such as race or gender is also considered by many AI ethicists to be necessary in order to compensate for biases, but it may conflict with anti-discrimination laws.[258] At its 2022 Conference on Fairness, Accountability, and Transparency (ACM FAccT 2022), the Association for Computing Machinery, in Seoul, South Korea, presented and published findings that recommend that until AI and robotics systems are demonstrated to be free of bias mistakes, they are unsafe, and the use of self-learning neural networks trained on vast, unregulated sources of flawed internet data should be curtailed.[dubious – discuss][273] Lack of transparency See also: Explainable AI, Algorithmic transparency, and Right to explanation Many AI systems are so complex that their designers cannot explain how they reach their decisions.[274] Particularly with deep neural networks, in which there are many non-linear relationships between inputs and outputs. But some popular explainability techniques exist.[275] It is impossible to be certain that a program is operating correctly if no one knows how exactly it works. There have been many cases where a machine learning program passed rigorous tests, but nevertheless learned something different than what the programmers intended. For example, a system that could identify skin diseases better than medical professionals was found to actually have a strong tendency to classify images with a ruler as "cancerous", because pictures of malignancies typically include a ruler to show the scale.[276] Another machine learning system designed to help effectively allocate medical resources was found to classify patients with asthma as being at "low risk" of dying from pneumonia. Having asthma is actually a severe risk factor, but since the patients having asthma would usually get much more medical care, they were relatively unlikely to die according to the training data. The correlation between asthma and low risk of dying from pneumonia was real, but misleading.[277] People who have been harmed by an algorithm's decision have a right to an explanation.[278] Doctors, for example, are expected to clearly and completely explain to their colleagues the reasoning behind any decision they make. Early drafts of the European Union's General Data Protection Regulation in 2016 included an explicit statement that this right exists.[n] Industry experts noted that this is an unsolved problem with no solution in sight. Regulators argued that nevertheless the harm is real: if the problem has no solution, the tools should not be used.[279] DARPA established the XAI ("Explainable Artificial Intelligence") program in 2014 to try to solve these problems.[280] Several approaches aim to address the transparency problem. SHAP enables to visualise the contribution of each feature to the output.[281] LIME can locally approximate a model's outputs with a simpler, interpretable model.[282] Multitask learning provides a large number of outputs in addition to the target classification. These other outputs can help developers deduce what the network has learned.[283] Deconvolution, DeepDream and other generative methods can allow developers to see what different layers of a deep network for computer vision have learned, and produce output that can suggest what the network is learning.[284] For generative pre-trained transformers, Anthropic developed a technique based on dictionary learning that associates patterns of neuron activations with human-understandable concepts.[285] Bad actors and weaponized AI Main articles: Lethal autonomous weapon, Artificial intelligence arms race, and AI safety Artificial intelligence provides a number of tools that are useful to bad actors, such as authoritarian governments, terrorists, criminals or rogue states. A lethal autonomous weapon is a machine that locates, selects and engages human targets without human supervision.[o] Widely available AI tools can be used by bad actors to develop inexpensive autonomous weapons and, if produced at scale, they are potentially weapons of mass destruction.[287] Even when used in conventional warfare, they currently cannot reliably choose targets and could potentially kill an innocent person.[287] In 2014, 30 nations (including China) supported a ban on autonomous weapons under the United Nations' Convention on Certain Conventional Weapons, however the United States and others disagreed.[288] By 2015, over fifty countries were reported to be researching battlefield robots.[289] AI tools make it easier for authoritarian governments to efficiently control their citizens in several ways. Face and voice recognition allow widespread surveillance. Machine learning, operating this data, can classify potential enemies of the state and prevent them from hiding. Recommendation systems can precisely target propaganda and misinformation for maximum effect. Deepfakes and generative AI aid in producing misinformation. Advanced AI can make authoritarian centralized decision-making more competitive than liberal and decentralized systems such as markets. It lowers the cost and difficulty of digital warfare and advanced spyware.[290] All these technologies have been available since 2020 or earlier—AI facial recognition systems are already being used for mass surveillance in China.[291][292] There are many other ways in which AI is expected to help bad actors, some of which can not be foreseen. For example, machine-learning AI is able to design tens of thousands of toxic molecules in a matter of hours.[293] Technological unemployment Main articles: Workplace impact of artificial intelligence and Technological unemployment Economists have frequently highlighted the risks of redundancies from AI, and speculated about unemployment if there is no adequate social policy for full employment.[294] In the past, technology has tended to increase rather than reduce total employment, but economists acknowledge that "we're in uncharted territory" with AI.[295] A survey of economists showed disagreement about whether the increasing use of robots and AI will cause a substantial increase in long-term unemployment, but they generally agree that it could be a net benefit if productivity gains are redistributed.[296] Risk estimates vary; for example, in the 2010s, Michael Osborne and Carl Benedikt Frey estimated 47% of U.S. jobs are at "high risk" of potential automation, while an OECD report classified only 9% of U.S. jobs as "high risk".[p][298] The methodology of speculating about future employment levels has been criticised as lacking evidential foundation, and for implying that technology, rather than social policy, creates unemployment, as opposed to redundancies.[294] In April 2023, it was reported that 70% of the jobs for Chinese video game illustrators had been eliminated by generative artificial intelligence.[299][300] Unlike previous waves of automation, many middle-class jobs may be eliminated by artificial intelligence; The Economist stated in 2015 that "the worry that AI could do to white-collar jobs what steam power did to blue-collar ones during the Industrial Revolution" is "worth taking seriously".[301] Jobs at extreme risk range from paralegals to fast food cooks, while job demand is likely to increase for care-related professions ranging from personal healthcare to the clergy.[302] From the early days of the development of artificial intelligence, there have been arguments, for example, those put forward by Joseph Weizenbaum, about whether tasks that can be done by computers actually should be done by them, given the difference between computers and humans, and between quantitative calculation and qualitative, value-based judgement.[303] Existential risk Main article: Existential risk from artificial intelligence It has been argued AI will become so powerful that humanity may irreversibly lose control of it. This could, as physicist Stephen Hawking stated, "spell the end of the human race".[304] This scenario has been common in science fiction, when a computer or robot suddenly develops a human-like "self-awareness" (or "sentience" or "consciousness") and becomes a malevolent character.[q] These sci-fi scenarios are misleading in several ways. First, AI does not require human-like sentience to be an existential risk. Modern AI programs are given specific goals and use learning and intelligence to achieve them. Philosopher Nick Bostrom argued that if one gives almost any goal to a sufficiently powerful AI, it may choose to destroy humanity to achieve it (he used the example of a paperclip maximizer).[306] Stuart Russell gives the example of household robot that tries to find a way to kill its owner to prevent it from being unplugged, reasoning that "you can't fetch the coffee if you're dead."[307] In order to be safe for humanity, a superintelligence would have to be genuinely aligned with humanity's morality and values so that it is "fundamentally on our side".[308] Second, Yuval Noah Harari argues that AI does not require a robot body or physical control to pose an existential risk. The essential parts of civilization are not physical. Things like ideologies, law, government, money and the economy are built on language; they exist because there are stories that billions of people believe. The current prevalence of misinformation suggests that an AI could use language to convince people to believe anything, even to take actions that are destructive.[309] The opinions amongst experts and industry insiders are mixed, with sizable fractions both concerned and unconcerned by risk from eventual superintelligent AI.[310] Personalities such as Stephen Hawking, Bill Gates, and Elon Musk,[311] as well as AI pioneers such as Yoshua Bengio, Stuart Russell, Demis Hassabis, and Sam Altman, have expressed concerns about existential risk from AI. In May 2023, Geoffrey Hinton announced his resignation from Google in order to be able to "freely speak out about the risks of AI" without "considering how this impacts Google".[312] He notably mentioned risks of an AI takeover,[313] and stressed that in order to avoid the worst outcomes, establishing safety guidelines will require cooperation among those competing in use of AI.[314] In 2023, many leading AI experts endorsed the joint statement that "Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war".[315] Some other researchers were more optimistic. AI pioneer Jürgen Schmidhuber did not sign the joint statement, emphasising that in 95% of all cases, AI research is about making "human lives longer and healthier and easier."[316] While the tools that are now being used to improve lives can also be used by bad actors, "they can also be used against the bad actors."[317][318] Andrew Ng also argued that "it's a mistake to fall for the doomsday hype on AI—and that regulators who do will only benefit vested interests."[319] Yann LeCun "scoffs at his peers' dystopian scenarios of supercharged misinformation and even, eventually, human extinction."[320] In the early 2010s, experts argued that the risks are too distant in the future to warrant research or that humans will be valuable from the perspective of a superintelligent machine.[321] However, after 2016, the study of current and future risks and possible solutions became a serious area of research.[322] |
倫理 主な記事:人工知能の倫理 テルアビブのストリートアート[211][212] AI には潜在的なメリットと潜在的なリスクがある[213]。AI は科学の進歩や深刻な問題の解決につながる可能性がある。DeepMind の Demis Hassabis は、「知能の問題を解決し、それを使って他のすべての問題を解決したい」と語っている[214]。しかし、AI の利用が普及するにつれて、いくつかの意図しない結果やリスクが指摘されている[215][216]。生産中のシステムでは、特に AI アルゴリズムがディープラーニングで本質的に説明不可能な場合、AI のトレーニングプロセスに倫理や偏見が考慮されないことがある[217]。 リスクと害 プライバシーと著作権 詳細情報:情報プライバシーと人工知能と著作権 機械学習アルゴリズムには、大量のデータが必要だ。このデータを取得するために使用される手法は、プライバシー、監視、著作権に関する懸念を引き起こしている。 仮想アシスタントや IoT 製品などの AI 搭載のデバイスやサービスは、個人情報を継続的に収集しており、侵入的なデータ収集や第三者による不正アクセスに関する懸念が高まっている。AI は膨大な量のデータを処理・結合する能力があるため、プライバシーの喪失はさらに深刻化し、適切な保護措置や透明性がないまま、個人の行動が常に監視・分 析される監視社会につながるおそれがある。 収集される敏感なユーザーデータには、オンライン活動記録、位置情報データ、動画、音声などが含まれる。[218] 例えば、音声認識アルゴリズムを構築するため、アマゾンは数百万件のプライベートな会話を録音し、一時従業員にその一部を聞き取り・文字起こしさせること を許可した。[219] この広範な監視に対する意見は、必要悪と見なす立場から、明らかに倫理に反しプライバシー権の侵害だとする立場まで多岐にわたる。[220] AI 開発者は、これは価値のあるアプリケーションを提供するための唯一の方法であると主張し、データ取得とプライバシー保護の両立を図る、データ集約、匿名 化、差分プライバシーなどのいくつかの技術を開発している。[221] 2016 年以降、シンシア・ドワークなどの一部のプライバシー専門家は、プライバシーを公平性の観点から捉えるようになった。ブライアン・クリスチャンは、専門家 たちは「彼らが何を知っているか」という質問から「彼らがそれを使って何をしているか」という質問へと軸足を移したと書いている。[222] 生成AIは、画像やコンピュータコードなどの分野を含む、ライセンスのない著作権で保護された作品を用いて訓練されることが多い。その出力は、「フェア ユース」の論理に基づいて使用される。専門家は、この根拠が法廷でどの程度有効か、またどのような状況下で有効かについて意見が分かれています。関連する 要因には、「著作権対象物の使用の目的と性格」や「著作権対象物の潜在的な市場への影響」などが挙げられます。[223][224] コンテンツのスクレイピングを望まないウェブサイト運営者は、その旨を「robots.txt」ファイルで明示できます。[225] 2023年、ジョン・グリシャムやジョナサン・フランゼンを含む主要な作家が、AI企業に対し、自身の作品をジェネレーティブAIの訓練に利用したとして 提訴した。[226][227] 別の議論されているアプローチは、AIによって生成された創作物に対して、人間の著作者への適切な帰属と補償を確保するための独自の保護制度を創設するも のである。[228] ハイテク大手企業の支配 商業用 AI 業界は、Alphabet Inc.、Amazon、Apple Inc.、Meta Platforms、Microsoft などのハイテク大手企業によって支配されている。[229][230][231] これらの企業の一部は、データセンターから既存のクラウドインフラストラクチャおよびコンピューティング能力の大部分をすでに所有しており、市場での地位 をさらに固めている。[232][233] 電力需要と環境への影響 参照:人工知能の環境への影響 2024年1月、国際エネルギー機関(IEA)は、電力使用量を予測した「Electricity 2024, Analysis and Forecast to 2026」を発表しました。[234] これは、データセンター、人工知能、暗号通貨の電力消費量について予測を行った、IEA初の報告書です。この報告書によると、これらの用途の電力需要は 2026 年までに 2 倍になり、追加の電力使用量は日本の全国消費電力量に匹敵する可能性があるとしています。 AI の驚異的な電力消費は化石燃料の使用量の増加の原因となっており、炭素を排出する旧式の石炭火力発電所の閉鎖を遅らせる可能性がある。米国ではデータセン ターの建設が急増しており、マイクロソフト、メタ、グーグル、アマゾンなどの大手テクノロジー企業が電力の大量消費者となっている。予測される電力消費量 は極めて巨大で、その供給源に関わらず満たされるかどうか懸念されている。ChatGPTの検索は、グーグルの検索の10倍の電力を消費する。大手企業 は、原子力から地熱、融合まで、電力源の確保を急いでいる。テクノロジー企業は、長期的に見ればAIが環境への負荷を軽減すると主張しているが、現在はエ ネルギーが必要だと主張している。テクノロジー企業によると、AIは電力網の効率化と「知能化」を促進し、原子力発電の拡大を支援し、全体の二酸化炭素排 出量を追跡する。[236] 2024年のゴールドマン・サックスのリサーチペーパー「AIデータセンターと迫る米国の電力需要急増」は、「米国の電力需要は、世代で類を見ない成長を 遂げる可能性が高い」と指摘し、2030年までに米国のデータセンターが電力の8%を消費すると予測している(2022年は3%)。これは、多様な手段に よる電力発電業界の成長を予示している。[237] データセンターはますます多くの電力を必要とするため、電力網の格律に達するおそれがある。ビッグテック企業は、AI を利用することで、すべてのユーザーによる電力網の利用を最大化できると反論している。[238] 2024年、ウォールストリート・ジャーナルは、大手AI企業が米国原子力発電事業者との交渉を開始し、データセンターへの電力供給を検討していると報じ た。2024年3月、アマゾンはペンシルベニア州の原子力発電所を運営するデータセンターを6億5,000万ドルで買収した。[239] エヌビディアのCEO、ジェンセン・フアンは、原子力発電はデータセンターにとって良い選択肢だと述べた。[240] 2024年9月、マイクロソフトはコンステレーション・エナジーと、スリーマイルアイランド原子力発電所を再稼働し、同発電所で生産される全電力を20年 間マイクロソフトに供給する契約を締結したと発表した。1979 年に 2 号炉で部分的なメルトダウンに見舞われたこの発電所を再開するには、コンステレーションは、米国原子力規制委員会による徹底的な安全審査を含む厳しい規制 手続きを通過する必要がある。承認されれば(これは米国初の原子力発電所の再稼働となる)、835メガワットを超える電力(80万世帯分の電力に相当)が 生産されることになります。再稼働と改修の費用は16億ドルと見積もられており、2022年の米国インフレーション削減法に盛り込まれた原子力発電への税 制優遇措置に依存している。[241]米国政府とミシガン州は、ミシガン湖にあるパリスデーズ原子力発電所の再稼働にほぼ20億ドルを投資している。 2022年に閉鎖された同発電所は、2025年10月に再稼働する予定だ。スリーマイルアイランド施設は、エクセロン社のスピンオフでコンステレーション 社の分離を担当した原子力推進派で元エクセロンCEOのクリス・クレーン氏にちなみ、クレーン・クリーン・エネルギー・センターに改名される。[242] 2023年9月の最終承認後、台湾は電力供給不足を理由に、2024年に桃園北部で5MW以上の容量を持つデータセンターの承認を一時停止した。 [243] 台湾は2025年までに原子力発電を段階的に廃止する目標を掲げている。[243] 一方、シンガポールは2019年に電力不足を理由にデータセンターの開設を禁止したが、2022年にこの禁止を解除した。[243] 2011年の福島原発事故後、日本のほとんどの原発は停止しているが、2024年10月のブルームバーグの記事によると、Nvidiaが株式を保有するク ラウドゲームサービス会社のUbitusは、生成AI用の新しいデータセンター建設用地として、日本の原発周辺の土地を探しているとのことだ。[244] UbitusのCEOウェスリー・クオ氏は、原子力発電所はAIにとって最も効率的で安価かつ安定した電源だと述べた。[244] 2024年11月1日、連邦エネルギー規制委員会(FERC)は、タレン・エナジーがアマゾンのデータセンターへの電力供給を承認する申請を却下した。 [245] 委員会委員長ウィリー・L・フィリップス氏は、これは電力網への負担であり、家庭や他の産業部門へのコスト転嫁の重大な懸念だと述べた。[245] 2025年、国際エネルギー機関(IEA)が作成した報告書では、AIのエネルギー消費による温室効果ガス排出量を1億8,000万トンと推計した。 2035年までに、これらの排出量は、講じられる措置によっては3億~5億トンに増加する可能性がある。これはエネルギー部門の排出量の1.5%未満であ る。AI の排出削減の可能性は、エネルギー部門の排出量の 5% と推定されているが、リバウンド効果(例えば、人々が公共交通機関から自動運転車に移行する場合など)によって、その効果は減少する可能性がある。 [246] 誤報 参照:YouTube § モデレーションと不快なコンテンツ YouTube、Facebook などは、ユーザーにより多くのコンテンツを案内するためにレコメンダーシステムを使用している。これらの AI プログラムには、ユーザーエンゲージメントを最大化するという目標が与えられていた(つまり、唯一の目標はユーザーを視聴させ続けることだった)。AI は、ユーザーが誤報、陰謀説、極端な党派的なコンテンツを選ぶ傾向があることを学習し、ユーザーを視聴させ続けるために、そのようなコンテンツをより多く 推奨した。また、ユーザーは同じテーマのコンテンツをより多く視聴する傾向があったため、AI は人々をフィルターバブルに誘導し、同じ誤報を複数のバージョンで受け取るようにした。[247] これにより、多くのユーザーは誤報が真実であると確信し、最終的には機関、メディア、政府に対する信頼が損なわれた。[248] AI プログラムは、その目標を最大化することを正しく学習したが、その結果は社会にとって有害なものとなった。2016年の米国大統領選挙後、大手テクノロ ジー企業は問題の緩和に向けた措置を講じた。[249] 2020年代初頭、生成型AIは、実際の写真、録音、人間の文章と区別がつかない画像、音声、テキストの作成を開始し[250]、2020年代半ばには、 現実的なAI生成動画の制作が可能になった。[251][252][253] 悪意のある者がこの技術を利用して大量の誤情報やプロパガンダを作成する可能性があり[254]、その一例として計算機プロパガンダのためのディープフェ イクが挙げられる[255]。AIの先駆者であるジェフリー・ヒントンは、AIが「独裁的な指導者が大規模に有権者を操作する」ことを可能にするリスクを 含む、他のリスクについても懸念を表明した[256]。 マイクロソフト、OpenAI、大学、その他の組織のAI研究者は、AIモデルによるオンラインでの欺瞞を克服する方法として、「人格認証」の利用を提案している。[257] アルゴリズムの偏りと公平性 主な記事:アルゴリズムの偏りと公平性(機械学習) 機械学習アプリケーションは、偏ったデータから学習した場合、偏った結果を生む[k]。[259] 開発者は、その偏りが存在することに気づいていない場合もある。[260] バイアスは、トレーニングデータの選択方法やモデルの導入方法によって生じる可能性がある。[261][259] 偏ったアルゴリズムを使用して、人々に深刻な害を及ぼす可能性のある決定(医療、金融、採用、住宅、警察など)を行う場合、そのアルゴリズムは差別を引き 起こす可能性がある。[262] 公平性の分野では、アルゴリズムのバイアスによる害を防ぐ方法を研究している。 2015年6月28日、Googleフォトの新しい画像ラベル付け機能が、ジャック・アルシン氏とその友人を、彼らが黒人であるという理由で「ゴリラ」と 誤認識した。このシステムは、黒人の画像がほとんど含まれていないデータセットで学習されていたため[263]、「サンプルサイズの格差」と呼ばれる問題 が発生した。[264] Google は、システムが「ゴリラ」とラベル付けできないようにすることで、この問題を「修正」した。8 年後の 2023 年、Google Photos は依然としてゴリラを識別できず、Apple、Facebook、Microsoft、Amazon の類似製品も同様だった。[265] COMPAS は、米国裁判所が被告の再犯の可能性を評価するために広く使用されている商用プログラムだ。2016 年、ProPublica の Julia Angwin は、COMPAS が、被告の人種に関する情報は提供されていないにもかかわらず、人種的な偏見を示していることを発見した。白人と黒人の誤検出率は、いずれも 61% とまったく同じに調整されていたが、人種ごとに誤検出率は異なっており、このシステムは、黒人が再犯する確率を一貫して過大評価し、白人が再犯しない確率 を過小評価していた。[266] 2017 年、複数の研究者[l] は、データにおける白人と黒人の再犯の基本率が異なる場合、COMPAS がすべての可能な公平性の基準に対応することは数学的に不可能であることを示した[268]。 プログラムは、データに問題のある特徴(人種や性別など)が明示的に記載されていなくても、偏った決定を下す可能性がある。その特徴は他の特徴(「住 所」、「購入履歴」、「名」など)と相関し、プログラムは「人種」や「性別」と同じように、これらの特徴に基づいて同じ決定を下すことになる。[269] モリッツ・ハートは、「この研究分野で最も確固たる事実は、盲目による公平性は機能しないということだ」と述べている。[270] COMPASに対する批判は、機械学習モデルは「予測」を行うように設計されており、その予測は過去が未来と類似すると仮定した場合にのみ有効であること を指摘した。過去の差別的な決定の結果を含むデータで訓練された機械学習モデルは、未来にも差別的な決定が下されると予測しなければならない。アプリケー ションがこれらの予測を推奨として使用した場合、一部の「推奨」は差別的になる可能性が高い。[271] したがって、機械学習は、将来が過去よりも良くなると期待される分野での意思決定を支援するには適していない。機械学習は規範的ではなく、記述的である。 [m] 開発者が圧倒的に白人男性であることから、偏見や不公平が見過ごされる可能性がある。AI エンジニアのうち、黒人は約 4%、女性は 20% である。[264] 公平性については、さまざまな矛盾する定義や数学的モデルがある。これらの概念は倫理的仮定に依存し、社会に関する信念の影響を受ける。大まかな分類とし ては、結果に焦点を当て、多くの場合、グループを特定し、統計的な格差の是正を目指す「分配的公平性」がある。表現的公平性は、AI システムが否定的な固定観念を強化したり、特定のグループを見えなくしたりしないことを保証しようとするものだ。手続き的公平性は、結果ではなく意思決定 プロセスに焦点を当てている。最も適切な公平性の概念は、状況、特に AI アプリケーションの種類や利害関係者によって異なる場合があります。偏見や公平性の概念には主体性があるため、企業はそれらを運用化することが困難です。 人種や性別などの機密性の高い属性へのアクセスは、偏見を補うために必要であると多くの AI 倫理学者によって考えられていますが、差別禁止法と矛盾する可能性があります。[258] 2022年、韓国・ソウルで開催された「公平性、説明責任、透明性に関するカンファレンス(ACM FAccT 2022)」において、米国計算機学会(ACM)は、AIおよびロボットシステムがバイアスによる誤りを犯さないことが実証されるまで、それらを安全とは 見なすことができないとし、規制されていない大規模なインターネットデータから訓練された自己学習型ニューラルネットワークの使用を制限すべきだとする調 査結果を発表し、公表した。[疑わしい – 議論が必要][273] 透明性の欠如 関連項目:説明可能な AI、アルゴリズムの透明性、説明を受ける権利 多くの AI システムは、その設計者でさえその決定の過程を説明できないほど複雑だ。[274] 特に、入力と出力の間に多くの非線形関係がある深層ニューラルネットワークではその傾向が強い。しかし、いくつかの一般的な説明手法は存在する。[275] プログラムがどのように機能しているかを誰も正確に把握していない場合、そのプログラムが正しく動作しているかどうかを確実に判断することは不可能だ。機 械学習プログラムが厳格なテストに合格したにもかかわらず、プログラマーの意図とは異なることを学習してしまった例は数多くある。例えば、医療専門家より も皮膚疾患の診断に優れたシステムがあったが、悪性腫瘍の写真には通常、その大きさを示すために定規が写っているため、このシステムは定規が写っている画 像を「癌」と分類する傾向が強いことが判明した。[276] 医療資源の有効な配分を支援する別の機械学習システムは、喘息患者を「肺炎による死亡リスクが低い」と分類した。喘息は実際には重篤なリスク要因だが、喘 息患者は通常より多くの医療を受けるため、トレーニングデータでは相対的に死亡リスクが低いとされた。喘息と肺炎による死亡リスクの低さとの相関は現実の ものだったが、誤解を招くものだった。[277] アルゴリズムの決定によって被害を受けた人々は、説明を受ける権利がある[278]。例えば、医師は、自分の決定の根拠を同僚に明確かつ完全に説明するこ とが求められている。2016 年の欧州連合の一般データ保護規則の初期草案には、この権利が存在することを明示的に記載していた[n]。業界専門家は、これは解決の見通しの立たない未 解決の問題であると指摘している。規制当局は、問題が解決できない場合、そのツールは使用すべきではないと主張した。[279] DARPA は、これらの問題を解決するために、2014 年に XAI(「説明可能な人工知能」)プログラムを設立した。[280] 透明性の問題に対処するためのいくつかのアプローチがある。SHAP は、出力に対する各特徴の寄与を視覚化することができる。[281] LIME は、より単純で解釈可能なモデルを用いて、モデルの出力の近似値を局所的に算出することができる。[282] マルチタスク学習は、ターゲットの分類に加えて、多数の出力を提供する。これらの他の出力は、開発者がネットワークが学習した内容を推測するのに役立つ。 [283] デコンボリューション、DeepDream、その他の生成手法により、開発者は、コンピュータビジョン用のディープネットワークの異なるレイヤーが何を学 習したかを確認し、ネットワークが学習している内容を示唆する出力を生成することができる。[284] 生成型事前学習トランスフォーマーについて、Anthropic は、ニューロンの発火パターンを人間が理解できる概念に関連付ける辞書学習に基づく手法を開発した。[285] 悪意のある人物や兵器化された AI 主な記事:致死的な自律型兵器、人工知能の軍拡競争、AI の安全性 人工知能は、権威主義的な政府、テロリスト、犯罪者、悪辣な国家など、悪意のある人物に有用なさまざまなツールを提供している。 致死的な自律型兵器とは、人間の監督なしに人間の標的を特定、選択、攻撃する機械のことだ。[o] 広く入手可能な AI ツールは、悪意のある者によって安価な自律型兵器の開発に利用される可能性があり、大量生産された場合、大量破壊兵器となる可能性がある。[287] 従来の戦争で使用された場合でも、現在のところ、標的を確実に選択することはできず、無実の人間を殺害する可能性がある。[287] 2014 年、30 カ国(中国を含む)が、国連「特定通常兵器使用禁止条約」に基づく自律型兵器の禁止を支持したが、米国などはこれに反対した。[288] 2015 年までに、50 カ国以上が戦場用ロボットの研究を行っていると報告されている。[289] AIツールは、独裁政権が市民を効率的に支配するのを容易にする。顔認識と音声認識は広範な監視を可能にする。このデータを処理する機械学習は、国家の敵 を分類し、隠れるのを防ぐことができる。推薦システムは、プロパガンダや誤情報を最大効果で標的化する。ディープフェイクと生成AIは誤情報の作成を支援 する。高度なAIは、独裁的な中央集権的な意思決定を、市場のような自由で分散型のシステムよりも競争力のあるものにする可能性がある。デジタル戦争や高 度なスパイウェアのコストと難易度を低下させる。[290] これらの技術はすべて、2020 年以前から利用可能になっている。AI 顔認識システムは、中国ではすでに大規模監視に利用されている。[291][292] AI が悪意のある人物に役立つと予想される方法は他にも数多くあり、その一部は予測できない。例えば、機械学習 AI は、数時間で数万種類の有毒分子を設計することができる。[293] 技術的失業 主な記事:人工知能の職場への影響と技術的失業 経済学者たちは、AI による余剰人員の発生リスクを頻繁に指摘し、完全雇用を実現する適切な社会政策がない場合、失業が発生するだろうと推測している。[294] 過去には、技術は総雇用を減少させるよりも増加させる傾向にありました。しかし、経済学者たちは「AIに関しては未踏の領域にある」と認めています。 [295] 経済学者たちの調査では、ロボットとAIの普及が長期的な失業率の著しい増加を引き起こすかどうかについて意見が分かれていますが、生産性向上の利益が再 分配されれば、全体として利益になる可能性があると一般に同意しています。[296] リスクの推計は多様で、例えば2010年代にマイケル・オズボーンとカール・ベネディクト・フレイは、米国の雇用全体の47%が「高いリスク」にさらされ ていると推計したが、OECDの報告書では米国の雇用の9%のみが「高いリスク」に分類された。[p][298] 将来の雇用水準について推測する手法は、証拠に基づく根拠が欠如しており、社会政策ではなくテクノロジーが失業を生み出していると示唆しているとして批判 されている。[294] 2023年4月、中国のビデオゲームイラストレーターの職の70%が、生成型人工知能によって消滅したと報じられた。[299][300] これまでの自動化の波とは異なり、人工知能によって多くの中流階級の職が消滅する可能性がある。エコノミスト誌は 2015 年に、「産業革命において蒸気力がブルーカラーの仕事に与えた影響と同じような影響を AI がホワイトカラーの仕事に与えるのではないかという懸念は、真剣に受け止めるべきである」と述べた。[301] 極度のリスクにさらされている職業は、パラリーガルからファーストフードの調理師まで多岐にわたる一方、パーソナルヘルスケアから聖職者まで、介護関連職 業の需要は増加する可能性が高い。[302] 人工知能の開発の初期から、コンピュータと人間、そして定量的な計算と定性的な価値判断との違いを考慮して、コンピュータで実行できる作業は実際にコンピュータに任せるべきかどうかについて、ジョセフ・ワイゼンバウムなどによる議論が繰り広げられてきた。[303] 実存的リスク 主な記事:人工知能による実存的リスク AI は非常に強力になり、人類は AI の制御を回復不可能なほど失うことになるだろうという主張がある。これは、物理学者スティーブン・ホーキングが述べたように、「人類の終焉」を意味するこ とになるかもしれない[304]。このシナリオは、コンピュータやロボットが突然人間のような「自己認識」(または「知覚力」や「意識」)を発達させ、悪 意のあるキャラクターになる、というSFでよく見られるものだ。[q] こうした SF のシナリオは、いくつかの点で誤解を招くものです。 まず、AI が実存的リスクとなるには、人間のような知覚能力は必要ありません。現代の AI プログラムには、特定の目標が与えられ、学習と知能を用いてその目標を達成します。哲学者ニック・ボストロムは、十分に強力な AI にほぼあらゆる目標を与えた場合、その AI は目標を達成するために人類を滅ぼすことを選択するかもしれない、と主張しています(彼は、ペーパークリップの格律を例に挙げています)。[306] スチュワート・ラッセルは、「死んだらコーヒーを運べない」という理由から、電源を切られるのを防ぐために飼い主を殺す方法を探そうとする家庭用ロボット の例を挙げている[307]。人類にとって安全であるためには、超知能は「根本的に私たちの味方」であるように、人類の道徳観や価値観と真に一致していな ければならない[308]。 第二に、ユヴァル・ノア・ハラリは、AI が存在の危機をもたらすためには、ロボットの身体や物理的な制御は必要ないと主張している。文明の本質的な部分は物理的なものではない。イデオロギー、法 律、政府、お金、経済などは、言語の上に構築されており、何十億もの人々が信じる物語があるからこそ存在している。現在の誤った情報の蔓延は、AI が言語を使って人々に何でも信じさせ、破壊的な行動さえも取らせることができることを示唆している。[309] 専門家や業界関係者の意見は混血で、最終的な超知能 AI のリスクを懸念する人々と、懸念しない人々とに大きく分かれている。[310] スティーブン・ホーキング、ビル・ゲイツ、イーロン・マスクなどの著名人[311]、およびヨシュア・ベンジオ、スチュワート・ラッセル、デミス・ハサビ ス、サム・アルトマンなどの AI の先駆者たちは、AI による実存的リスクについて懸念を表明している。 2023年5月、ジェフリー・ヒントンは、「Google に与える影響を考慮することなく、AI のリスクについて自由に発言する」ことができるよう、Google を辞職すると発表した。[312] 彼は特に、AI が支配するリスクについて言及し[313]、最悪の結果を回避するためには、AI の利用で競合する者たちが協力して安全ガイドラインを策定する必要があることを強調した。[314] 2023年、多くのAIの第一人者は、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで、世界的な優先課題であるべきである」という共同声明に賛同した。[315] 一方、より楽観的な見方をする研究者もいる。AI の先駆者であるユルゲン・シュミットフーバー氏は、この共同声明に署名しなかった。同氏は、AI 研究の 95% は「人間の寿命を延ばし、より健康で、より快適な生活を実現すること」を目的としていると強調している。[316] 現在、生活の向上に利用されているツールは、悪意のある者にも利用される可能性があるが、「悪意のある者に対抗するために利用することも可能」だ。 [317][318] アンドルー・ングも、「AI に関する終末論的な誇大宣伝に惑わされるのは間違いであり、そうする規制当局は既得権益者にしか利益をもたらさない」と主張している。[319] ヤン・ルカンは、「過激な誤報や、最終的には人類の絶滅といった、同業他社のディストピア的なシナリオを嘲笑している」と述べている。[320] 2010 年代初頭、専門家たちは、そのリスクは将来的にあまりにも遠すぎるため研究する価値はない、あるいは超知能機械の観点からは人間は価値のある存在である、 と主張していました。[321] しかし、2016 年以降、現在および将来のリスクと可能な解決策の研究が、真剣な研究分野となりました。[322] |
Ethical machines and alignment Main articles: Machine ethics, AI safety, Friendly artificial intelligence, Artificial moral agents, and Human Compatible Friendly AI are machines that have been designed from the beginning to minimize risks and to make choices that benefit humans. Eliezer Yudkowsky, who coined the term, argues that developing friendly AI should be a higher research priority: it may require a large investment and it must be completed before AI becomes an existential risk.[323] Machines with intelligence have the potential to use their intelligence to make ethical decisions. The field of machine ethics provides machines with ethical principles and procedures for resolving ethical dilemmas.[324] The field of machine ethics is also called computational morality,[324] and was founded at an AAAI symposium in 2005.[325] Other approaches include Wendell Wallach's "artificial moral agents"[326] and Stuart J. Russell's three principles for developing provably beneficial machines.[327] Open source See also: Lists of open-source artificial intelligence software Active organizations in the AI open-source community include Hugging Face,[328] Google,[329] EleutherAI and Meta.[330] Various AI models, such as Llama 2, Mistral or Stable Diffusion, have been made open-weight,[331][332] meaning that their architecture and trained parameters (the "weights") are publicly available. Open-weight models can be freely fine-tuned, which allows companies to specialize them with their own data and for their own use-case.[333] Open-weight models are useful for research and innovation but can also be misused. Since they can be fine-tuned, any built-in security measure, such as objecting to harmful requests, can be trained away until it becomes ineffective. Some researchers warn that future AI models may develop dangerous capabilities (such as the potential to drastically facilitate bioterrorism) and that once released on the Internet, they cannot be deleted everywhere if needed. They recommend pre-release audits and cost-benefit analyses.[334] Frameworks Artificial intelligence projects can be guided by ethical considerations during the design, development, and implementation of an AI system. An AI framework such as the Care and Act Framework, developed by the Alan Turing Institute and based on the SUM values, outlines four main ethical dimensions, defined as follows:[335][336] Respect the dignity of individual people Connect with other people sincerely, openly, and inclusively Care for the wellbeing of everyone Protect social values, justice, and the public interest Other developments in ethical frameworks include those decided upon during the Asilomar Conference, the Montreal Declaration for Responsible AI, and the IEEE's Ethics of Autonomous Systems initiative, among others;[337] however, these principles are not without criticism, especially regarding the people chosen to contribute to these frameworks.[338] Promotion of the wellbeing of the people and communities that these technologies affect requires consideration of the social and ethical implications at all stages of AI system design, development and implementation, and collaboration between job roles such as data scientists, product managers, data engineers, domain experts, and delivery managers.[339] The UK AI Safety Institute released in 2024 a testing toolset called 'Inspect' for AI safety evaluations available under an MIT open-source licence which is freely available on GitHub and can be improved with third-party packages. It can be used to evaluate AI models in a range of areas including core knowledge, ability to reason, and autonomous capabilities.[340] |
倫理的な機械と整合性 主な記事:機械倫理、AI の安全性、友好的な人工知能、人工道徳主体、人間と共存可能な 友好的な AI は、リスクを最小限に抑え、人間にとって有益な選択を行うように最初から設計された機械です。この用語を考案した Eliezer Yudkowsky は、友好的な AI の開発はより優先度の高い研究課題であるべきだと主張しています。その開発には多額の投資が必要であり、AI が存在の危機となる前に完了しなければならないからです。[323] 知能を持つ機械は、その知能を用いて倫理的な判断を下す可能性を秘めている。機械倫理の分野では、倫理的ジレンマを解決するための倫理的原則と手順を機械 に提供している。[324] 機械倫理の分野は、計算道徳とも呼ばれ[324]、2005年の AAAI シンポジウムで設立された。[325] その他のアプローチとしては、ウェンデル・ウォラックの「人工道徳エージェント」[326] や、スチュワート・ラッセルによる、有益であることが証明できる機械を開発するための 3 つの原則[327] がある。 オープンソース 参照:オープンソースの人工知能ソフトウェアの一覧 AI オープンソースコミュニティで活発に活動している組織には、Hugging Face[328]、Google[329]、EleutherAI、Meta[330] などがある。Llama 2、Mistral、Stable Diffusion などのさまざまな AI モデルは、オープンウェイト化されており[331][332]、そのアーキテクチャと学習済みパラメータ(「ウェイト」)が一般に公開されている。オープ ンウェイトモデルは自由に微調整が可能であり、企業は自社データや用途に合わせて特化させることができます。[333] オープンウェイトモデルは研究やイノベーションに有用ですが、悪用される可能性もあります。微調整が可能であるため、有害なリクエストを拒否するなどの組 み込みのセキュリティ措置が、無効になるまで訓練される可能性があります。一部の研究者は、将来のAIモデルが危険な能力(例えば、生物テロリズムを大幅 に容易にする可能性)を発展させる可能性があり、インターネットに公開された後、必要に応じて削除できない可能性があることを警告している。彼らは、公開 前の監査とコスト便益分析を推奨している。[334] フレームワーク 人工知能プロジェクトは、AI システムの設計、開発、実装の段階において、倫理的配慮に基づいて進められるべきだ。アラン・チューリング研究所が SUM 価値観に基づいて開発した「Care and Act Framework」などの AI フレームワークでは、4 つの主要な倫理的側面が次のように定義されている[335][336]。 個人の尊厳を尊重する 他の人々と誠実、オープン、包括的に関わる すべての人の幸福に配慮する 社会的価値、正義、および公共の利益を守る 倫理的枠組みのその他の進展としては、アシルマロ会議、責任ある AI に関するモントリオール宣言、IEEE の自律システム倫理イニシアチブなどで決定されたものが挙げられる[337]。しかし、これらの原則は、特にこれらの枠組みに貢献する人物の選定に関し て、批判がないわけではない。[338] これらの技術が影響を与える人々やコミュニティの福祉の促進には、AI システムの設計、開発、実装のすべての段階における社会的および倫理的影響の考慮、およびデータサイエンティスト、プロダクトマネージャー、データエンジ ニア、ドメインエキスパート、デリバリーマネージャーなどの職務間の連携が必要だ。[339] イギリスAI安全研究所は2024年に、AIの安全評価用のテストツールセット「Inspect」をMITオープンソースライセンスで公開した。これは GitHubから無料で入手可能で、サードパーティのパッケージで拡張できる。このツールセットは、コア知識、推論能力、自律能力など、多様な領域におけ るAIモデルの評価に活用できる。[340] |
Regulation Main articles: Regulation of artificial intelligence, Regulation of algorithms, and AI safety AI Safety Summit The first global AI Safety Summit was held in the United Kingdom in November 2023 with a declaration calling for international cooperation. The regulation of artificial intelligence is the development of public sector policies and laws for promoting and regulating AI; it is therefore related to the broader regulation of algorithms.[341] The regulatory and policy landscape for AI is an emerging issue in jurisdictions globally.[342] According to AI Index at Stanford, the annual number of AI-related laws passed in the 127 survey countries jumped from one passed in 2016 to 37 passed in 2022 alone.[343][344] Between 2016 and 2020, more than 30 countries adopted dedicated strategies for AI.[345] Most EU member states had released national AI strategies, as had Canada, China, India, Japan, Mauritius, the Russian Federation, Saudi Arabia, United Arab Emirates, U.S., and Vietnam. Others were in the process of elaborating their own AI strategy, including Bangladesh, Malaysia and Tunisia.[345] The Global Partnership on Artificial Intelligence was launched in June 2020, stating a need for AI to be developed in accordance with human rights and democratic values, to ensure public confidence and trust in the technology.[345] Henry Kissinger, Eric Schmidt, and Daniel Huttenlocher published a joint statement in November 2021 calling for a government commission to regulate AI.[346] In 2023, OpenAI leaders published recommendations for the governance of superintelligence, which they believe may happen in less than 10 years.[347] In 2023, the United Nations also launched an advisory body to provide recommendations on AI governance; the body comprises technology company executives, government officials and academics.[348] On 1 August 2024, the EU Artificial Intelligence Act entered into force, establishing the first comprehensive EU-wide AI regulation.[349] In 2024, the Council of Europe created the first international legally binding treaty on AI, called the "Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law". It was adopted by the European Union, the United States, the United Kingdom, and other signatories.[350] In a 2022 Ipsos survey, attitudes towards AI varied greatly by country; 78% of Chinese citizens, but only 35% of Americans, agreed that "products and services using AI have more benefits than drawbacks".[343] A 2023 Reuters/Ipsos poll found that 61% of Americans agree, and 22% disagree, that AI poses risks to humanity.[351] In a 2023 Fox News poll, 35% of Americans thought it "very important", and an additional 41% thought it "somewhat important", for the federal government to regulate AI, versus 13% responding "not very important" and 8% responding "not at all important".[352][353] In November 2023, the first global AI Safety Summit was held in Bletchley Park in the UK to discuss the near and far term risks of AI and the possibility of mandatory and voluntary regulatory frameworks.[354] 28 countries including the United States, China, and the European Union issued a declaration at the start of the summit, calling for international co-operation to manage the challenges and risks of artificial intelligence.[355][356] In May 2024 at the AI Seoul Summit, 16 global AI tech companies agreed to safety commitments on the development of AI.[357][358] |
規制 主な記事:人工知能の規制、アルゴリズムの規制、AI の安全性 AI 安全性サミット 2023年11月、英国で第1回グローバル AI 安全性サミットが開催され、国際協力の宣言が出された。 人工知能の規制とは、AI の推進と規制に関する公共部門の政策や法律の策定であり、より広範なアルゴリズムの規制とも関連している。[341] AI の規制および政策の動向は、世界中の法域で新たな課題となっている。[342] スタンフォード大学の AI インデックスによると、調査対象 127 カ国で AI 関連の法律が制定された件数は、2016 年の 1 件から 2022 年には 37 件に急増した。[343][344] 2016 年から 2020 年の間に、30 以上の国が AI に関する専用戦略を採択した[345]。EU 加盟国のほとんど、およびカナダ、中国、インド、日本、モーリシャス、ロシア連邦、サウジアラビア、アラブ首長国連邦、米国、ベトナムは、国家 AI 戦略を発表している。その他、バングラデシュ、マレーシア、チュニジアなどは、独自の AI 戦略の策定を進めている。[345] 2020 年 6 月、人工知能に関するグローバル・パートナーシップが立ち上げられ、この技術に対する国民の信頼を確保するため、人権と民主主義の価値観に従って AI を開発する必要性が表明された。[345] ヘンリー・キッシンジャー、エリック・シュミット、ダニエル・ハットンロッカーは 2021 年 11 月、AI を規制する政府委員会を設置するよう求める共同声明を発表した。[346] 2023 年、OpenAI のリーダーたちは、10 年以内に実現する可能性があるとする超知能のガバナンスに関する提言を発表した。[347] 2023 年、国連も AI ガバナンスに関する提言を行う諮問機関を設立した。この機関は、テクノロジー企業の幹部、政府関係者、学者で構成されている。[348] 2024年8月1日、EU人工知能法が施行され、EU初の包括的なAI規制が確立された。[349] 2024年、欧州評議会は、AIに関する初の国際的な法的拘束力のある条約「人工知能、人権、民主主義、法の支配に関する枠組み条約」を制定した。この条 約は、欧州連合、米国、英国、その他の署名国によって採択された。[350] 2022年のイプソス調査では、AIに対する態度には国によって大きな差が見られました。中国市民の78%は「AIを活用した製品やサービスは利点の方が 欠点よりも多い」と回答しましたが、アメリカ人の35%しか同意見ではありませんでした。[343] 2023年のロイター/イプソス世論調査では、アメリカ人の61%が「AIは人類にリスクをもたらす」と回答し、22%が反対しました。[351] 2023年のフォックスニュースの世論調査では、アメリカ人の35%が「非常に重要」と回答し、さらに41%が「ある程度重要」と回答した。これに対し、 「あまり重要ではない」と回答したのは13%、「全く重要ではない」と回答したのは8%だった。[352][353] 2023年11月、イギリス・ブレッチリーパークで初のグローバルAI安全サミットが開催され、AIの短期・長期的なリスクと、強制的・任意的な規制枠組 みの可能性が議論された。[354] アメリカ、中国、欧州連合を含む28カ国はサミットの冒頭で宣言を発表し、人工知能の課題とリスクを管理するための国際協力を呼びかけた。[355] [356] 2024年5月、AIソウルサミットにおいて、16のグローバルAIテクノロジー企業がAIの開発に関する安全確保のコミットメントに合意した。 [357][358] |
History |
省略(History) |
Philosophy |
省略(Philosophy) |
Future | 省略(Future) |
Artificial consciousness – Field in cognitive science Artificial intelligence and elections – Use and impact of AI on political elections Artificial intelligence content detection – Software to detect AI-generated content Association for the Advancement of Artificial Intelligence (AAAI) Behavior selection algorithm – Algorithm that selects actions for intelligent agents Business process automation – Automation of business processes Case-based reasoning – Process of solving new problems based on the solutions of similar past problems Computational intelligence – Ability of a computer to learn a specific task from data or experimental observation Digital immortality – Hypothetical concept of storing a personality in digital form Emergent algorithm – Algorithm exhibiting emergent behavior Female gendering of AI technologies – Gender biases in digital technology Glossary of artificial intelligence – List of definitions of terms and concepts commonly used in the study of artificial intelligence Intelligence amplification – Use of information technology to augment human intelligence Intelligent agent – Software agent which acts autonomously Intelligent automation – Software process that combines robotic process automation and artificial intelligence List of artificial intelligence journals List of artificial intelligence projects Mind uploading – Hypothetical process of digitally emulating a brain Organoid intelligence – Use of brain cells and brain organoids for intelligent computing Robotic process automation – Form of business process automation technology The Last Day – 1967 Welsh science fiction novel Wetware computer – Computer composed of organic material DARWIN EU - A European Union initiative coordinated by the European Medicines Agency (EMA) to generate and utilize real-world evidence (RWE) to support the evaluation and supervision of medicines across the EU. |
人工意識 – 認知科学の分野 人工知能と選挙 – 政治選挙における AI の活用と影響 人工知能コンテンツ検出 – AI によって生成されたコンテンツを検出するソフトウェア 人工知能推進協会 (AAAI) 行動選択アルゴリズム – インテリジェントエージェントの行動を選択するアルゴリズム ビジネスプロセスの自動化 – ビジネスプロセスの自動化 ケースベース推論 – 類似の過去の問題の解決策に基づいて新しい問題を解決するプロセス 計算知能 – データや実験的観察から特定のタスクを学習するコンピュータの能力 デジタル不滅 – 人格をデジタル形式で保存するという仮説的な概念 創発アルゴリズム – 創発的行動を示すアルゴリズム AI 技術の女性化 – デジタル技術におけるジェンダーバイアス 人工知能用語集 – 人工知能の研究で一般的に使用される用語や概念の定義の一覧 知能増幅 – 情報技術を用いて人間の知能を強化すること 知能エージェント – 自主的に行動するソフトウェアエージェント 知能自動化 – ロボティックプロセス自動化と人工知能を組み合わせたソフトウェアプロセス 人工知能の学術誌一覧 人工知能のプロジェクト一覧 マインドアップロード – 脳をデジタルでエミュレートする仮説的なプロセス オルガノイド知能 – 知能計算に脳細胞や脳オルガノイドを用いること ロボティックプロセスオートメーション – ビジネスプロセスオートメーション技術の一種 『ザ・ラスト・デイ』 – 1967年のウェールズSF小説 ウェットウェアコンピュータ – 有機物質で構成されたコンピュータ DARWIN EU – 欧州医薬品庁(EMA)が調整する欧州連合(EU)のイニシアチブで、EU全体での医薬品の評価と監督を支援するために現実世界データ(RWE)の生成と活用を目的としている。 |
AI textbooks The two most widely used textbooks in 2023 (see the Open Syllabus): Russell, Stuart J.; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach (4th ed.). Hoboken: Pearson. ISBN 978-0-1346-1099-3. LCCN 20190474. Rich, Elaine; Knight, Kevin; Nair, Shivashankar B (2010). Artificial Intelligence (3rd ed.). New Delhi: Tata McGraw Hill India. ISBN 978-0-0700-8770-5. The four most widely used AI textbooks in 2008: Luger, George; Stubblefield, William (2004). Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archived from the original on 26 July 2020. Retrieved 17 December 2019. Nilsson, Nils (1998). Artificial Intelligence: A New Synthesis. Morgan Kaufmann. ISBN 978-1-5586-0467-4. Archived from the original on 26 July 2020. Retrieved 18 November 2019. Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2. Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. ISBN 978-0-1951-0270-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020. Later edition: Poole, David; Mackworth, Alan (2017). Artificial Intelligence: Foundations of Computational Agents (2nd ed.). Cambridge University Press. ISBN 978-1-1071-9539-4. Archived from the original on 7 December 2017. Retrieved 6 December 2017. Other textbooks: Ertel, Wolfgang (2017). Introduction to Artificial Intelligence (2nd ed.). Springer. ISBN 978-3-3195-8486-7. Ciaramella, Alberto; Ciaramella, Marco (2024). Introduction to Artificial Intelligence: from data analysis to generative AI (1st ed.). Intellisemantic Editions. ISBN 978-8-8947-8760-3. |
AI の教科書 2023 年に最も広く使用されている 2 冊の教科書(オープンシラバスを参照)。 ラッセル、スチュワート J.、ノーヴィグ、ピーター(2021)。『人工知能:現代的アプローチ(第 4 版)』。ホボーケン:ピアソン。ISBN 978-0-1346-1099-3。LCCN 20190474。 Rich, Elaine; Knight, Kevin; Nair, Shivashankar B (2010). Artificial Intelligence (3rd ed.). New Delhi: Tata McGraw Hill India. ISBN 978-0-0700-8770-5. 2008年に最も広く使用された4冊のAI教科書 ルガー、ジョージ; スタブブルフィールド、ウィリアム (2004). 人工知能: 複雑な問題解決のための構造と戦略 (第5版). ベンジャミン/カミングス. ISBN 978-0-8053-4780-7. 2020年7月26日にオリジナルからアーカイブ。2019年12月17日に取得。 Nilsson, Nils (1998). 人工知能:新しい統合。Morgan Kaufmann。ISBN 978-1-5586-0467-4。2020年7月26日にオリジナルからアーカイブ。2019年11月18日に取得。 ラッセル、スチュワート J.、ノーヴィグ、ピーター (2003)、『人工知能:現代的アプローチ (第 2 版)』、ニュージャージー州アッパーサドルリバー:プレンティスホール、ISBN 0-13-790395-2。 プール、デビッド、マックワース、アラン、ゲーベル、ランディ (1998)。『計算知能:論理的アプローチ』。ニューヨーク:オックスフォード大学出版局。ISBN 978-0-1951-0270-3。2020年7月26日にオリジナルからアーカイブ。2020年8月22日に取得。後版:Poole, David; Mackworth, Alan (2017). Artificial Intelligence: Foundations of Computational Agents (第 2 版). Cambridge University Press. ISBN 978-1-1071-9539-4。2017年12月7日にオリジナルからアーカイブ。2017年12月6日に取得。 その他の教科書: Ertel, Wolfgang (2017). Introduction to Artificial Intelligence (第2版). Springer. ISBN 978-3-3195-8486-7。 Ciaramella, Alberto; Ciaramella, Marco (2024). Introduction to Artificial Intelligence: from data analysis to generative AI (第1版). Intellisemantic Editions. ISBN 978-8-8947-8760-3. |
Other sources AI & ML in Fusion AI & ML in Fusion, video lecture Archived 2 July 2023 at the Wayback Machine Alter, Alexandra; Harris, Elizabeth A. (20 September 2023), "Franzen, Grisham and Other Prominent Authors Sue OpenAI", The New York Times, archived from the original on 14 September 2024, retrieved 5 October 2024 Altman, Sam; Brockman, Greg; Sutskever, Ilya (22 May 2023). "Governance of Superintelligence". openai.com. Archived from the original on 27 May 2023. Retrieved 27 May 2023. Anderson, Susan Leigh (2008). "Asimov's "three laws of robotics" and machine metaethics". AI & Society. 22 (4): 477–493. doi:10.1007/s00146-007-0094-5. S2CID 1809459. Anderson, Michael; Anderson, Susan Leigh (2011). Machine Ethics. Cambridge University Press. Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), "The risk of automation for jobs in OECD countries: A comparative analysis", OECD Social, Employment, and Migration Working Papers 189 Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). "Cognitive developmental robotics: a survey". IEEE Transactions on Autonomous Mental Development. 1 (1): 12–34. Bibcode:2009ITAMD...1...12A. doi:10.1109/tamd.2009.2021702. S2CID 10168773. "Ask the AI experts: What's driving today's progress in AI?". McKinsey & Company. Archived from the original on 13 April 2018. Retrieved 13 April 2018. Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK: Edward Elgar Publishing. ISBN 978-1-7864-3904-8. OCLC 1039480085. Beal, J.; Winston, Patrick (2009), "The New Frontier of Human-Level Artificial Intelligence", IEEE Intelligent Systems, 24 (4): 21–24, Bibcode:2009IISys..24d..21B, doi:10.1109/MIS.2009.75, hdl:1721.1/52357, S2CID 32437713 Berdahl, Carl Thomas; Baker, Lawrence; Mann, Sean; Osoba, Osonde; Girosi, Federico (7 February 2023). "Strategies to Improve the Impact of Artificial Intelligence on Health Equity: Scoping Review". JMIR AI. 2: e42936. doi:10.2196/42936. ISSN 2817-1705. PMC 11041459. PMID 38875587. S2CID 256681439. Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. Archived (PDF) from the original on 20 December 2019. Retrieved 9 August 2020. Bertini, M; Del Bimbo, A; Torniai, C (2006). "Automatic annotation and semantic retrieval of video sequences using multimedia ontologies". MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. Bostrom, Nick (2015). "What happens when our computers get smarter than we are?". TED (conference). Archived from the original on 25 July 2020. Retrieved 30 January 2020. Brooks, Rodney (10 November 2014). "artificial intelligence is a tool, not a threat". Archived from the original on 12 November 2014. Brooks, Rodney (1990). "Elephants Don't Play Chess" (PDF). Robotics and Autonomous Systems. 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539. doi:10.1016/S0921-8890(05)80025-9. Archived (PDF) from the original on 9 August 2007. Buiten, Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X. Bushwick, Sophie (16 March 2023), "What the New GPT-4 AI Can Do", Scientific American, archived from the original on 22 August 2023, retrieved 5 October 2024 Butler, Samuel (13 June 1863). "Darwin among the Machines". Letters to the Editor. The Press. Christchurch, New Zealand. Archived from the original on 19 September 2008. Retrieved 16 October 2014 – via Victoria University of Wellington. Buttazzo, G. (July 2001). "Artificial consciousness: Utopia or real possibility?". Computer. 34 (7): 24–30. Bibcode:2001Compr..34g..24B. doi:10.1109/2.933500. Cambria, Erik; White, Bebo (May 2014). "Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]". IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986. Cellan-Jones, Rory (2 December 2014). "Stephen Hawking warns artificial intelligence could end mankind". BBC News. Archived from the original on 30 October 2015. Retrieved 30 October 2015. Chalmers, David (1995). "Facing up to the problem of consciousness". Journal of Consciousness Studies. 2 (3): 200–219. CiteSeerX 10.1.1.103.8362. Archived from the original on 8 March 2005. Retrieved 11 October 2018. Challa, Subhash; Moreland, Mark R.; Mušicki, Darko; Evans, Robin J. (2011). Fundamentals of Object Tracking. Cambridge University Press. doi:10.1017/CBO9780511975837. ISBN 978-0-5218-7628-5. Christian, Brian (2020). The Alignment Problem: Machine learning and human values. W. W. Norton & Company. ISBN 978-0-3938-6833-3. OCLC 1233266753. Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). "Multi-column deep neural networks for image classification". 2012 IEEE Conference on Computer Vision and Pattern Recognition. pp. 3642–3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592. Clark, Jack (2015b). "Why 2015 Was a Breakthrough Year in Artificial Intelligence". Bloomberg.com. Archived from the original on 23 November 2016. Retrieved 23 November 2016. CNA (12 January 2019). "Commentary: Bad news. Artificial intelligence is biased". CNA. Archived from the original on 12 January 2019. Retrieved 19 June 2020. Cybenko, G. (1988). Continuous valued neural networks with two hidden layers are sufficient (Report). Department of Computer Science, Tufts University. Deng, L.; Yu, D. (2014). "Deep Learning: Methods and Applications" (PDF). Foundations and Trends in Signal Processing. 7 (3–4): 197–387. doi:10.1561/2000000039. Archived (PDF) from the original on 14 March 2016. Retrieved 18 October 2014. Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9. DiFeliciantonio, Chase (3 April 2023). "AI has already changed the world. This report shows how". San Francisco Chronicle. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Dickson, Ben (2 May 2022). "Machine learning: What is the transformer architecture?". TechTalks. Archived from the original on 22 November 2023. Retrieved 22 November 2023. Dockrill, Peter (27 June 2022), "Robots With Flawed AI Make Sexist And Racist Decisions, Experiment Shows", Science Alert, archived from the original on 27 June 2022 Domingos, Pedro (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0-4650-6570-7. Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-0601-1082-6. Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford: Blackwell. ISBN 978-0-0290-8060-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020. Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020. Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. Archived from the original on 26 July 2020. Retrieved 18 November 2019. Edwards, Benj (17 May 2023). "Poll: AI poses risk to humanity, according to majority of Americans". Ars Technica. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4. Ford, Martin; Colvin, Geoff (6 September 2015). "Will robots create more jobs than they destroy?". The Guardian. Archived from the original on 16 June 2018. Retrieved 13 January 2018. Fox News (2023). "Fox News Poll" (PDF). Fox News. Archived (PDF) from the original on 12 May 2023. Retrieved 19 June 2023. Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). "The future of employment: How susceptible are jobs to computerisation?". Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625. "From not working to neural networking". The Economist. 2016. Archived from the original on 31 December 2016. Retrieved 26 April 2018. Galvan, Jill (1 January 1997). "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"". Science Fiction Studies. 24 (3): 413–429. doi:10.1525/sfs.24.3.0413. JSTOR 4240644. Geist, Edward Moore (9 August 2015). "Is artificial intelligence really an existential threat to humanity?". Bulletin of the Atomic Scientists. Archived from the original on 30 October 2015. Retrieved 30 October 2015. Gibbs, Samuel (27 October 2014). "Elon Musk: artificial intelligence is our biggest existential threat". The Guardian. Archived from the original on 30 October 2015. Retrieved 30 October 2015. Goffrey, Andrew (2008). "Algorithm". In Fuller, Matthew (ed.). Software studies: a lexicon. Cambridge, Mass.: MIT Press. pp. 15–20. ISBN 978-1-4356-4787-9. Goldman, Sharon (14 September 2022). "10 years later, deep learning 'revolution' rages on, say AI pioneers Hinton, LeCun and Li". VentureBeat. Archived from the original on 5 October 2024. Retrieved 8 December 2023. Good, I. J. (1965), Speculations Concerning the First Ultraintelligent Machine, archived from the original on 10 July 2023, retrieved 5 October 2024 Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., archived from the original on 16 April 2016, retrieved 12 November 2017 Goodman, Bryce; Flaxman, Seth (2017). "EU regulations on algorithmic decision-making and a 'right to explanation'". AI Magazine. 38 (3): 50. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741. S2CID 7373959. Government Accountability Office (13 September 2022). Consumer Data: Increasing Use Poses Risks to Privacy. gao.gov (Report). Archived from the original on 13 September 2024. Retrieved 5 October 2024. Grant, Nico; Hill, Kashmir (22 May 2023). "Google's Photo App Still Can't Find Gorillas. And Neither Can Apple's". The New York Times. Archived from the original on 14 September 2024. Retrieved 5 October 2024. Goswami, Rohan (5 April 2023). "Here's where the A.I. jobs are". CNBC. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Harari, Yuval Noah (October 2018). "Why Technology Favors Tyranny". The Atlantic. Archived from the original on 25 September 2021. Retrieved 23 September 2021. Harari, Yuval Noah (2023). "AI and the future of humanity". YouTube. Archived from the original on 30 September 2024. Retrieved 5 October 2024. Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-2620-8153-5. Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups". IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ISPM...29...82H. doi:10.1109/msp.2012.2205597. S2CID 206485943. Holley, Peter (28 January 2015). "Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'". The Washington Post. ISSN 0190-8286. Archived from the original on 30 October 2015. Retrieved 30 October 2015. Hornik, Kurt; Stinchcombe, Maxwell; White, Halbert (1989). Multilayer Feedforward Networks are Universal Approximators (PDF). Neural Networks. Vol. 2. Pergamon Press. pp. 359–366. Archived (PDF) from the original on 21 April 2023. Retrieved 5 October 2024. Horst, Steven (2005). "The Computational Theory of Mind". The Stanford Encyclopedia of Philosophy. Archived from the original on 6 March 2016. Retrieved 7 March 2016. Howe, J. (November 1994). "Artificial Intelligence at Edinburgh University: a Perspective". Archived from the original on 15 May 2007. Retrieved 30 August 2007. IGM Chicago (30 June 2017). "Robots and Artificial Intelligence". igmchicago.org. Archived from the original on 1 May 2019. Retrieved 3 July 2019. Iphofen, Ron; Kritikos, Mihalis (3 January 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502. Jordan, M. I.; Mitchell, T. M. (16 July 2015). "Machine learning: Trends, perspectives, and prospects". Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218. Kahneman, Daniel (2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2. Archived from the original on 15 March 2023. Retrieved 8 April 2012. Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). "Judgment under uncertainty: Heuristics and biases". Science. 185 (4157). New York: Cambridge University Press: 1124–1131. Bibcode:1974Sci...185.1124T. doi:10.1126/science.185.4157.1124. ISBN 978-0-5212-8414-1. PMID 17835457. S2CID 143452957. Kasperowicz, Peter (1 May 2023). "Regulate AI? GOP much more skeptical than Dems that government can do it right: poll". Fox News. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Katz, Yarden (1 November 2012). "Noam Chomsky on Where Artificial Intelligence Went Wrong". The Atlantic. Archived from the original on 28 February 2019. Retrieved 26 October 2014. "Kismet". MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. Archived from the original on 17 October 2014. Retrieved 25 October 2014. Kissinger, Henry (1 November 2021). "The Challenge of Being Human in the Age of AI". The Wall Street Journal. Archived from the original on 4 November 2021. Retrieved 4 November 2021. Kobielus, James (27 November 2019). "GPUs Continue to Dominate the AI Accelerator Market for Now". InformationWeek. Archived from the original on 19 October 2021. Retrieved 11 June 2020. Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1 July 2006). "Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations". Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160. Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-6700-3384-3. Langley, Pat (2011). "The changing science of machine learning". Machine Learning. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y. Larson, Jeff; Angwin, Julia (23 May 2016). "How We Analyzed the COMPAS Recidivism Algorithm". ProPublica. Archived from the original on 29 April 2019. Retrieved 19 June 2020. Laskowski, Nicole (November 2023). "What is Artificial Intelligence and How Does AI Work? TechTarget". Enterprise AI. Archived from the original on 5 October 2024. Retrieved 30 October 2023. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. (2019). Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808. Lee, Timothy B. (22 August 2014). "Will artificial intelligence destroy humanity? Here are 5 reasons not to worry". Vox. Archived from the original on 30 October 2015. Retrieved 30 October 2015. Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-2015-1752-1. Lighthill, James (1973). "Artificial Intelligence: A General Survey". Artificial Intelligence: a paper symposium. Science Research Council. Lipartito, Kenneth (6 January 2011), The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today (PDF) (Unpublished manuscript), doi:10.2139/ssrn.1736283, S2CID 166742927, archived (PDF) from the original on 9 October 2022 Lohr, Steve (2017). "Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says". The New York Times. Archived from the original on 14 January 2018. Retrieved 13 January 2018. Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). "Developmental robotics: a survey". Connection Science. 15 (4): 151–190. Bibcode:2003ConSc..15..151L. CiteSeerX 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734. "Machine Ethics". aaai.org. Archived from the original on 29 November 2014. Madrigal, Alexis C. (27 February 2015). "The case against killer robots, from a guy actually working on artificial intelligence". Fusion.net. Archived from the original on 4 February 2016. Retrieved 31 January 2016. Mahdawi, Arwa (26 June 2017). "What jobs will still be around in 20 years? Read this to prepare your future". The Guardian. Archived from the original on 14 January 2018. Retrieved 13 January 2018. Maker, Meg Houston (2006), AI@50: AI Past, Present, Future, Dartmouth College, archived from the original on 8 October 2008, retrieved 16 October 2008 Marmouyet, Françoise (15 December 2023). "Google's Gemini: is the new AI model really better than ChatGPT?". The Conversation. Archived from the original on 4 March 2024. Retrieved 25 December 2023. Minsky, Marvin (1986), The Society of Mind, Simon and Schuster McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence". Archived from the original on 26 August 2007. Retrieved 30 August 2007. McCarthy, John (2007), "From Here to Human-Level AI", Artificial Intelligence, p. 171 McCarthy, John (1999), What is AI?, archived from the original on 4 December 2022, retrieved 4 December 2022 McCauley, Lee (2007). "AI armageddon and the three laws of robotics". Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949. McGarry, Ken (1 December 2005). "A survey of interestingness measures for knowledge discovery". The Knowledge Engineering Review. 20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID 14987656. McGaughey, E (2022), Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy, p. 51(3) Industrial Law Journal 511–559, doi:10.2139/ssrn.3044448, S2CID 219336439, SSRN 3044448, archived from the original on 31 January 2021, retrieved 27 May 2023 Merkle, Daniel; Middendorf, Martin (2013). "Swarm Intelligence". In Burke, Edmund K.; Kendall, Graham (eds.). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques. Springer Science & Business Media. ISBN 978-1-4614-6940-7. Minsky, Marvin (1967), Computation: Finite and Infinite Machines, Englewood Cliffs, N.J.: Prentice-Hall Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-6745-7616-2. Archived from the original on 26 July 2020. Retrieved 18 November 2019. Morgenstern, Michael (9 May 2015). "Automation and anxiety". The Economist. Archived from the original on 12 January 2018. Retrieved 13 January 2018. Müller, Vincent C.; Bostrom, Nick (2014). "Future Progress in Artificial Intelligence: A Poll Among Experts" (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. S2CID 8510016. Archived (PDF) from the original on 15 January 2016. Neumann, Bernd; Möller, Ralf (January 2008). "On scene interpretation with description logics". Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. S2CID 10767011. Nilsson, Nils (1995), "Eyes on the Prize", AI Magazine, vol. 16, pp. 9–17 Newell, Allen; Simon, H. A. (1976). "Computer Science as Empirical Inquiry: Symbols and Search". Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022. Nicas, Jack (7 February 2018). "How YouTube Drives People to the Internet's Darkest Corners". The Wall Street Journal. ISSN 0099-9660. Archived from the original on 5 October 2024. Retrieved 16 June 2018. Nilsson, Nils (1983). "Artificial Intelligence Prepares for 2001" (PDF). AI Magazine. 1 (1). Archived (PDF) from the original on 17 August 2020. Retrieved 22 August 2020. Presidential Address to the Association for the Advancement of Artificial Intelligence. NRC (United States National Research Council) (1999). "Developments in Artificial Intelligence". Funding a Revolution: Government Support for Computing Research. National Academy Press. Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA. Oudeyer, P-Y. (2010). "On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development" (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2–16. Bibcode:2010ITAMD...2....2O. doi:10.1109/tamd.2009.2039057. S2CID 6362217. Archived (PDF) from the original on 3 October 2018. Retrieved 4 June 2013. Pennachin, C.; Goertzel, B. (2007). "Contemporary Approaches to Artificial General Intelligence". Artificial General Intelligence. Cognitive Technologies. Berlin, Heidelberg: Springer. pp. 1–30. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-5402-3733-4. Pinker, Steven (2007) [1994], The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-0613-3646-1 Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490. S2CID 205433041. Archived from the original on 23 March 2023. Retrieved 27 April 2021. Rawlinson, Kevin (29 January 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015. Reisner, Alex (19 August 2023), "Revealed: The Authors Whose Pirated Books are Powering Generative AI", The Atlantic, archived from the original on 3 October 2024, retrieved 5 October 2024 Roberts, Jacob (2016). "Thinking Machines: The Search for Artificial Intelligence". Distillations. Vol. 2, no. 2. pp. 14–23. Archived from the original on 19 August 2018. Retrieved 20 March 2018. Robitzski, Dan (5 September 2018). "Five experts share what scares them the most about AI". Archived from the original on 8 December 2019. Retrieved 8 December 2019. Rose, Steve (11 July 2023). "AI Utopia or dystopia?". The Guardian Weekly. pp. 42–43. Russell, Stuart (2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-5255-5861-3. OCLC 1083694322. Sainato, Michael (19 August 2015). "Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence". Observer. Archived from the original on 30 October 2015. Retrieved 30 October 2015. Sample, Ian (5 November 2017). "Computer says no: why making AIs fair, accountable and transparent is crucial". The Guardian. Archived from the original on 10 October 2022. Retrieved 30 January 2018. Rothman, Denis (7 October 2020). "Exploring LIME Explanations and the Mathematics Behind It". Codemotion. Archived from the original on 25 November 2023. Retrieved 25 November 2023. Scassellati, Brian (2002). "Theory of mind for a humanoid robot". Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. S2CID 1979315. Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509. Schmidhuber, Jürgen (2022). "Annotated History of Modern AI and Deep Learning". Archived from the original on 7 August 2023. Retrieved 5 October 2024. Searle, John (1980). "Minds, Brains and Programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/S0140525X00005756. S2CID 55303721. Archived (PDF) from the original on 17 March 2019. Retrieved 22 August 2020. Searle, John (1999). Mind, language and society. New York: Basic Books. ISBN 978-0-4650-4521-1. OCLC 231867665. Archived from the original on 26 July 2020. Retrieved 22 August 2020. Simon, H. A. (1965), The Shape of Automation for Men and Management, New York: Harper & Row Simonite, Tom (31 March 2016). "How Google Plans to Solve Artificial Intelligence". MIT Technology Review. Archived from the original on 16 September 2024. Retrieved 5 October 2024. Smith, Craig S. (15 March 2023). "ChatGPT-4 Creator Ilya Sutskever on AI Hallucinations and AI Democracy". Forbes. Archived from the original on 18 September 2024. Retrieved 25 December 2023. Smoliar, Stephen W.; Zhang, HongJiang (1994). "Content based video indexing and retrieval". IEEE MultiMedia. 1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913. Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. Archived (PDF) from the original on 26 April 2011. Retrieved 22 March 2011 – via std.com, pdf scanned copy of the original. Later published as Solomonoff, Ray (1957). "An Inductive Inference Machine". IRE Convention Record. Vol. Section on Information Theory, part 2. pp. 56–62. Stanford University (2023). "Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance" (PDF). AI Index. Archived (PDF) from the original on 19 June 2023. Retrieved 19 June 2023. Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. Lecture Notes in Computer Science. Vol. 3784. Springer. pp. 981–995. doi:10.1007/11573548. ISBN 978-3-5402-9621-8. Taylor, Josh; Hern, Alex (2 May 2023). "'Godfather of AI' Geoffrey Hinton quits Google and warns over dangers of misinformation". The Guardian. Archived from the original on 5 October 2024. Retrieved 5 October 2024. Thompson, Derek (23 January 2014). "What Jobs Will the Robots Take?". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018. Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020. Toews, Rob (3 September 2023). "Transformers Revolutionized AI. What Will Replace Them?". Forbes. Archived from the original on 8 December 2023. Retrieved 8 December 2023. Turing, Alan (October 1950). "Computing Machinery and Intelligence". Mind. 59 (236): 433–460. doi:10.1093/mind/LIX.236.433. ISSN 1460-2113. JSTOR 2251299. S2CID 14636783. UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 2021. ISBN 978-9-2310-0450-6. Archived from the original on 18 June 2022. Retrieved 18 September 2021. Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (7 March 2022). "Dual use of artificial-intelligence-powered drug discovery". Nature Machine Intelligence. 4 (3): 189–191. doi:10.1038/s42256-022-00465-9. PMC 9544280. PMID 36211133. S2CID 247302391. Valance, Christ (30 May 2023). "Artificial intelligence could lead to extinction, experts warn". BBC News. Archived from the original on 17 June 2023. Retrieved 18 June 2023. Valinsky, Jordan (11 April 2019), "Amazon reportedly employs thousands of people to listen to your Alexa conversations", CNN.com, archived from the original on 26 January 2024, retrieved 5 October 2024 Verma, Yugesh (25 December 2021). "A Complete Guide to SHAP – SHAPley Additive exPlanations for Practitioners". Analytics India Magazine. Archived from the original on 25 November 2023. Retrieved 25 November 2023. Vincent, James (7 November 2019). "OpenAI has published the text-generating AI it said was too dangerous to share". The Verge. Archived from the original on 11 June 2020. Retrieved 11 June 2020. Vincent, James (15 November 2022). "The scary truth about AI copyright is nobody knows what will happen next". The Verge. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Vincent, James (3 April 2023). "AI is entering an era of corporate control". The Verge. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Vinge, Vernor (1993). "The Coming Technological Singularity: How to Survive in the Post-Human Era". Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa...11V. Archived from the original on 1 January 2007. Retrieved 14 November 2011. Waddell, Kaveh (2018). "Chatbots Have Entered the Uncanny Valley". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018. Wallach, Wendell (2010). Moral Machines. Oxford University Press. Wason, P. C.; Shapiro, D. (1966). "Reasoning". In Foss, B. M. (ed.). New horizons in psychology. Harmondsworth: Penguin. Archived from the original on 26 July 2020. Retrieved 18 November 2019. Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). "Autonomous mental development by robots and animals" (PDF). Science. 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Archived (PDF) from the original on 4 September 2013. Retrieved 4 June 2013 – via msu.edu. "What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?". Scientific American. 21 October 1999. Archived from the original on 6 May 2018. Retrieved 5 May 2018. Williams, Rhiannon (28 June 2023), "Humans may be more likely to believe disinformation generated by AI", MIT Technology Review, archived from the original on 16 September 2024, retrieved 5 October 2024 Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 July 2018). "Artificial Intelligence and the Public Sector – Applications and Challenges". International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archived from the original on 18 August 2020. Retrieved 22 August 2020. Wong, Matteo (19 May 2023), "ChatGPT Is Already Obsolete", The Atlantic, archived from the original on 18 September 2024, retrieved 5 October 2024 Yudkowsky, E (2008), "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF), Global Catastrophic Risks, Oxford University Press, 2008, Bibcode:2008gcr..book..303Y, archived (PDF) from the original on 19 October 2013, retrieved 24 September 2021 |
その他の情報源 AI & ML in Fusion AI & ML in Fusion、動画講義 2023年7月2日にウェイバックマシンにアーカイブ Alter, Alexandra; Harris, Elizabeth A. (2023年9月20日), 「フランゼン、グリシャム、その他の著名作家が OpenAI を提訴」, The New York Times, 2024年9月14日にオリジナルからアーカイブ, 2024年10月5日に取得 Altman, Sam; Brockman, Greg; Sutskever, Ilya (2023年5月22日). 「超知能のガバナンス」. openai.com. 2023年5月27日にオリジナルからアーカイブ。2023年5月27日に取得。 アンダーソン、スーザン・リー (2008). 「アシモフの「ロボットの3つの法則」と機械のメタ倫理」. AI & Society. 22 (4): 477–493. doi:10.1007/s00146-007-0094-5. S2CID 1809459. アンダーソン、マイケル; アンダーソン、スーザン・リー (2011). Machine Ethics. ケンブリッジ大学出版局. Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), 「OECD 諸国における自動化による雇用へのリスク:比較分析」, OECD 社会、雇用、移民ワーキングペーパー 189 Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). 「認知発達ロボット工学:調査」 IEEE Transactions on Autonomous Mental Development. 1 (1): 12–34. Bibcode:2009ITAMD...1...12A. doi:10.1109/tamd.2009.2021702. S2CID 10168773. 「AI の専門家たちに聞く:今日の AI の進歩を推進しているものは何か?」。マッキンゼー・アンド・カンパニー。2018年4月13日にオリジナルからアーカイブ。2018年4月13日に取得。 Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. チェルトナム、イギリス: Edward Elgar Publishing. ISBN 978-1-7864-3904-8. OCLC 1039480085. Beal, J.; Winston, Patrick (2009), 「人間レベルの人工知能の新たなフロンティア」, IEEEインテリジェントシステムズ, 24 (4): 21–24, Bibcode:2009IISys..24d..21B, doi:10.1109/MIS.2009.75, hdl:1721.1/52357, S2CID 32437713 Berdahl, Carl Thomas; Baker, Lawrence; Mann, Sean; Osoba, Osonde; Girosi, Federico (2023年2月7日). 「人工知能が保健の公平性に与える影響を改善するための戦略:スコープレビュー」. JMIR AI. 2: e42936. doi:10.2196/42936. ISSN 2817-1705. PMC 11041459。PMID 38875587。S2CID 256681439。 ベリーヒル、ジェイミー、ヘアン、ケビン・コック、クロガー、ロブ、ミクブライド、キーガン (2019)。こんにちは、世界:人工知能と公共部門でのその活用 (PDF)。パリ:OECD 公共部門イノベーション観測所。2019年12月20日にオリジナルからアーカイブ(PDF)。2020年8月9日取得。 Bertini, M; Del Bimbo, A; Torniai, C (2006). 「マルチメディアオントロジーを用いたビデオシーケンスの自動注釈および意味的検索」。MM '06 第14回 ACM 国際マルチメディア会議議事録。第14回 ACM 国際マルチメディア会議。サンタバーバラ:ACM。679–682 ページ。 ボストロム、ニック (2014)。『超知能:その道筋、危険、戦略』。オックスフォード大学出版局。 ボストロム、ニック (2015)。「コンピュータが人間よりも賢くなったとき、何が起こるのか?」。TED (会議)。2020年7月25日にオリジナルからアーカイブ。2020年1月30日に取得。 Brooks, Rodney (2014年11月10日). 「人工知能は脅威ではなく、ツールだ」. 2014年11月12日にオリジナルからアーカイブ。 ブルックス、ロドニー (1990). 「象はチェスをしない」 (PDF). ロボティクスと自律システム。6 (1–2): 3–15。CiteSeerX 10.1.1.588.7539。doi:10.1016/S0921-8890(05)80025-9。2007年8月9日にオリジナルからアーカイブ (PDF)。 Buiten, Miriam C (2019). 「人工知能のインテリジェントな規制に向けて」. European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X. Bushwick, Sophie (2023年3月16日), 「新しいGPT-4 AIができること」, Scientific American, 2023年8月22日にオリジナルからアーカイブ, 2024年10月5日に取得 Butler, Samuel (1863年6月13日). 「機械の中のダーウィン」. Letters to the Editor. The Press. ニュージーランド、クライストチャーチ。2008年9月19日にオリジナルからアーカイブ。2014年10月16日に取得 – ウェリントン大学経由。 Buttazzo, G. (2001年7月). 「人工意識:ユートピアか現実の可能性か?」。Computer. 34 (7): 24–30. Bibcode:2001Compr..34g..24B. doi:10.1109/2.933500. Cambria, Erik; White, Bebo (2014年5月). 「Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]」. IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986. Cellan-Jones, Rory (2014年12月2日). 「スティーブン・ホーキング、人工知能が人類を滅亡させる可能性を警告」. BBC News. 2015年10月30日にオリジナルからアーカイブ。2015年10月30日取得。 Chalmers, David (1995). 「意識の問題に直面する」. Journal of Consciousness Studies. 2 (3): 200–219. CiteSeerX 10.1.1.103.8362. 2005年3月8日にオリジナルからアーカイブ。2018年10月11日取得。 Challa, Subhash; Moreland, Mark R.; Mušicki, Darko; Evans, Robin J. (2011). Fundamentals of Object Tracking. Cambridge University Press. doi:10.1017/CBO9780511975837. ISBN 978-0-5218-7628-5. クリスチャン、ブライアン (2020)。アラインメント問題:機械学習と人間の価値観。W. W. ノートン&カンパニー。ISBN 978-0-3938-6833-3。OCLC 1233266753。 Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). 「画像分類のためのマルチカラム深層ニューラルネットワーク」. 2012 IEEE コンピュータビジョンとパターン認識カンファレンス. pp. 3642–3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592. Clark, Jack (2015b). 「2015年が人工知能の飛躍の年だった理由」. Bloomberg.com. 2016年11月23日にオリジナルからアーカイブ。2016年11月23日に取得。 CNA (2019年1月12日). 「解説:悪いニュース。人工知能には偏見がある」. CNA. 2019年1月12日にオリジナルからアーカイブ。2020年6月19日に取得。 Cybenko, G. (1988). 2つの隠れ層を持つ連続値ニューラルネットワークで十分である (報告書). タフツ大学コンピュータサイエンス学部. Deng, L.; Yu, D. (2014). 「ディープラーニング:方法と応用」 (PDF). 信号処理の基礎と動向. 7 (3–4): 197–387. doi:10.1561/2000000039. 2016年3月14日にオリジナルからアーカイブ (PDF). 2014年10月18日に取得。 デネット, ダニエル (1991). 意識の説明. ペンギン・プレス. ISBN 978-0-7139-9037-9. ディフェリチアントニオ、チェイス (2023年4月3日). 「AI はすでに世界を変えた。このレポートがその理由を示す」. サンフランシスコ・クロニクル. 2023年6月19日にオリジナルからアーカイブ。2023年6月19日に取得。 ディクソン、ベン (2022年5月2日). 「機械学習:トランスフォーマーアーキテクチャとは?. TechTalks. 2023年11月22日にオリジナルからアーカイブ。2023年11月22日に取得。 Dockrill, Peter (2022年6月27日), 「AI に欠陥のあるロボットは性差別的および人種差別的な決定を下す、実験が示す」, Science Alert, 2022年6月27日にオリジナルからアーカイブ Domingos, Pedro (2015). マスターアルゴリズム:究極の学習機械の探求が世界を変える。ベーシック・ブックス。ISBN 978-0-4650-6570-7。 Dreyfus, Hubert (1972).コンピュータができないこと。ニューヨーク: MIT Press。ISBN 978-0-0601-1082-6。 Dreyfus, Hubert; Dreyfus, Stuart (1986).Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. オックスフォード: Blackwell。ISBN 978-0-0290-8060-3。2020年7月26日にオリジナルからアーカイブ。2020年8月22日に取得。 ダイソン、ジョージ (1998)。『Darwin among the Machines』 アラン・レーン・サイエンス。ISBN 978-0-7382-0030-9。2020年7月26日にオリジナルからアーカイブ。2020年8月22日に取得。 エデルソン、エドワード(1991)。『The Nervous System』。ニューヨーク:チェルシー・ハウス。ISBN 978-0-7910-0464-7。2020年7月26日にオリジナルからアーカイブ。2019年11月18日に取得。 エドワーズ、ベンジ(2023年5月17日)。「世論調査:アメリカ人の大多数は AI が人類にリスクをもたらすと回答」。Ars Technica。2023年6月19日にオリジナルからアーカイブ。2023年6月19日に取得。 Fearn, Nicholas (2007). 最も古い質問に対する最新の答え:世界最高の思想家たちとの哲学的冒険。ニューヨーク:グローブプレス。ISBN 978-0-8021-1839-4。 フォード、マーティン;コルビン、ジェフ(2015年9月6日)。「ロボットは破壊するよりも多くの雇用を創出するのか?」。ガーディアン。2018年6月16日にオリジナルからアーカイブ。2018年1月13日取得。 Fox News (2023). 「Fox News Poll」 (PDF). Fox News. 2023年5月12日にオリジナルからアーカイブ。2023年6月19日取得。 Frey, Carl Benedikt; Osborne, Michael A (2017年1月1日). 「雇用の未来:仕事はコンピュータ化にどれほど脆弱か?」。『Technological Forecasting and Social Change』。114: 254–280。CiteSeerX 10.1.1.395.416。doi:10.1016/j.techfore.2016.08.019。ISSN 0040-1625。 「働かない社会からニューラル・ネットワーキングへ」。エコノミスト。2016年。2016年12月31日にオリジナルからアーカイブ。2018年4月26日に取得。 ガルバン、ジル(1997年1月1日)。「フィリップ・K・ディックの『アンドロイドは電気羊の夢を見るか?』におけるポストヒューマン・コレクティブへ の参入」。サイエンス・フィクション・スタディーズ。24 (3): 413–429. doi:10.1525/sfs.24.3.0413. JSTOR 4240644. ガイスト(精神)、エドワード・ムーア(2015年8月9日)。「人工知能は、本当に人類にとって存在の脅威なのか?」。原子科学者会報。2015年10月30日にオリジナルからアーカイブ。2015年10月30日に取得。 ギブス、サミュエル (2014年10月27日)。「イーロン・マスク:人工知能は私たちの最大の存続の脅威だ」。ガーディアン。2015年10月30日にオリジナルからアーカイブ。2015年10月30日に取得。 ゴフリー、アンドルー (2008)。「アルゴリズム」。フラー、マシュー(編)。ソフトウェア研究:用語集。マサチューセッツ州ケンブリッジ:MIT Press。15-20 ページ。ISBN 978-1-4356-4787-9。 ゴールドマン、シャロン(2022年9月14日)。「10 年後、ディープラーニングの「革命」は依然として激しさを増している、と AI の先駆者たち、ヒントン、ルカン、リーが語る」。VentureBeat。2024年10月5日にオリジナルからアーカイブ。2023年12月8日に取 得。 Good, I. J. (1965)、最初の超知能機械に関する推測、2023年7月10日にオリジナルからアーカイブ、2024年10月5日に取得 Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., 2016年4月16日にオリジナルからアーカイブ、2017年11月12日に取得 グッドマン、ブライス、フラックスマン、セス (2017)。「アルゴリズムによる意思決定に関する EU 規制と「説明を受ける権利」」。AI Magazine. 38 (3): 50. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741. S2CID 7373959。 政府監査院 (2022年9月13日)。消費者データ:利用の増加がプライバシーにリスクをもたらす。gao.gov (報告書)。2024年9月13日にオリジナルからアーカイブ。2024年10月5日に取得。 Grant, Nico; Hill, Kashmir (2023年5月22日)。「Googleのフォトアプリは依然としてゴリラを見つけられない。Appleのアプリも同様」。The New York Times。2024年9月14日にオリジナルからアーカイブ。2024年10月5日に取得。 ゴスワミ、ローハン(2023年4月5日)。「AIの雇用はここにある」。CNBC。2023年6月19日にオリジナルからアーカイブ。2023年6月19日に取得。 ハラリ、ユヴァル・ノア(2018年10月)。「テクノロジーが専制政治を好む理由」。アトランティック。2021年9月25日にオリジナルからアーカイブ。2021年9月23日に取得。 Harari, Yuval Noah (2023). 「AI と人類の未来」. YouTube. 2024年9月30日にオリジナルからアーカイブ。2024年10月5日に取得。 Haugeland, John (1985). Artificial Intelligence: The Very Idea. マサチューセッツ州ケンブリッジ: MIT Press. ISBN 978-0-2620-8153-5. Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). 「音声認識における音響モデリングのための深層ニューラルネットワーク – 4つの研究グループの共通見解」. IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ISPM...29...82H. doi:10.1109/msp.2012.2205597. S2CID 206485943. Holley, Peter (2015年1月28日)「人工知能の危険性に関するビル・ゲイツ氏の発言:『一部の人々が懸念を抱かない理由がわからない』」。ワシントン・ポスト。 ISSN 0190-8286。2015年10月30日にオリジナルからアーカイブ。2015年10月30日に取得。 Hornik, Kurt; Stinchcombe, Maxwell; White, Halbert (1989). 「多層フィードフォワードネットワークは普遍的近似器である (PDF)」. Neural Networks. Vol. 2. Pergamon Press. pp. 359–366. 2023年4月21日にオリジナルからアーカイブ。2024年10月5日に取得。 Horst, Steven (2005). 「心の計算理論」. スタンフォード哲学百科事典. 2016年3月6日にオリジナルからアーカイブ。2016年3月7日に取得。 ハウ、J. (1994年11月). 「エジンバラ大学の人工知能:展望」. 2007年5月15日にオリジナルからアーカイブ。2007年8月30日に取得。 IGM シカゴ (2017年6月30日). 「ロボットと人工知能」. igmchicago.org. 2019年5月1日にオリジナルからアーカイブ。2019年7月3日に取得。 Iphofen, Ron; Kritikos, Mihalis (2019年1月3日). 「人工知能とロボット工学の規制:デジタル社会における設計による倫理」。現代社会科学。16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502. ジョーダン、 M. I.、ミッチェル、T. M. (2015年7月16日)。「機械学習:動向、展望、および将来性」。サイエンス。349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243。S2CID 677218。 Kahneman, Daniel (2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2. 2023年3月15日にオリジナルからアーカイブ。2012年4月8日取得。 Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). 「不確実性下での判断:ヒューリスティックとバイアス」. Science. 185 (4157). New York: Cambridge University Press: 1124–1131. Bibcode:1974Sci...185.1124T. doi:10.1126/science.185.4157.1124. ISBN 978-0-5212-8414-1. PMID 17835457. S2CID 143452957. Kasperowicz, Peter (2023年5月1日). 「AIを規制すべきか?共和党は民主党よりも政府が適切に規制できると懐疑的:世論調査」。Fox News。2023年6月19日にオリジナルからアーカイブ。2023年6月19日に閲覧。 Katz, Yarden (2012年11月1日). 「Noam Chomsky on Where Artificial Intelligence Went Wrong」。The Atlantic。2019年2月28日にオリジナルからアーカイブ。2014年10月26日に取得。 「Kismet」。MIT 人工知能研究所、ヒューマノイドロボットグループ。2014年10月17日にオリジナルからアーカイブ。2014年10月25日に取得。 Kissinger, Henry (2021年11月1日). 「AI 時代の「人間であることの課題」」。ウォールストリートジャーナル。2021年11月4日にオリジナルからアーカイブ。2021年11月4日に取得。 コビエルス、ジェームズ (2019年11月27日). 「GPU は当面、AI アクセラレータ市場で優位を維持」. InformationWeek. 2021年10月19日にオリジナルからアーカイブ。2020年6月11日に取得。 クーパーマン, G. J.; ライヒリー, R. M.; ベイリー, T. C. (2006年7月1日). 「臨床意思決定支援のための商用知識ベースの活用:機会、課題、および推奨事項」. アメリカ医療情報学協会誌. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160. Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-6700-3384-3. ラングレー、パット (2011). 「機械学習の科学の変化」. Machine Learning. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y. ラーソン、ジェフ; アンギン、ジュリア (2016年5月23日). 「COMPAS 再犯アルゴリズムの分析方法」. ProPublica. 2019年4月29日にオリジナルからアーカイブ。2020年6月19日に取得。 ラスクウスキー、ニコール(2023年11月)。「人工知能とは何であり、AI はどのように機能するのか?TechTarget」。エンタープライズ AI。2024年10月5日にオリジナルからアーカイブ。2023年10月30日に取得。 米国議会図書館法図書館。グローバル・リーガル・リサーチ局、発行機関。(2019). 特定の法域における人工知能の規制。LCCN 2019668143。OCLC 1110727808。 Lee, Timothy B. (2014年8月22日). 「人工知能は人類を滅ぼすのか?心配する必要のない5つの理由」。Vox。2015年10月30日にオリジナルからアーカイブ。2015年10月30日に取得。 レナト、ダグラス;グハ、R. V. (1989)。大規模知識ベースシステムの構築。アディソン・ウェズリー。ISBN 978-0-2015-1752-1。 ライトヒル、ジェームズ(1973)。「人工知能:総合的調査」。『人工知能:論文シンポジウム』。科学研究評議会。 リパルティト、ケネス(2011年1月6日)、『物語とアルゴリズム: 19 世紀から現代までの信用報告のジャンル (PDF) (未発表原稿), doi:10.2139/ssrn.1736283, S2CID 166742927, 2022年10月9日にオリジナルからアーカイブ (PDF) ローア, スティーブ (2017). 「ロボットは仕事を奪うが、一部の人々が恐れるほど早くは奪わない、と新しい報告書が指摘」。ニューヨーク・タイムズ。2018年1月14日にオリジナルからアーカイブ。2018年1月13日に取得。 Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). 「発達ロボット工学:調査」。Connection Science。15 (4): 151–190。Bibcode:2003ConSc..15..151L. CiteSeerX 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734. 「Machine Ethics」. aaai.org. 2014年11月29日にオリジナルからアーカイブ。 Madrigal, Alexis C. (2015年2月27日). 「人工知能の研究者による、殺人ロボット反対の主張」. Fusion.net. 2016年2月4日にオリジナルからアーカイブ。2016年1月31日に取得。 Mahdawi, Arwa (2017年6月26日). 「20年後に残っている仕事は?未来に備えるために読んでおこう」。ガーディアン。2018年1月14日にオリジナルからアーカイブ。2018年1月13日に取得。 Maker, Meg Houston (2006), AI@50: AI Past, Present, Future, Dartmouth College, 2008年10月8日にオリジナルからアーカイブ、2008年10月16日に取得。 Marmouyet, Françoise (2023年12月15日). 「Google の Gemini:新しい AI モデルは ChatGPT よりも本当に優れているのか?」。The Conversation. 2024年3月4日にオリジナルからアーカイブ。2023年12月25日に取得。 Minsky, Marvin (1986), The Society of Mind, Simon and Schuster McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). 「人工知能に関するダートマス夏期研究プロジェクト提案」。2007年8月26日にオリジナルからアーカイブ。2007年8月30日に取得。 マッカーシー、ジョン (2007)、「人間レベルの AI へ」、『人工知能』、171 ページ マッカーシー、ジョン (1999)、『AI とは何なのか』、2022年12月4日にオリジナルからアーカイブ、2022年12月4日に取得。 マッコーリー、リー (2007)。「AIの終末とロボット工学の三原則」. Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949. McGarry, Ken (2005年12月1日). 「知識発見のための興味深さの測定法の調査」. 知識工学レビュー. 20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID 14987656. McGaughey, E (2022), ロボットはあなたの仕事を自動化するのか?完全雇用、ベーシックインカム、経済民主主義、p. 51(3) 産業法ジャーナル 511–559、doi:10.2139/ssrn.3044448、S2CID 219336439、 SSRN 3044448、2021年1月31日にオリジナルからアーカイブ、2023年5月27日に取得 Merkle, Daniel; Middendorf, Martin (2013). 「Swarm Intelligence」. In Burke, Edmund K.; Kendall, Graham (eds.)。検索方法論:最適化および意思決定支援技術の入門チュートリアル。Springer Science & Business Media。ISBN 978-1-4614-6940-7。 Minsky, Marvin (1967), Computation: Finite and Infinite Machines, Englewood Cliffs, N.J.: Prentice-Hall Moravec, Hans (1988). マインド・チルドレン。ハーバード大学出版局。ISBN 978-0-6745-7616-2。2020年7月26日にオリジナルからアーカイブ。2019年11月18日に取得。 モーゲンシュテルン、マイケル (2015年5月9日)。「自動化と不安」。エコノミスト。2018年1月12日にオリジナルからアーカイブ。2018年1月13日に取得。 ミュラー、ヴィンセント C.、ボストロム、ニック (2014)。「人工知能の将来的な進歩:専門家によるアンケート調査」 (PDF)。AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478。S2CID 8510016。2016年1月15日にオリジナルからアーカイブ(PDF)。 ノイマン、ベルント、メラー、ラルフ(2008年1月)。「記述論理によるシーン解釈について」。Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. S2CID 10767011. Nilsson, Nils (1995), 「Eyes on the Prize」, AI Magazine, vol. 16, pp. 9–17 ニューウェル、アレン; サイモン、H. A. (1976). 「経験的調査としてのコンピュータサイエンス:記号と探索」. Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022. ニカス、ジャック (2018年2月7日). 「YouTube が人々をインターネットの最も暗い隅に追い込む方法」. ウォールストリートジャーナル. ISSN 0099-9660. 2024年10月5日にオリジナルからアーカイブ。2018年6月16日に取得。 Nilsson, Nils (1983). 「2001年に向けての人工知能の準備」 (PDF). AI Magazine. 1 (1). 2020年8月17日にオリジナルからアーカイブ (PDF). 2020年8月22日に取得。人工知能推進協会会長講演。 NRC (米国国立研究評議会) (1999). 「人工知能の発展」。革命への資金提供:コンピュータ研究に対する政府の支援。ナショナルアカデミープレス。 オモハンドロ、スティーブ (2008)。自己改善型人工知能の性質。2007年、カリフォルニア州サンフランシスコで開催されたシンギュラリティ・サミットで発表、配布。 オウデヤー、P-Y。(2010). 「行動科学および認知科学におけるロボット工学の影響:昆虫のナビゲーションから人間の認知発達まで」 (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2–16. Bibcode:2010ITAMD...2....2O. doi:10.1109/tamd.2009.2039057. S2CID 6362217. 2018年10月3日にオリジナルからアーカイブ(PDF)。2013年6月4日に取得。 Pennachin, C.; Goertzel, B. (2007). "人工汎用知能への現代的アプローチ". 人工汎用知能. 認知技術. ベルリン、ハイデルベルク: スプリンガー. pp. 1–30. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-5402-3733-4. Pinker, Steven (2007) [1994], The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-0613-3646-1 Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; フセイン, アミール (2017年9月). 「感情コンピューティングのレビュー:単モード分析からマルチモード融合へ」. Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490. S2CID 205433041. 2023年3月23日にオリジナルからアーカイブ。2021年4月27日に取得。 Rawlinson, Kevin (2015年1月29日). 「マイクロソフトのビル・ゲイツ氏、AI は脅威だと主張」. BBC News. 2015年1月29日にオリジナルからアーカイブ。2015年1月30日に取得。 Reisner, Alex (2023年8月19日), 「明らかに:海賊版書籍が生成型 AI を支えている著者たち」、The Atlantic、2024年10月3日にオリジナルからアーカイブ、2024年10月5日に取得 ロバーツ、ジェイコブ (2016)。「思考する機械:人工知能の探求」。Distillations。第 2 巻、第 2 号。14-23 ページ。2018年8月19日にオリジナルからアーカイブ。2018年3月20日取得。 ロビツキー、ダン(2018年9月5日)。「5人の専門家が、AIについて最も恐れていることを語る」。2019年12月8日にオリジナルからアーカイブ。2019年12月8日取得。 ローズ、スティーブ(2023年7月11日)。「AIのユートピアかディストピアか?」。ガーディアン・ウィークリー。42-43ページ。 ラッセル、スチュワート (2019)。『人間と共存する人工知能:人工知能と制御の問題』。アメリカ合衆国:バイキング。ISBN 978-0-5255-5861-3。OCLC 1083694322。 Sainato, Michael (2015年8月19日). 「スティーブン・ホーキング、イーロン・マスク、ビル・ゲイツが人工知能について警告」. Observer。2015年10月30日にオリジナルからアーカイブ。2015年10月30日に取得。 サンプル、イアン(2017年11月5日)。「コンピュータはノーと言う:AI を公平、説明可能、透明にするのが重要な理由」。ガーディアン。2022年10月10日にオリジナルからアーカイブ。2018年1月30日に取得。 Rothman, Denis (2020年10月7日). 「LIME の説明とその背後にある数学を探る」。Codemotion。2023年11月25日にオリジナルからアーカイブ。2023年11月25日に閲覧。 Scassellati, Brian (2002). 「ヒューマノイドロボットのための心の理論」. Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. S2CID 1979315. シュミットフーバー, J. (2015). 「ニューラルネットワークにおけるディープラーニング: 概要」. ニューラルネットワーク. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509。 Schmidhuber, Jürgen (2022). 「Annotated History of Modern AI and Deep Learning」. 2023年8月7日にオリジナルからアーカイブ。2024年10月5日に取得。 サール、ジョン (1980). 「心、脳、プログラム」 (PDF). 行動科学と脳科学. 3 (3): 417–457. doi:10.1017/S0140525X00005756. S2CID 55303721. 2019年3月17日にオリジナルからアーカイブ (PDF). 2020年8月22日に取得。 サール、ジョン (1999). 心、言語、社会。ニューヨーク:ベーシック・ブックス。ISBN 978-0-4650-4521-1。OCLC 231867665。2020年7月26日にオリジナルからアーカイブ。2020年8月22日に取得。 Simon, H. A. (1965), The Shape of Automation for Men and Management, New York: Harper & Row Simonite, Tom (2016年3月31日). 「Google が人工知能の問題を解決する計画」. MIT Technology Review. 2024年9月16日にオリジナルからアーカイブ。2024年10月5日に閲覧。 Smith, Craig S. (2023年3月15日). 「ChatGPT-4 の開発者、Ilya Sutskever が語る AI の幻覚と AI の民主主義」. Forbes. 2024年9月18日にオリジナルからアーカイブ。2023年12月25日に閲覧。 スモリアール, スティーブン・W.; チャン, ホンジャン (1994). 「コンテンツベースの動画インデックス作成と検索」. IEEE MultiMedia. 1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913. Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. 2011年4月26日にオリジナルからアーカイブ。2011年3月22日に取得 – std.com 経由、オリジナルの PDF スキャンコピー。後に以下として出版。 Solomonoff, Ray (1957). "帰納的推論機械「. IRE Convention Record. Vol. Section on Information Theory, part 2. pp. 56–62. スタンフォード大学 (2023). 」人工知能指数報告書 2023/第6章: 政策とガバナンス" (PDF). AI Index. 2023年6月19日にオリジナルからアーカイブ。2023年6月19日に取得。 Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. Lecture Notes in Computer Science. Vol. 3784. Springer. pp. 981–995. doi:10.1007/11573548. ISBN 978-3-5402-9621-8。 テイラー、ジョシュ; ヘルン、アレックス (2023年5月2日). 「『AIのゴッドファーザー』ジェフリー・ヒントンがGoogleを辞職、誤情報の危険性を警告」. ガーディアン. 2024年10月5日にオリジナルからアーカイブ。2024年10月5日に取得。 トンプソン、デレク (2014年1月23日). 「ロボットはどのような仕事を奪うのか?」。The Atlantic. 2018年4月24日にオリジナルからアーカイブ。2018年4月24日に取得。 スロ、エレン(1993)。『ロボティクス:コンピュータと機械の融合』。ニューヨーク:ファクト・オン・ファイル。ISBN 978-0-8160-2628-9。2020年7月26日にオリジナルからアーカイブ。2020年8月22日に取得。 トゥース、ロブ(2023年9月3日)。「トランスフォーマーがAIに革命をもたらした。それらに代わるものは何か?」. Forbes. 2023年12月8日にオリジナルからアーカイブ。2023年12月8日に閲覧。 チューリング、アラン(1950年10月)。「計算機械と知能」. Mind. 59 (236): 433–460. doi:10.1093/mind/LIX.236.433. ISSN 1460-2113。JSTOR 2251299。S2CID 14636783。 UNESCO Science Report: the Race Against Time for Smarter Development. パリ: UNESCO. 2021. ISBN 978-9-2310-0450-6. 2022年6月18日にオリジナルからアーカイブ。2021年9月18日に閲覧。 ウルビナ、ファビオ; レンツォス、フィリッパ; インベルニッツィ、セドリック; エキンス、ショーン (2022年3月7日). 「人工知能を活用した医薬品開発の二重利用」. ネイチャー・マシン・インテリジェンス. 4 (3): 189–191. doi:10.1038/s42256-022-00465-9. PMC 9544280. PMID 36211133. S2CID 247302391. ヴァランス、クリスト(2023年5月30日)。「人工知能は絶滅につながる可能性があると専門家が警告」。BBC News。2023年6月17日にオリジナルからアーカイブ。2023年6月18日に取得。 Valinsky, Jordan (2019年4月11日), 「Amazon は、Alexa の会話を聞くために数千人の従業員を雇用していると報じられている」, CNN.com, 2024年1月26日にオリジナルからアーカイブ, 2024年10月5日に取得。 Verma, Yugesh (2021年12月25日). 「SHAP の完全ガイド – 実務者向け SHAPley Additive exPlanations」. Analytics India Magazine。2023年11月25日にオリジナルからアーカイブ。2023年11月25日に取得。 Vincent, James (2019年11月7日). 「OpenAI は、共有するには危険すぎると述べたテキスト生成 AI を公開した」。The Verge。2020年6月11日にオリジナルからアーカイブ。2020年6月11日に取得。 Vincent, James (2022年11月15日). 「AI の著作権に関する恐ろしい真実は、次に何が起こるのか誰も知らないことだ」。The Verge. 2023年6月19日にオリジナルからアーカイブ。2023年6月19日に取得。 ヴィンセント、ジェームズ(2023年4月3日)。「AIは企業の支配の時代に入る」。The Verge。2023年6月19日にオリジナルからアーカイブ。2023年6月19日に閲覧。 Vinge, Vernor (1993). 「来るべき技術的特異点:ポストヒューマン時代を生き残る方法」。Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa...11V。2007年1月1日にオリジナルからアーカイブ。2011年11月14日に取得。 Waddell, Kaveh (2018). 「チャットボットは不気味の谷に入った」。The Atlantic。2018年4月24日にオリジナルからアーカイブ。2018年4月24日に取得。 ウォラッチ、ウェンデル (2010). 『道徳的な機械』. オックスフォード大学出版局. ワソン、P. C.; シャピロ、D. (1966). 「推論」. In Foss, B. M. (ed.). 心理学の新しい地平. ハームズワース: ペンギン. 2020年7月26日にオリジナルからアーカイブ。2019年11月18日に取得。 ウェン、J.; マクレランド; ペントランド、A.; スパーンズ, O.; ストックマン, I.; サー, M.; テレン, E. (2001). 「ロボットと動物による自律的な精神発達」 (PDF). サイエンス. 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797。2013年9月4日にオリジナルからアーカイブ (PDF)。2013年6月4日に取得 – msu.edu 経由。 「ファジー論理とは何ですか?本質的にファジーであり、通常の二元論理を適用しないコンピュータは存在しますか?」。Scientific American. 1999年10月21日。2018年5月6日にオリジナルからアーカイブ。2018年5月5日に取得。 Williams, Rhiannon (2023年6月28日), 「Humans may be more likely to believe disinformation generated by AI」, MIT Technology Review, 2024年9月16日にオリジナルからアーカイブ, 2024年10月5日に取得 Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018年7月24日). 「人工知能と公共部門 – 応用と課題」。International Journal of Public Administration。42 (7): 596–615。doi:10.1080/01900692.2018.1498103。ISSN 0190-0692。S2CID 158829602。2020年8月18日にオリジナルからアーカイブ。2020年8月22日に取得。 ウォン、マッテオ (2023年5月19日), 「ChatGPT はすでに時代遅れ」, The Atlantic、2024年9月18日にオリジナルからアーカイブ、2024年10月5日に取得。Yudkowsky, E (2008), 「グローバルリスクにおける人工知能のポジティブおよびネガティブ要因」 (PDF), Global Catastrophic Risks, Oxford University Press, 2008, Bibcode:2008gcr..book..303Y, 2013年10月19日にオリジナルからアーカイブ, 2021年9月24日に閲覧。 |
Further reading Autor, David H., "Why Are There Still So Many Jobs? The History and Future of Workplace Automation" (2015) 29(3) Journal of Economic Perspectives 3. Boyle, James, The Line: AI and the Future of Personhood, MIT Press, 2024. Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–198. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learning algorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.) Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072. S2CID 147612763. Frank, Michael (22 September 2023). "US Leadership in Artificial Intelligence Can Shape the 21st Century Global Order". The Diplomat. Archived from the original on 16 September 2024. Retrieved 8 December 2023. Instead, the United States has developed a new area of dominance that the rest of the world views with a mixture of awe, envy, and resentment: artificial intelligence... From AI models and research to cloud computing and venture capital, U.S. companies, universities, and research labs – and their affiliates in allied countries – appear to have an enormous lead in both developing cutting-edge AI and commercializing it. The value of U.S. venture capital investments in AI start-ups exceeds that of the rest of the world combined. Gertner, Jon. (2023) "Wikipedia's Moment of Truth: Can the online encyclopedia help teach A.I. chatbots to get their facts right — without destroying itself in the process?" New York Times Magazine (July 18, 2023) online Archived 20 July 2023 at the Wayback Machine Gleick, James, "The Fate of Free Will" (review of Kevin J. Mitchell, Free Agents: How Evolution Gave Us Free Will, Princeton University Press, 2023, 333 pp.), The New York Review of Books, vol. LXXI, no. 1 (18 January 2024), pp. 27–28, 30. "Agency is what distinguishes us from machines. For biological creatures, reason and purpose come from acting in the world and experiencing the consequences. Artificial intelligences – disembodied, strangers to blood, sweat, and tears – have no occasion for that." (p. 30.) Gleick, James, "The Parrot in the Machine" (review of Emily M. Bender and Alex Hanna, The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, Harper, 274 pp.; and James Boyle, The Line: AI and the Future of Personhood, MIT Press, 326 pp.), The New York Review of Books, vol. LXXII, no. 12 (24 July 2025), pp. 43–46. "[C]hatbox 'writing' has a bland, regurgitated quality. Textures are flattened, sharp edges are sanded. No chatbox could ever have said that April is the cruelest month or that fog comes on little cat feet (though they might now, because one of their chief skills is plagiarism). And when synthetically extruded text turns out wrong, it can be comically wrong. When a movie fan asked Google whether a certain actor was in Heat, he received this 'AI Overview': 'No, Angelina Jolie is not in heat.'" (p. 44.) Halpern, Sue, "The Coming Tech Autocracy" (review of Verity Harding, AI Needs You: How We Can Change AI's Future and Save Our Own, Princeton University Press, 274 pp.; Gary Marcus, Taming Silicon Valley: How We Can Ensure That AI Works for Us, MIT Press, 235 pp.; Daniela Rus and Gregory Mone, The Mind's Mirror: Risk and Reward in the Age of AI, Norton, 280 pp.; Madhumita Murgia, Code Dependent: Living in the Shadow of AI, Henry Holt, 311 pp.), The New York Review of Books, vol. LXXI, no. 17 (7 November 2024), pp. 44–46. "'We can't realistically expect that those who hope to get rich from AI are going to have the interests of the rest of us close at heart,' ... writes [Gary Marcus]. 'We can't count on governments driven by campaign finance contributions [from tech companies] to push back.'... Marcus details the demands that citizens should make of their governments and the tech companies. They include transparency on how AI systems work; compensation for individuals if their data [are] used to train LLMs (large language model)s and the right to consent to this use; and the ability to hold tech companies liable for the harms they cause by eliminating Section 230, imposing cash penalties, and passing stricter product liability laws... Marcus also suggests... that a new, AI-specific federal agency, akin to the FDA, the FCC, or the FTC, might provide the most robust oversight.... [T]he Fordham law professor Chinmayi Sharma... suggests... establish[ing] a professional licensing regime for engineers that would function in a similar way to medical licenses, malpractice suits, and the Hippocratic oath in medicine. 'What if, like doctors,' she asks..., 'AI engineers also vowed to do no harm?'" (p. 46.) Henderson, Mark (24 April 2007). "Human rights for robots? We're getting carried away". The Times Online. London. Archived from the original on 31 May 2014. Retrieved 31 May 2014. Hughes-Castleberry, Kenna, "A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone, which has stumped humans for decades, reveals the limitations of natural-language-processing algorithms", Scientific American, vol. 329, no. 4 (November 2023), pp. 81–82. "This murder mystery competition has revealed that although NLP (natural-language processing) models are capable of incredible feats, their abilities are very much limited by the amount of context they receive. This [...] could cause [difficulties] for researchers who hope to use them to do things such as analyze ancient languages. In some cases, there are few historical records on long-gone civilizations to serve as training data for such a purpose." (p. 82.) Immerwahr, Daniel, "Your Lying Eyes: People now use A.I. to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker, 20 November 2023, pp. 54–59. "If by 'deepfakes' we mean realistic videos produced using artificial intelligence that actually deceive people, then they barely exist. The fakes aren't deep, and the deeps aren't fake. [...] A.I.-generated videos are not, in general, operating in our media as counterfeited evidence. Their role better resembles that of cartoons, especially smutty ones." (p. 59.) Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press. Jumper, John; Evans, Richard; Pritzel, Alexander; et al. (26 August 2021). "Highly accurate protein structure prediction with AlphaFold". Nature. 596 (7873): 583–589. Bibcode:2021Natur.596..583J. doi:10.1038/s41586-021-03819-2. PMC 8371605. PMID 34265844. S2CID 235959867. LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (28 May 2015). "Deep learning". Nature. 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096. Archived from the original on 5 June 2023. Retrieved 19 June 2023. Leffer, Lauren, "The Risks of Trusting AI: We must avoid humanizing machine-learning models used in scientific research", Scientific American, vol. 330, no. 6 (June 2024), pp. 80–81. Lepore, Jill, "The Chit-Chatbot: Is talking with a machine a conversation?", The New Yorker, 7 October 2024, pp. 12–16. Maschafilm (2010). "Content: Plug & Pray Film – Artificial Intelligence – Robots". plugandpray-film.de. Archived from the original on 12 February 2016. Marcus, Gary, "Artificial Confidence: Even the newest, buzziest systems of artificial general intelligence are stymmied by the same old problems", Scientific American, vol. 327, no. 4 (October 2022), pp. 42–45. Mitchell, Melanie (2019). Artificial intelligence: a guide for thinking humans. New York: Farrar, Straus and Giroux. ISBN 978-0-3742-5783-5. Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; et al. (26 February 2015). "Human-level control through deep reinforcement learning". Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. S2CID 205242740. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Introduced DQN, which produced human-level performance on some Atari games. Press, Eyal, "In Front of Their Faces: Does facial-recognition technology lead police to ignore contradictory evidence?", The New Yorker, 20 November 2023, pp. 20–26. "Robots could demand legal rights". BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011. Roivainen, Eka, "AI's IQ: ChatGPT aced a [standard intelligence] test but showed that intelligence cannot be measured by IQ alone", Scientific American, vol. 329, no. 1 (July/August 2023), p. 7. "Despite its high IQ, ChatGPT fails at tasks that require real humanlike reasoning or an understanding of the physical and social world.... ChatGPT seemed unable to reason logically and tried to rely on its vast database of... facts derived from online texts." Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs, vol. 98, no. 3 (May/June 2019), pp. 135–144. "Today's AI technologies are powerful but unreliable. Rules-based systems cannot deal with circumstances their programmers did not anticipate. Learning systems are limited by the data on which they were trained. AI failures have already led to tragedy. Advanced autopilot features in cars, although they perform well in some circumstances, have driven cars without warning into trucks, concrete barriers, and parked cars. In the wrong situation, AI systems go from supersmart to superdumb in an instant. When an enemy is trying to manipulate and hack an AI system, the risks are even greater." (p. 140.) Schulz, Hannes; Behnke, Sven (1 November 2012). "Deep Learning". KI – Künstliche Intelligenz. 26 (4): 357–363. doi:10.1007/s13218-012-0198-z. ISSN 1610-1987. S2CID 220523562. Serenko, Alexander; Michael Dohan (2011). "Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence" (PDF). Journal of Informetrics. 5 (4): 629–649. doi:10.1016/j.joi.2011.06.002. Archived (PDF) from the original on 4 October 2013. Retrieved 12 September 2013. Silver, David; Huang, Aja; Maddison, Chris J.; et al. (28 January 2016). "Mastering the game of Go with deep neural networks and tree search". Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. PMID 26819042. S2CID 515925. Archived from the original on 18 June 2023. Retrieved 19 June 2023. Tarnoff, Ben, "The Labor Theory of AI" (review of Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, Verso, 2024, 264 pp.), The New York Review of Books, vol. LXXII, no. 5 (27 March 2025), pp. 30–32. The reviewer, Ben Tarnoff, writes: "The strangeness at the heart of the generative AI boom is that nobody really knows how the technology works. We know how the large language models within ChatGPT and its counterparts are trained, even if we don't always know which data they're being trained on: they are asked to predict the next string of characters in a sequence. But exactly how they arrive at any given prediction is a mystery. The computations that occur inside the model are simply too intricate for any human to comprehend." (p. 32.) Vaswani, Ashish, Noam Shazeer, Niki Parmar et al. "Attention is all you need." Advances in neural information processing systems 30 (2017). Seminal paper on transformers. Vincent, James, "Horny Robot Baby Voice: James Vincent on AI chatbots", London Review of Books, vol. 46, no. 19 (10 October 2024), pp. 29–32. "[AI chatbot] programs are made possible by new technologies but rely on the timelelss human tendency to anthropomorphise." (p. 29.) White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020. |
さらに読む Autor, David H., 「なぜまだこんなに多くの仕事があるの?職場の自動化の過去と未来」 (2015) 29(3) Journal of Economic Perspectives 3. Boyle, James, The Line: AI and the Future of Personhood, MIT Press, 2024. Cukier, Kenneth, 「ロボットの準備はできているか?AIの未来を考える」, Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–198. コンピュータ史家のジョージ・ダイソンは(「ダイソンの法則」と呼べるかもしれない)次のように書いている。「理解できるほど単純なシステムは、知的に振 る舞うほど複雑ではない。一方、知的に振る舞うほど複雑なシステムは、理解するには複雑すぎる」。(p. 197.) コンピュータ科学者のアレックス・ペントランドは、「現在の AI 機械学習アルゴリズムは、その本質は、非常に単純で愚かなものだ。それらは機能するが、それは力ずくで機能しているだけだ」と述べています。(p. 198.) エヴァンス、ウディ(2015)。「ポストヒューマンの権利:トランスヒューマン世界の次元」。Teknokultura。12 (2)。doi:10.5209/rev_TK.2015.v12.n2.49072。S2CID 147612763。 フランク、マイケル (2023年9月22日)。「人工知能における米国のリーダーシップは 21 世紀のグローバル秩序を形作る」 『The Diplomat』。2024年9月16日にオリジナルからアーカイブ。2023年12月8日に取得。その代わりに、米国は、世界が畏敬、羨望、そして恨 みの入り混じった感情で見る、新たな支配分野、すなわち人工知能を開発した... AIモデルや研究からクラウドコンピューティング、ベンチャーキャピタルに至るまで、米国企業、大学、研究機関、および同盟国にある関連機関は、最先端の AIの開発と商業化の両面で圧倒的な優位性を示している。米国におけるAIスタートアップへのベンチャーキャピタル投資額は、世界全体の合計を上回ってい る。 Gertner, Jon. (2023) 「ウィキペディアの真実の瞬間:オンライン百科事典は、AI チャットボットに事実を正しく教えることができるのか?その過程で自分自身を破壊することなく」 New York Times Magazine (2023年7月18日) オンライン 2023年7月20日ウェイバックマシンにアーカイブ Gleick, James, 「自由意志の運命」 (ケビン・J・ミッチェル著『Free Agents: How Evolution Gave Us Free Will』プリンストン大学出版局、2023年、333 ページ) の書評、The New York Review of Books、第 LXXI 巻、第 1 号 (2024年1月18日)、27-28 ページ、30 ページ。「私たちを機械と区別するのは、行為主体性だ。生物にとって、理性と目的は、この世界での行動と、その結果から生まれる。肉体を持ち、血も汗も涙 も知らない人工知能には、そのような機会はない」 (30 ページ)。 グリーク、ジェームズ、「機械の中のオウム」(エミリー・M・ベンダーとアレックス・ハンナ『AIの欺瞞:ビッグテックの宣伝に対抗し、私たちが望む未来 を創造する方法』、ハーパー、274ページ;およびジェームズ・ボイル『ライン: AIと人格の未来』の書評)、『ニューヨーク・レビュー・オブ・ブックス』、第LXXII巻、第12号(2025年7月24日)、pp. 43–46。「チャットボットの『文章』は、味気なく、繰り返しが多い。質感は平坦化し、鋭い角は丸められている。チャットボックスが『4月は最も残酷な 月だ』とか『霧は猫の足のように忍び寄る』といったことを言うことは決してない(ただし、彼らの主なスキルの一つが盗用であるため、今後は言うかもしれな い)。そして、合成で生成されたテキストが間違っている場合、その間違いは滑稽なものになる。ある映画ファンがGoogleに『ある俳優が『ヒート』に出 演しているか』と尋ねたところ、次のような『AI概要』が返ってきた:『いいえ、アンジェリーナ・ジョリーはヒートには出演していません』」 (p. 44.) Halpern, Sue, 「The Coming Tech Autocracy」 (Verity Harding, AI Needs You: How We Can Change AI's Future and Save Our Own, Princeton University Press, 274 pp.; Gary Marcus, Taming Silicon Valley: How We Can Ensure That AI Works for Us, MIT Press, 235 pp.; ダニエラ・ラスとグレゴリー・モネ『心の鏡:AI時代のリスクと報酬』、ノートン、280ページ;マドゥミタ・ムルジア『コード依存:AIの 影で生きる』、ヘンリー・ホルト、311ページ)、『ニューヨーク・レビュー・オブ・ブックス』、第LXXI巻、第17号(2024年11月7日)、 44–46ページ。「AIから富を得ようとする人々が、私たちの利益を真に重視するとは現実的に期待できない」と[ゲイリー・マーカス]は書いている。 「テクノロジー企業からの選挙資金提供に依存する政府が、これに反対するとは期待できない」... マーカスは、市民が政府やテクノロジー企業に要求すべき事項について詳しく述べている。その中には、AI システムの仕組みの透明性、LLM(大規模言語モデル)のトレーニングにデータが使用された場合の個人への補償、およびこの使用に同意する権利、セクショ ン 230 を廃止し、罰金を科し、より厳格な製造物責任法を制定することで、テクノロジー企業にその損害の責任を問えるようすることなどが含まれている... マーカスはまた、FDA、FCC、FTCに似たAI専用の連邦機関が最も強力な監督機関となる可能性を提言している。フォードハム大学の法学教授チンマ イ・シャーマは、医療免許、医療過誤訴訟、ヒポクラテスの誓いに似た制度をエンジニア向けに設立することを提案している。「もし、医師のように、AI エンジニアも『害を及ぼさない』と誓ったとしたら?」と彼女は問う。(p. 46) Henderson, Mark (2007年4月24日). 「ロボットの人権?私たちは行き過ぎている」. The Times Online. ロンドン. 2014年5月31日にオリジナルからアーカイブ。2014年5月31日に取得。 ヒューズ=キャッスルベリー、ケナ、「殺人ミステリーパズル:数十年にわたり人類を悩ませてきた文学パズル『ケインの顎骨』が、自然言語処理アルゴリズム の限界を明らかにする」。『サイエンティフィック・アメリカン』、第329巻、第4号(2023年11月)、81–82ページ。「この殺人ミステリーコン テストは、NLP(自然言語処理)モデルが驚くべき能力を持つものの、その能力は受け取る文脈の量に大きく制限されていることを明らかにした。これは [...] 古代言語の分析などにNLPを活用しようとしている研究者にとって困難を引き起こす可能性がある。一部のケースでは、そのような目的のための訓練データと して利用できる歴史的記録がほとんど存在しない古代文明が存在するためだ。」 (p. 82.) Immerwahr, Daniel, 「Your Lying Eyes: People now use A.I. to generate fake videos indistinguishable from real ones. How much does it matter?」, The New Yorker, 20 November 2023, pp. 54–59. 「ディープフェイク」とは、人工知能を使って制作され、実際に人々を欺くようなリアルなビデオのことを指すのであれば、それはほとんど存在しない。偽物は 「ディープ」ではなく、ディープは偽物ではない。[...] 人工知能によって生成されたビデオは、一般的に、メディアで偽の証拠として流用されるようなものではない。その役割は、漫画、特に卑猥な漫画に似ている。 ジョンストン、ジョン (2008) 『機械の生命の魅力:サイバネティクス、人工生命、そして新しい AI』 MIT Press。 ジャンパー、ジョン、エヴァンス、リチャード、プリッツェル、アレクサンダー、他 (2021年8月26日)。「AlphaFold による高精度タンパク質構造予測」。Nature. 596 (7873): 583–589. Bibcode:2021Natur.596..583J. doi:10.1038/s41586-021-03819-2. PMC 8371605. PMID 34265844. S2CID 235959867. LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015年5月28日). 「Deep learning」. Nature. 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096. 2023年6月5日にオリジナルからアーカイブ。2023年6月19日に閲覧。 Leffer, Lauren, 「AI を信頼するリスク:科学研究で使用される機械学習モデルを人間化してはならない」, Scientific American, 第 330 巻, 第 6 号 (2024 年 6 月), pp. 80–81. Lepore, Jill, 「チャットボット:機械との会話は会話か?」, The New Yorker, 2024年10月7日, pp. 12–16. Maschafilm (2010). 「コンテンツ:Plug & Pray Film – 人工知能 – ロボット」. plugandpray-film.de. 2016年2月12日にオリジナルからアーカイブ。 マーカス、ゲイリー、「人工的な自信:最新で話題の人工汎用知能システムでさえ、昔からの同じ問題によって行き詰まっている」、サイエンティフィック・アメリカン、第 327 巻、第 4 号(2022 年 10 月)、42-45 ページ。 ミッチェル、メラニー (2019)。人工知能:思考する人間のためのガイド。ニューヨーク:ファラー、ストラウス、ギル。ISBN 978-0-3742-5783-5。 Mnih、Volodymyr、Kavukcuoglu、Koray、Silver、David、他 (2015年2月26日)。「深層強化学習による人間レベルの制御」。Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. S2CID 205242740. 2023年6月19日にオリジナルからアーカイブ。2023年6月19日に取得。一部の Atari ゲームで人間レベルのパフォーマンスを発揮する DQN を導入した。 Press, Eyal, 「彼らの顔の前:顔認識技術は警察に矛盾する証拠を無視させるのか?」, The New Yorker, 2023年11月20日, pp. 20–26. 「ロボットが法的権利を要求する可能性」。BBCニュース。2006年12月21日。2019年10月15日にオリジナルからアーカイブ。2011年2月3日に閲覧。 ロイヴァイネン、エカ、「AIのIQ:ChatGPTは[標準的な知能]テストで高得点を獲得したが、知能はIQだけで測定できないことを示した」、サイ エンティフィック・アメリカン、第329巻、第1号(2023年7月/8月)、p. 7。「高いIQにもかかわらず、ChatGPTは、現実の人間のような推論や物理的・社会的世界の理解を要するタスクでは失敗する...ChatGPT は論理的に推論することができないようで、オンラインのテキストから得た膨大な事実データベースに頼ろうとしていた...」 Scharre, Paul, 「キラーアプリ:AI 軍拡競争の真の危険性」, Foreign Affairs, vol. 98, no. 3 (2019年5月/6月), pp. 135–144. 「今日の AI テクノロジーは強力ですが、信頼性は低い。ルールベースのシステムは、プログラマーが予期しなかった状況には対応できない。学習システムは、その学習に使 用されたデータによって制限される。AI の失敗はすでに悲劇につながっている。自動車に搭載された高度な自動運転機能は、一部の状況では良好に機能するが、警告なしにトラック、コンクリートのバ リア、駐車中の自動車に衝突した例もある。間違った状況では、AI システムは瞬時に超賢い状態から超愚かな状態へと変化する。敵が AI システムを操作したりハッキングしたりしようとした場合、そのリスクはさらに大きくなる」と警告している。(p. 140.) シュルツェ、ハンネス、ベーンケ、スヴェン (2012年11月1日)。「ディープラーニング」。KI – Künstliche Intelligenz. 26 (4): 357–363. doi:10.1007/s13218-012-0198-z. ISSN 1610-1987. S2CID 220523562. Serenko, Alexander; Michael Dohan (2011).「専門家調査と引用影響力ジャーナルランキング手法の比較:人工知能分野の例」 (PDF). 情報計量学ジャーナル。5 (4): 629–649. doi:10.1016/j.joi.2011.06.002. 2013年10月4日にオリジナルからアーカイブ (PDF)。2013年9月12日に取得。 Silver, David; Huang, Aja; Maddison, Chris J.; et al. (2016年1月28日). 「深層神経ネットワークと木探索による囲碁の習得」. Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. PMID 26819042. S2CID 515925. 2023年6月18日にオリジナルからアーカイブ。2023年6月19日に閲覧。 Tarnoff, Ben, 「AI の労働理論」 (Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, Verso, 2024, 264 ページ, の書評), The New York Review of Books, 第 LXXII 巻, 第 5 号 (2025年3月27日), 30–32 ページ。書評者ベン・タルノフは次のように書いている:「生成AIブームの核心にある奇妙さは、誰もその技術がどのように機能しているのか本当に知らない 点にある。ChatGPTやその類似技術内の大規模言語モデルがどのように訓練されているかは知っているが、彼らが訓練されているデータが何かは必ずしも 分からない:彼らはシーケンス内の次の文字列を予測するように求められている。しかし、彼らが特定の予測に到達する正確な仕組みは謎のままである。モデル 内部で行われる計算は、人間が理解するにはあまりにも複雑すぎる。」(p. 32.) Vaswani, Ashish, Noam Shazeer, Niki Parmar et al. 「Attention is all you need.」Advances in neural information processing systems 30 (2017). トランスフォーマーに関する画期的な論文。 Vincent, James, 「Horny Robot Baby Voice: James Vincent on AI chatbots」, London Review of Books, vol. 46, no. 19 (10 October 2024), pp. 29–32. "[AIチャットボット]プログラムは新しい技術によって可能になったが、人間が持つ普遍的な擬人化傾向に依存している。」(p. 29.) ホワイトペーパー:人工知能について – 卓越性と信頼に関する欧州のアプローチ(PDF)。ブリュッセル:欧州委員会。2020年。2020年2月20日にオリジナルからアーカイブ(PDF)。2020年2月20日に取得。 |
https://en.wikipedia.org/wiki/Artificial_intelligence |
リンク
文献
その他の情報
++
Copyleft, CC,
Mitzub'ixi Quq Chi'j, 1997-2099
Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099
人工知能(artificial intelligence)の用語は、1955年にジョン・マッカーシーらによって初めて使われた(ガナシア 2019:82)。
リンク
文献
その他の情報
++
Copyleft, CC,
Mitzub'ixi Quq Chi'j, 1997-2099
Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099