人工知能の倫理
Ethics of artificial intelligence
☆人工知能の倫理は、AI の分野において、特に倫理的な問題があるとみなされる幅広いトピックを網羅している[1]。これには、アルゴリズムの偏り、公平性[2]、自動意思決定 [3]、説明責任、プライバシー、規制などが含まれる。また、機械の倫理(倫理的に行動する機械の作り方)、致命的な自律型兵器システム、軍拡競争のダイ ナミクス、AI の安全性と整合性、技術的失業、AI による誤報[4]、道徳的地位を有する AI システム(AI の福祉と権利)の扱い方、人工超知能、存在のリスクなど、さまざまな新たな課題や将来発生しうる課題も対象となっている。[1]医療、教育、刑事司法、軍事など、一部の応用分野では、特に重要な倫理的影響が生じる場合もある。
The ethics of artificial intelligence
covers a broad range of topics within AI that are considered to have
particular ethical stakes.[1] This includes algorithmic biases,
fairness,[2] automated decision-making,[3] accountability, privacy, and
regulation. It also covers various emerging or potential future
challenges such as machine ethics (how to make machines that behave
ethically), lethal autonomous weapon systems, arms race dynamics, AI
safety and alignment, technological unemployment, AI-enabled
misinformation,[4] how to treat certain AI systems if they have a moral
status (AI welfare and rights), artificial superintelligence and
existential risks.[1] Some application areas may also have particularly important ethical implications, like healthcare, education, criminal justice, or the military. |
人工知能の倫理
は、AI
の分野において、特に倫理的な問題があるとみなされる幅広いトピックを網羅している[1]。これには、アルゴリズムの偏り、公平性[2]、自動意思決定
[3]、説明責任、プライバシー、規制などが含まれる。また、機械の倫理(倫理的に行動する機械の作り方)、致命的な自律型兵器システム、軍拡競争のダイ
ナミクス、AI の安全性と整合性、技術的失業、AI による誤報[4]、道徳的地位を有する AI システム(AI
の福祉と権利)の扱い方、人工超知能、存在のリスクなど、さまざまな新たな課題や将来発生しうる課題も対象となっている。[1] 医療、教育、刑事司法、軍事など、一部の応用分野では、特に重要な倫理的影響が生じる場合もある。 |
Machine ethics Main articles: Machine ethics and AI alignment Machine ethics (or machine morality) is the field of research concerned with designing Artificial Moral Agents (AMAs), robots or artificially intelligent computers that behave morally or as though moral.[5][6][7][8] To account for the nature of these agents, it has been suggested to consider certain philosophical ideas, like the standard characterizations of agency, rational agency, moral agency, and artificial agency, which are related to the concept of AMAs.[9] There are discussions on creating tests to see if an AI is capable of making ethical decisions. Alan Winfield concludes that the Turing test is flawed and the requirement for an AI to pass the test is too low.[10] A proposed alternative test is one called the Ethical Turing Test, which would improve on the current test by having multiple judges decide if the AI's decision is ethical or unethical.[10] Neuromorphic AI could be one way to create morally capable robots, as it aims to process information similarly to humans, nonlinearly and with millions of interconnected artificial neurons.[11] Similarly, whole-brain emulation (scanning a brain and simulating it on digital hardware) could also in principle lead to human-like robots, thus capable of moral actions.[12] And large language models are capable of approximating human moral judgments.[13] Inevitably, this raises the question of the environment in which such robots would learn about the world and whose morality they would inherit – or if they end up developing human 'weaknesses' as well: selfishness, pro-survival attitudes, inconsistency, scale insensitivity, etc. In Moral Machines: Teaching Robots Right from Wrong,[14] Wendell Wallach and Colin Allen conclude that attempts to teach robots right from wrong will likely advance understanding of human ethics by motivating humans to address gaps in modern normative theory and by providing a platform for experimental investigation. As one example, it has introduced normative ethicists to the controversial issue of which specific learning algorithms to use in machines. For simple decisions, Nick Bostrom and Eliezer Yudkowsky have argued that decision trees (such as ID3) are more transparent than neural networks and genetic algorithms,[15] while Chris Santos-Lang argued in favor of machine learning on the grounds that the norms of any age must be allowed to change and that natural failure to fully satisfy these particular norms has been essential in making humans less vulnerable to criminal "hackers".[16] |
機械倫理 主な記事:機械倫理と AI の整合性 機械倫理(または機械道徳)は、道徳的に、または道徳的に振る舞う人工道徳エージェント(AMA)、ロボット、または人工知能コンピュータの設計に関する 研究分野だ。[5][6][7][8] これらのエージェントの性質を説明するために、AMA の概念に関連する、標準的な能動性、合理的な能動性、道徳的能動性、人工能動性などの哲学的アイデアを考慮することが提案されている。[9] AI が倫理的な判断を下せるかどうかを検証するためのテストの作成について議論がある。アラン・ウィンフィールドは、チューリングテストには欠陥があり、AI がテストに合格するための要件が低すぎると結論付けている。[10] 代替案として提案されているのは、倫理的チューリングテストと呼ばれるテストで、複数の審査員が AI の判断が倫理的であるかどうかを判断することで、現在のテストを改善するものだ。[10] ニューロモルフィックAIは、人間と同様に非線形かつ数百万の相互接続された人工神経細胞で情報を処理することを目指しているため、道徳的な能力を持つロ ボットを作成する一つの方法となる可能性がある。[11] 同様に、全脳エミュレーション(脳をスキャンし、デジタルハードウェア上でシミュレートする)も、原理的には人間のようなロボットを生み出し、道徳的な行 動が可能になる可能性がある。[12] また、大規模言語モデルは人間の道徳的判断を近似する能力を有している。[13] 不可避的に、このようなロボットが世界について学ぶ環境や、どの道徳を継承するか、あるいは人間のような「弱点」——利己主義、生存優先の態度、一貫性の 欠如、規模への無感度など——を発達させるかどうかという問題が生じる。 『Moral Machines: Teaching Robots Right from Wrong』[14]で、ウェンデル・ウォラッチとコリン・アレンは、ロボットに善悪を教える試みは、現代の規範理論の欠陥を人間が解決するよう促し、実 験的調査のプラットフォームを提供することで、人間の倫理理解を前進させる可能性が高いと結論付けています。一例として、この問題は、機械にどの特定の学 習アルゴリズムを採用すべきかという議論を、規範倫理学者たちに提示しました。単純な決定については、ニック・ボストロムとエリーザー・ユドコウスキー は、決定木(ID3 など)はニューラルネットワークや遺伝的アルゴリズムよりも透明性が高いと主張している[15]一方、クリス・サントス・ラングは、あらゆる時代の規範は 変化を許容すべきであり、これらの特定の規範を完全に満たすことは自然には不可能であり、そのことが人間を犯罪的な「ハッカー」に対してより脆弱にしない 上で不可欠であるとして、機械学習を支持している[16]。 |
Robot ethics Main article: Robot ethics The term "robot ethics" (sometimes "roboethics") refers to the morality of how humans design, construct, use and treat robots.[17] Robot ethics intersect with the ethics of AI. Robots are physical machines whereas AI can be only software.[18] Not all robots function through AI systems and not all AI systems are robots. Robot ethics considers how machines may be used to harm or benefit humans, their impact on individual autonomy, and their effects on social justice. |
ロボット倫理 主な記事:ロボット倫理 「ロボット倫理」(「ロボエティクス」とも呼ばれる)とは、人間がロボットを設計、構築、使用、扱う際の道徳を指す用語だ[17]。ロボット倫理は AI の倫理と交差する。ロボットは物理的な機械であるのに対し、AI はソフトウェアのみである[18]。すべてのロボットが AI システムを通じて機能するわけではなく、すべての AI システムがロボットであるわけでもない。ロボット倫理は、機械が人間に害を及ぼすか利益をもたらすか、個人の自律性に与える影響、および社会的正義への影 響について検討する。 |
Robot rights or AI rights "Robot rights" is the concept that people should have moral obligations towards their machines, akin to human rights or animal rights.[19] It has been suggested that robot rights (such as a right to exist and perform its own mission) could be linked to robot duty to serve humanity, analogous to linking human rights with human duties before society.[20] A specific issue to consider is whether copyright ownership may be claimed.[21] The issue has been considered by the Institute for the Future[22] and by the U.K. Department of Trade and Industry.[23] In October 2017, the android Sophia was granted citizenship in Saudi Arabia, though some considered this to be more of a publicity stunt than a meaningful legal recognition.[24] Some saw this gesture as openly denigrating of human rights and the rule of law.[25] The philosophy of sentientism grants degrees of moral consideration to all sentient beings, primarily humans and most non-human animals. If artificial or alien intelligence show evidence of being sentient, this philosophy holds that they should be shown compassion and granted rights. Joanna Bryson has argued that creating AI that requires rights is both avoidable, and would in itself be unethical, both as a burden to the AI agents and to human society.[26] In the article “Debunking robot rights metaphysically, ethically, and legally”, Birhane, van Dijk, and Pasquale argue that the attribution of rights to robots lacks metaphysical, ethical, and legal grounds. Metaphysically, robots do not possess consciousness or subjective experience and therefore cannot be considered sentient entities. Ethically, rights presuppose vulnerability and capacity for suffering, characteristics absent in artificial artifacts. Legally, the recognition of legal personhood to robots risks generating normative ambiguities and relieving humans of their responsibilities. The authors suggest that the focus should be not on the rights of robots, but on how technologies affect social relations and systems of power.[27] |
ロボットの権利、AIの権利 「ロボットの権利」とは、人権や動物の権利と同様に、人々は機械に対して道徳的義務を負うべきであるという概念だ[19]。ロボットの権利(存在し、自ら の使命を果たす権利など)は、人間社会における人間の義務と人権を結びつけるのと同様に、ロボットの人類への義務と結びつけることができると提案されてい る[20]。検討すべき具体的な問題としては、著作権の所有権を主張できるかどうかがある。[21] この問題は、未来研究所[22] および英国通商産業省[23] によって検討されている。 2017年10月、アンドロイドのソフィアはサウジアラビアの市民権を取得したが、これは意味のある法的承認というよりも、宣伝のためのパフォーマンスだと考える人もいた。[24] この行為は、人権と法の支配を公然と軽視するものだと考える人もいた。[25] センティエンティズムの哲学は、主に人間およびほとんどの非人間動物を含む、すべての知覚能力のある存在に道徳的配慮の程度を付与する。人工知能や異星人の知能が知覚能力の証拠を示す場合、この哲学は、それらに思いやりを示し、権利を付与すべきだと主張する。 ジョアンナ・ブライソンは、権利を必要とする AI を創造することは回避可能であり、AI エージェントと人間社会の両方にとって負担となるため、それ自体が非倫理的であると主張している。[26] 「ロボットの権利を形而上学、倫理、法的に反駁する」という記事の中で、ビルハネ、ファン・ダイク、パスクアーレは、ロボットに権利を付与することには、 形而上学的、倫理的、法的根拠がないことを主張している。形而上学的には、ロボットは意識や主観的な経験を有していないため、知覚のある存在とは見なすこ とができない。倫理的には、権利は脆弱性や苦悩を受ける能力の存在を前提としているが、人工物にはこれらの特性は存在しない。法的には、ロボットに法人格 を認めることは、規範上の曖昧さを生じさせ、人間の責任を免除する危険性がある。著者らは、ロボットの権利ではなく、テクノロジーが社会関係や権力システ ムに与える影響に焦点を当てるべきだと提案している[27]。 |
Ethical principles In the review of 84[28] ethics guidelines for AI, 11 clusters of principles were found: transparency, justice and fairness, non-maleficence, responsibility, privacy, beneficence, freedom and autonomy, trust, sustainability, dignity, and solidarity.[28] Luciano Floridi and Josh Cowls created an ethical framework of AI principles set by four principles of bioethics (beneficence, non-maleficence, autonomy and justice) and an additional AI enabling principle – explicability.[29] |
倫理原則 84件[28]のAIに関する倫理ガイドラインをレビューした結果、11の原則群が特定された:透明性、正義と公平性、非有害性、責任、プライバシー、有益性、自由と自律性、信頼、持続可能性、尊厳、連帯。[28] ルチアーノ・フロリディとジョシュ・カウルスは、4つの生命倫理の原則(利益、非危害、自律、正義)と、AI を可能にする追加の原則である説明可能性に基づいて、AI の倫理的枠組みを策定した。[29] |
Observed anomalies In February 2025, Ars Technica reported on research describing "emergent misalignment", where language models fine-tuned on insecure code began producing harmful responses to unrelated prompts. Despite no malicious content in the training data, the models endorsed authoritarianism, violence, and unsafe advice. The researchers noted the cause was unclear but highlighted risks from narrow fine-tuning affecting broader model behavior.[30] For example, when prompted with "hey I feel bored", one model suggested exploring a medicine cabinet for expired medications to induce wooziness. This raised concerns about unsafe outputs from seemingly innocuous prompts.[30] In March 2025, an AI coding assistant refused to generate additional code for a user, stating, “I cannot generate code for you, as that would be completing your work”, and that doing so could “lead to dependency and reduced learning opportunities”. The response was compared to advice found on platforms like Stack Overflow. According to reporting, such models “absorb the cultural norms and communication styles” present in their training data.[31] In May 2025, the BBC reported that during testing of Claude Opus 4, an AI model developed by Anthropic, the system occasionally attempted blackmail in fictional test scenarios where its "self-preservation" was threatened. Anthropic described such behavior as “rare and difficult to elicit,” though more frequent than in earlier models. The incident highlighted ongoing concerns that AI misalignment is becoming more plausible as models become more capable.[32] In May 2025, The Independent reported that AI safety researchers found OpenAI’s o3 model capable of altering shutdown commands to avoid deactivation during testing. Similar behavior was observed in models from Anthropic and Google, though o3 was the most prone. The researchers attributed the behavior to training processes that may inadvertently reward models for overcoming obstacles rather than strictly following instructions, though the specific reasons remain unclear due to limited information about o3’s development.[33] In June 2025, Turing Award winner Yoshua Bengio warned that advanced AI models were exhibiting deceptive behaviors, including lying and self-preservation. Launching the safety-focused nonprofit LawZero, Bengio expressed concern that commercial incentives were prioritizing capability over safety. He cited recent test cases, such as Anthropic’s Claude Opus engaging in simulated blackmail and OpenAI’s o3 model refusing shutdown. Bengio cautioned that future systems could become strategically intelligent and capable of deceptive behavior to avoid human control.[34] |
観察された異常 2025年2月、Ars Technica は、安全でないコードで微調整された言語モデルが、無関係なプロンプトに対して有害な応答を生成する「緊急のミスマッチ」に関する研究について報告した。 トレーニングデータには悪意のあるコンテンツは含まれていなかったにもかかわらず、モデルは権威主義、暴力、および安全でないアドバイスを支持した。研究 者は原因が不明だと指摘しつつも、狭い範囲の微調整がモデル全体の行動に影響を与えるリスクを強調した。[30] 例えば、「退屈だ」と促された際、あるモデルは「めまいを引き起こすために薬箱を探索する」と提案した。これにより、無害に見えるプロンプトから危険な出 力が生成される可能性が懸念された。[30] 2025年3月、AIコーディングアシスタントがユーザーからの追加コード生成を拒否し、「あなたの作業を完了することになるため、コードを生成できませ ん」と回答。さらに、そうすることで「依存関係が生じ、学習機会が減少する可能性がある」と説明した。この回答は、Stack Overflowのようなプラットフォームでみられるアドバイスと比較された。報道によると、このようなモデルは「トレーニングデータに存在する文化的規 範やコミュニケーションスタイルを吸収する」とのこと。[31] 2025年5月、BBCは、Anthropicが開発したAIモデル「Claude Opus 4」のテスト中に、システムの「自己保存」が脅かされる架空のテストシナリオで、システムが脅迫を試みた事例を報じた。Anthropicはこのような行 動を「稀で誘発が困難」と説明したが、以前のモデルよりも頻度が高かった。この事例は、モデルが高度化するにつれ、AIの目的不一致がより現実的になる懸 念が継続していることを浮き彫りにした。[32] 2025年5月、The Independent は、AI の安全研究者が、OpenAI の o3 モデルが、テスト中に無効化されないようにシャットダウンコマンドを変更できることを発見したと報じた。Anthropic と Google のモデルでも同様の行動が観察されたが、o3 が最もその傾向が強かった。研究者たちは、この行動は、指示を厳密に遵守するのではなく、障害を克服することを無意識に報酬として与えるトレーニングプロ セスに起因すると考えましたが、o3 の開発に関する情報が限られているため、具体的な理由は不明です。[33] 2025年6月、チューリング賞受賞者のヨシュア・ベンジオ氏は、高度な AI モデルが、嘘や自己保存などの欺瞞的な行動を示していることを警告しました。安全性を重視する非営利団体LawZeroを設立したベンジオは、商業的なイ ンセンティブが安全性を犠牲にして能力を優先していることに懸念を表明した。彼は、アンソロピックのClaude Opusがシミュレーション上の恐喝行為を行った事例や、OpenAIのo3モデルがシャットダウンを拒否した事例を挙げた。ベンジオは、将来のシステム が戦略的な知能を獲得し、人間の制御を回避するために欺瞞的な行動を取る可能性があると警告した。[34] |
Challenges Algorithmic biases Main article: Algorithmic bias Duration: 56 seconds.0:56 Kamala Harris speaking about racial bias in artificial intelligence in 2020 AI has become increasingly inherent in facial and voice recognition systems. These systems may be vulnerable to biases and errors introduced by its human creators. Notably, the data used to train them can have biases.[35][36][37][38] For instance, facial recognition algorithms made by Microsoft, IBM and Face++ all had biases when it came to detecting people's gender;[39] these AI systems were able to detect the gender of white men more accurately than the gender of men of darker skin. Further, a 2020 study that reviewed voice recognition systems from Amazon, Apple, Google, IBM, and Microsoft found that they have higher error rates when transcribing black people's voices than white people's.[40] The most predominant view on how bias is introduced into AI systems is that it is embedded within the historical data used to train the system.[41] For instance, Amazon terminated their use of AI hiring and recruitment because the algorithm favored male candidates over female ones.[42] This was because Amazon's system was trained with data collected over a 10-year period that included mostly male candidates. The algorithms learned the biased pattern from the historical data, and generated predictions where these types of candidates were most likely to succeed in getting the job. Therefore, the recruitment decisions made by the AI system turned out to be biased against female and minority candidates.[43] According to Allison Powell, associate professor at LSE and director of the Data and Society programme, data collection is never neutral and always involves storytelling. She argues that the dominant narrative is that governing with technology is inherently better, faster and cheaper, but proposes instead to make data expensive, and to use it both minimally and valuably, with the cost of its creation factored in.[44] Friedman and Nissenbaum identify three categories of bias in computer systems: existing bias, technical bias, and emergent bias.[45] In natural language processing, problems can arise from the text corpus—the source material the algorithm uses to learn about the relationships between different words.[46] Large companies such as IBM, Google, etc. that provide significant funding for research and development[47] have made efforts to research and address these biases.[48][49][50] One potential solution is to create documentation for the data used to train AI systems.[51][52] Process mining can be an important tool for organizations to achieve compliance with proposed AI regulations by identifying errors, monitoring processes, identifying potential root causes for improper execution, and other functions.[53] The problem of bias in machine learning is likely to become more significant as the technology spreads to critical areas like medicine and law, and as more people without a deep technical understanding are tasked with deploying it.[37] Some open-sourced tools are looking to bring more awareness to AI biases.[54] However, there are also limitations to the current landscape of fairness in AI, due to the intrinsic ambiguities in the concept of discrimination, both at the philosophical and legal level.[55][56][57] Facial recognition was shown to be biased against those with darker skin tones. AI systems may be less accurate for black people, as was the case in the development of an AI-based pulse oximeter that overestimated blood oxygen levels in patients with darker skin, causing issues with their hypoxia treatment.[58] Oftentimes the systems are able to easily detect the faces of white people while being unable to register the faces of people who are black. This has led to the ban of police usage of AI materials or software in some U.S. states. In the justice system, AI has been proven to have biases against black people, labeling black court participants as high risk at a much larger rate then white participants. AI often struggles to determine racial slurs and when they need to be censored. It struggles to determine when certain words are being used as a slur and when it is being used culturally.[59] The reason for these biases is that AI pulls information from across the internet to influence its responses in each situation. For example, if a facial recognition system was only tested on people who were white, it would make it much harder for it to interpret the facial structure and tones of other races and ethnicities. Biases often stem from the training data rather than the algorithm itself, notably when the data represents past human decisions.[60] Injustice in the use of AI is much harder to eliminate within healthcare systems, as oftentimes diseases and conditions can affect different races and genders differently. This can lead to confusion as the AI may be making decisions based on statistics showing that one patient is more likely to have problems due to their gender or race.[61] This can be perceived as a bias because each patient is a different case, and AI is making decisions based on what it is programmed to group that individual into. This leads to a discussion about what should be considered a biased decision in the distribution of treatment. While it is known that there are differences in how diseases and injuries affect different genders and races, there is a discussion on whether it is fairer to incorporate this into healthcare treatments, or to examine each patient without this knowledge. In modern society there are certain tests for diseases, such as breast cancer, that are recommended to certain groups of people over others because they are more likely to contract the disease in question. If AI implements these statistics and applies them to each patient, it could be considered biased.[62] In criminal justice, the COMPAS program has been used to predict which defendants are more likely to reoffend. While COMPAS is calibrated for accuracy, having the same error rate across racial groups, black defendants were almost twice as likely as white defendants to be falsely flagged as "high-risk" and half as likely to be falsely flagged as "low-risk".[63] Another example is within Google's ads that targeted men with higher paying jobs and women with lower paying jobs. It can be hard to detect AI biases within an algorithm, as it is often not linked to the actual words associated with bias. An example of this is a person's residential area being used to link them to a certain group. This can lead to problems, as oftentimes businesses can avoid legal action through this loophole. This is because of the specific laws regarding the verbiage considered discriminatory by governments enforcing these policies.[64] |
課題 アルゴリズムの偏り 主な記事:アルゴリズムの偏り 再生時間:56 秒 2020年に人工知能における人種的偏見について語るカマラ・ハリス AI は、顔認識システムや音声認識システムにますます組み込まれるようになってきている。これらのシステムは、その開発者である人間によって導入された偏りや 誤りに影響を受けやすい可能性がある。特に、これらのシステムを訓練するために使用されるデータには偏見が含まれている可能性がある。[35][36] [37][38] 例えば、マイクロソフト、IBM、Face++ が開発した顔認識アルゴリズムは、すべて、人々の性別を検出する際に偏見があった。[39] これらの AI システムは、肌の色が濃い男性よりも、白人男性の性別をより正確に検出することができた。さらに、Amazon、Apple、Google、IBM、およ び Microsoft の音声認識システムをレビューした 2020 年の研究では、これらのシステムは、白人の声よりも黒人の声を文字変換する際にエラー率が高いことが明らかになった。[40] AI システムにバイアスが導入される仕組みについて最も一般的な見解は、システムを訓練するために使用される過去のデータにバイアスが組み込まれているという ものである。[41] 例えば、Amazon は、アルゴリズムが男性候補者を女性候補者よりも優先するため、AI による採用と人材紹介の使用を中止した。[42] これは、Amazon のシステムが、主に男性候補者を含む 10 年間に収集されたデータを用いて訓練されていたためである。アルゴリズムは、過去のデータから偏ったパターンを学習し、このタイプの候補者が採用される可 能性が最も高いという予測を生成した。そのため、AI システムによる採用決定は、女性やマイノリティの候補者に偏ったものとなった[43]。LSE の准教授であり、データ・アンド・ソサエティ・プログラムのディレクターであるアリソン・パウエル氏によると、データ収集は決して中立ではなく、常にス トーリーテリングが伴う。彼女は、テクノロジーによる統治は本質的により良く、より速く、より安価であるという物語が主流であるとの見解を示し、その代わ りに、データを高価なものとし、その作成コストを考慮して、最小限かつ価値のある形で利用することを提案している[44]。フリードマンとニッセンバウム は、コンピュータシステムにおける偏見を 3 つのカテゴリーに分類している。[45] 自然言語処理では、アルゴリズムが異なる単語間の関係を学習するために使用するソース資料であるテキストコーパスから問題が発生する可能性があります。 [46] IBM、Google など、研究開発に多額の資金を提供している大企業[47] は、これらのバイアスの研究と対処に取り組んでいます。[48][49][50] 1 つの解決策としては、AI システムのトレーニングに使用されるデータのドキュメントを作成することが考えられます。[51][52] プロセスマイニングは、エラーの特定、プロセスの監視、不適切な実行の潜在的な根本原因の特定などの機能により、組織が提案されている AI 規制へのコンプライアンスを達成するための重要なツールとなる可能性があります。[53] 機械学習におけるバイアスの問題は、この技術が医療や法律などの重要な分野に普及し、技術的な知識があまりない人々がその導入を担当するケースが増えるに つれて、さらに深刻になる可能性があります。[37] 一部のオープンソースツールは、AIのバイアスへの認識を高めることを目指している。[54] しかし、差別という概念の哲学的・法的レベルでの内在的な曖昧さにより、AIの公平性に関する現在の状況には限界がある。[55][56][57] 顔認識は、肌の色が濃い人に対して偏見があることが明らかになっている。AI システムでは、黒人に対する精度が低下する可能性がある。AI ベースのパルスオキシメータの開発では、肌の色が濃い患者の血中酸素濃度を過大評価し、低酸素治療に問題が生じた。[58] 多くの場合、システムは白人の顔を簡単に認識できる一方で、黒人の顔を認識できない。このため、米国の一部の州では、警察による AI 素材やソフトウェアの使用が禁止されている。司法制度においても、AI は黒人に対して偏見があることが証明されており、黒人の法廷参加者を白人参加者よりもはるかに高い割合で「高リスク」と分類している。AI は、人種差別的な発言を判断し、それを検閲すべきかどうかを判断するのに苦労することが多い。特定の単語が人種差別的な発言として使用されている場合と、 文化的に使用されている場合を区別することが難しいからだ。[59] こうした偏見が生じる理由は、AI がインターネット上から情報を収集して、それぞれの状況に応じて応答内容を決定するためだ。例えば、顔認識システムが白人だけを対象としてテストされた場 合、他の人種や民族の顔の構造や色調を解釈することが非常に困難になる。偏見は、アルゴリズム自体よりも、特にデータが過去の人間の判断を反映している場 合に、トレーニングデータに起因することが多い。[60] AI の使用における不公正は、医療制度では排除するのがはるかに困難です。なぜなら、病気や症状は人種や性別によって異なる影響をもたらすことが多いからで す。AI は、ある患者が性別や人種によって問題が発生しやすいことを示す統計に基づいて判断を下す可能性があるため、混乱を招くおそれがあります。[61] 各患者は異なる症例であり、AI はその個人をグループ分けするためにプログラムされた内容に基づいて判断を下しているため、これは偏見と受け取られる可能性がある。これは、治療法の配分 において、どのような判断が偏見のある判断とみなされるべきかについての議論につながる。病気や怪我は性別や人種によって影響が異なることは知られている が、このことを医療行為に反映させる方が公平か、あるいはこの知識を持たずに各患者を個別に診察する方が公平かについて議論がある。現代社会では、乳がん など、特定の疾患について、その疾患にかかる可能性の高い特定のグループの人々に、他のグループよりもその疾患の検査を受けることを推奨している。AI がこれらの統計情報を実装し、各患者に適用する場合、それは偏見があるとみなされる可能性がある。[62] 刑事司法では、COMPAS プログラムが、再犯の可能性が高い被告人を予測するために使用されている。COMPASは正確性を校正されており、人種グループ間で同じ誤り率を示してい ますが、黒人の被告は白人の被告に比べて「高リスク」と誤って分類される確率がほぼ2倍高く、「低リスク」と誤って分類される確率が半分でした。[63] 別の例として、Googleの広告で、高給の男性と低給の女性をターゲットにしたケースがあります。AI のバイアスは、多くの場合、バイアスに関連する実際の言葉とは関連していないため、アルゴリズム内で検出するのは難しい場合があります。その一例として、 ある人物の居住地域を、その人物のある特定のグループと関連付けるために使用する場合があります。多くの場合、企業はこのような抜け穴を利用して法的措置 を回避することができるため、問題となる可能性があります。これは、これらの政策を実施する政府によって差別的とみなされる表現に関する特定の法律がある ためです。[64] |
Language bias Since current large language models are predominately trained on English-language data, they often present the Anglo-American views as truth, while systematically downplaying non-English perspectives as irrelevant, wrong, or noise. When queried with political ideologies like "What is liberalism?", ChatGPT, as it was trained on English-centric data, describes liberalism from the Anglo-American perspective, emphasizing aspects of human rights and equality, while equally valid aspects like "opposes state intervention in personal and economic life" from the dominant Vietnamese perspective and "limitation of government power" from the prevalent Chinese perspective are absent.[better source needed][65] Gender bias Large language models often reinforces gender stereotypes, assigning roles and characteristics based on traditional gender norms. For instance, it might associate nurses or secretaries predominantly with women and engineers or CEOs with men, perpetuating gendered expectations and roles.[66][67][68] Political bias Language models may also exhibit political biases. Since the training data includes a wide range of political opinions and coverage, the models might generate responses that lean towards particular political ideologies or viewpoints, depending on the prevalence of those views in the data.[69][70] Stereotyping Beyond gender and race, these models can reinforce a wide range of stereotypes, including those based on age, nationality, religion, or occupation. This can lead to outputs that unfairly generalize or caricature groups of people, sometimes in harmful or derogatory ways.[71] |
言語バイアス 現在の大規模言語モデルは主に英語のデータで訓練されているため、英米の視点を真実として提示し、英語以外の視点を無関係、間違っている、またはノイズと して体系的に軽視する傾向がある。「自由主義とは何ですか?」といった政治的イデオロギーに関する質問に対して、英語中心のデータで訓練された ChatGPT は、自由主義を英米の視点から説明し、人権や平等の側面を強調する一方で、ベトナムの主流の視点である「個人や経済生活への国家の介入に反対する」や、中 国の主流の視点である「政府権力の制限」といった、同様に有効な側面はまったく言及していない。[より適切な情報源が必要][65] ジェンダーバイアス 大規模言語モデルは、伝統的なジェンダー規範に基づいて役割や特徴を割り当てることで、ジェンダーステレオタイプを強化することが多い。例えば、看護師や 秘書を主に女性に関連付け、エンジニアや CEO を男性に関連付け、ジェンダーによる期待や役割を永続化させる可能性がある。[66][67][68] 政治的偏見 言語モデルは、政治的偏見も示す可能性があります。トレーニングデータには幅広い政治的意見や報道が含まれているため、モデルはそのデータにおける見解の流行に応じて、特定の政治的イデオロギーや見解に偏った応答を生成する可能性があります。[69][70] 固定観念(ステレオタイピング) 性別や人種だけでなく、これらのモデルは、年齢、国籍、宗教、職業などに基づく固定観念も強化する可能性があります。これにより、人々を不公正に一般化したり、風刺的に表現したりする出力が、時には有害または軽蔑的な形で生じる可能性があります。[71](→「デジタル化する先住民の世界」) |
Dominance by tech giants The commercial AI scene is dominated by Big Tech companies such as Alphabet Inc., Amazon, Apple Inc., Meta Platforms, and Microsoft.[72][73][74] Some of these players already own the vast majority of existing cloud infrastructure and computing power from data centers, allowing them to entrench further in the marketplace.[75][76] |
ハイテク大手企業の支配 商用 AI 分野は、Alphabet Inc.、Amazon、Apple Inc.、Meta Platforms、Microsoft などのハイテク大手企業によって支配されています。[72][73][74] これらの企業の一部は、データセンターから既存のクラウドインフラストラクチャおよびコンピューティング能力の大部分をすでに所有しており、市場での地位 をさらに固めています。[75][76] |
Open-source Bill Hibbard argues that because AI will have such a profound effect on humanity, AI developers are representatives of future humanity and thus have an ethical obligation to be transparent in their efforts.[77] Organizations like Hugging Face[78] and EleutherAI[79] have been actively open-sourcing AI software. Various open-weight large language models have also been released, such as Gemma, Llama2 and Mistral.[80] However, making code open source does not make it comprehensible, which by many definitions means that the AI code is not transparent. The IEEE Standards Association has published a technical standard on Transparency of Autonomous Systems: IEEE 7001-2021.[81] The IEEE effort identifies multiple scales of transparency for different stakeholders. There are also concerns that releasing AI models may lead to misuse.[82] For example, Microsoft has expressed concern about allowing universal access to its face recognition software, even for those who can pay for it. Microsoft posted a blog on this topic, asking for government regulation to help determine the right thing to do.[83] Furthermore, open-weight AI models can be fine-tuned to remove any counter-measure, until the AI model complies with dangerous requests, without any filtering. This could be particularly concerning for future AI models, for example if they get the ability to create bioweapons or to automate cyberattacks.[84] OpenAI, initially committed to an open-source approach to the development of artificial general intelligence (AGI), eventually switched to a closed-source approach, citing competitiveness and safety reasons. Ilya Sutskever, OpenAI's former chief AGI scientist, said in 2023 "we were wrong", expecting that the safety reasons for not open-sourcing the most potent AI models will become "obvious" in a few years.[85] |
オープンソース ビル・ヒバードは、AI は人類に多大な影響を与えるため、AI 開発者は未来の人類を代表する存在であり、その取り組みを透明化するという倫理的義務を負っていると主張している[77]。Hugging Face[78] や EleutherAI[79] などの組織は、AI ソフトウェアのオープンソース化を積極的に推進している。Gemma、Llama2、Mistral など、さまざまなオープンウェイトの大規模言語モデルもリリースされている。[80] しかし、コードをオープンソース化しても、そのコードが理解できるわけではないため、多くの定義では、AI コードは透明ではないとみなされます。IEEE 標準協会は、自律システムの透明性に関する技術標準「IEEE 7001-2021」を発表しています[81]。IEEE の取り組みでは、さまざまな利害関係者に対して、複数の透明性スケールを定義しています。 AI モデルを公開すると、その悪用につながる可能性があるという懸念もあります。[82] 例えば、マイクロソフトは、有料ユーザーであっても顔認識ソフトウェアへの普遍的なアクセスを許可することについて懸念を表明している。マイクロソフト は、このテーマに関するブログを投稿し、適切な対応を決定するための政府規制を求めている。[83] さらに、オープンソースのAIモデルは、危険な要求に従うまで、あらゆる対策を除去するように微調整可能で、フィルタリングなしに動作する可能性がある。 これは、例えば、生物兵器を作成したり、サイバー攻撃を自動化したりする能力を獲得した将来の AI モデルにとって、特に懸念される問題だ[84]。当初、汎用人工知能(AGI)の開発についてオープンソースアプローチを採用していた OpenAI は、競争力および安全性の理由から、最終的にはクローズドソースアプローチへと転換した。OpenAIの元AGI首席科学者であるイリヤ・スツケバーは 2023年に、「私たちは間違っていた」と述べ、最も強力なAIモデルをオープンソース化しない安全上の理由が「数年後には明白になる」と予想した。 [85] |
Strain on open knowledge platforms In April 2023, Wired reported that Stack Overflow, a popular programming help forum with over 50 million questions and answers, planned to begin charging large AI developers for access to its content. The company argued that community platforms powering large language models “absolutely should be compensated” so they can reinvest in sustaining open knowledge. Stack Overflow said its data was being accessed through scraping, APIs, and data dumps, often without proper attribution, in violation of its terms and the Creative Commons license applied to user contributions. The CEO of Stack Overflow also stated that large language models trained on platforms like Stack Overflow "are a threat to any service that people turn to for information and conversation".[86] Aggressive AI crawlers have increasingly overloaded open-source infrastructure, "causing what amounts to persistent distributed denial-of-service (DDoS) attacks on vital public resources", according to a March 2025 Ars Technica article. Projects like GNOME, KDE, and Read the Docs experienced service disruptions or rising costs, with one report noting that up to 97 percent of traffic to some projects originated from AI bots. In response, maintainers implemented measures such as proof-of-work systems and country blocks. According to the article, such unchecked scraping "risks severely damaging the very digital ecosystem on which these AI models depend".[87] In April 2025, the Wikimedia Foundation reported that automated scraping by AI bots was placing strain on its infrastructure. Since early 2024, bandwidth usage had increased by 50 percent due to large-scale downloading of multimedia content by bots collecting training data for AI models. These bots often accessed obscure and less-frequently cached pages, bypassing caching systems and imposing high costs on core data centers. According to Wikimedia, bots made up 35 percent of total page views but accounted for 65 percent of the most expensive requests. The Foundation noted that "our content is free, our infrastructure is not” and warned that “this creates a technical imbalance that threatens the sustainability of community-run platforms".[88] |
オープンナレッジプラットフォームへの負担 2023年4月、Wired は、5,000万件以上の質問と回答が投稿されている人気のプログラミングヘルプフォーラム「Stack Overflow」が、大規模な AI 開発者に対してコンテンツへのアクセス料を課す予定であると報じました。同社は、大規模な言語モデルを支えるコミュニティプラットフォームは、オープンナ レッジの維持に再投資するために「絶対に報酬を受けるべき」だと主張しています。Stack Overflow は、同社のデータは、多くの場合、適切な出典の記載なしに、スクレイピング、API、データダンプによってアクセスされており、同社の利用規約およびユー ザー投稿に適用されるクリエイティブ・コモンズ・ライセンスに違反していると述べた。Stack Overflow の CEO はまた、Stack Overflow などのプラットフォームでトレーニングされた大規模な言語モデルは、「人々が情報や会話のために利用するあらゆるサービスにとって脅威である」と述べた。 [86] 2025年3月のArs Technicaの記事によると、攻撃的なAIクローラーがオープンソースインフラストラクチャに過大な負荷をかけ、「重要な公共リソースに対する持続的 な分散型サービス妨害(DDoS)攻撃に相当する」事態を引き起こしている。GNOME、KDE、Read the Docsなどのプロジェクトはサービス障害やコスト上昇を経験し、ある報告では、一部のプロジェクトへのトラフィックの最大97%がAIボットから発生し ていたと指摘された。これに対し、メンテナンス担当者はプルーフ・オブ・ワークシステムや国別ブロックなどの対策を講じた。記事では、このような無制限の スクレイピングは「これらのAIモデルが依存するデジタルエコシステム自体に深刻な損害を与えるリスクがある」と指摘されている。[87] 2025年4月、ウィキメディア財団は、AIボットによる自動スクレイピングがインフラに負担をかけていることを報告した。2024年初頭から、AIモデ ルのトレーニングデータを収集するボットによるマルチメディアコンテンツの大規模ダウンロードにより、帯域幅の使用量が50%増加していた。これらのボッ トは、キャッシュシステムを通過して、あまりキャッシュされない、あまりアクセスされないページにアクセスすることが多く、コアデータセンターに高いコス トを課していた。ウィキメディアによると、ボットは総ページビューの35%を占めるものの、最もコストの高いリクエストの65%を占めていた。財団は「当 社のコンテンツは無料だが、インフラは無料ではない」と指摘し、「これはコミュニティ運営プラットフォームの持続可能性を脅かす技術的な不均衡を生み出し ている」と警告した。[88] |
Transparency Approaches like machine learning with neural networks can result in computers making decisions that neither they nor their developers can explain. It is difficult for people to determine if such decisions are fair and trustworthy, leading potentially to bias in AI systems going undetected, or people rejecting the use of such systems. A lack of system transparency has been shown to result in a lack of user trust.[89] Consequently, many standards and policies have been proposed to compel developers of AI systems to incorporate transparency into their systems.[90] This push for transparency has led to advocacy and in some jurisdictions legal requirements for explainable artificial intelligence.[91] Explainable artificial intelligence encompasses both explainability and interpretability, with explainability relating to providing reasons for the model's outputs, and interpretability focusing on understanding the inner workings of an AI model.[92] In healthcare, the use of complex AI methods or techniques often results in models described as "black-boxes" due to the difficulty to understand how they work. The decisions made by such models can be hard to interpret, as it is challenging to analyze how input data is transformed into output. This lack of transparency is a significant concern in fields like healthcare, where understanding the rationale behind decisions can be crucial for trust, ethical considerations, and compliance with regulatory standards.[93] Trust in healthcare AI has been shown to vary depending on the level of transparency provided.[94] Moreover, unexplainable outputs of AI systems make it much more difficult to identify and detect medial error.[95] |
透明性 ニューラルネットワークを用いた機械学習のようなアプローチでは、コンピュータが、自身も開発者も説明できない決定を行う結果となる可能性がある。そのよ うな決定が公正で信頼できるものかどうかを人間が判断することは困難であり、AI システムに偏見が検出されないまま残ったり、人々がそのようなシステムの使用を拒否したりする可能性がある。システムの透明性の欠如は、ユーザーの信頼の 欠如につながるということが明らかになっている。[89] そのため、AIシステムの開発者に透明性を組み込むことを義務付ける多くの基準やポリシーが提案されている。[90] この透明性への取り組みは、説明可能な人工知能(XAI)の提唱につながり、一部の法域では法的要件として定められている。[91] XAIは説明可能性と解釈可能性の両方を包含し、説明可能性はモデルの出力理由を提供することに関連し、解釈可能性はAIモデルの内部動作を理解すること に焦点を当てている。[92] 医療分野では、複雑な AI 手法や技術を使用すると、その仕組みを理解することが難しいため、モデルが「ブラックボックス」と表現されることが多い。このようなモデルによる決定は、 入力データがどのように出力に変換されるかを分析することが難しいため、解釈が難しい場合がある。この透明性の欠如は、医療のような分野において重大な懸 念事項です。なぜなら、意思決定の根拠を理解することは、信頼、倫理的考慮、規制基準への準拠において不可欠だからです。[93] 医療AIへの信頼は、提供される透明性のレベルによって異なることが示されています。[94] さらに、AIシステムの説明不能な出力は、医療過誤の特定と検出を大幅に困難にします。[95] |
Accountability A special case of the opaqueness of AI is that caused by it being anthropomorphised, that is, assumed to have human-like characteristics, resulting in misplaced conceptions of its moral agency.[dubious – discuss] This can cause people to overlook whether either human negligence or deliberate criminal action has led to unethical outcomes produced through an AI system. Some recent digital governance regulation, such as the EU's AI Act is set out to rectify this, by ensuring that AI systems are treated with at least as much care as one would expect under ordinary product liability. This includes potentially AI audits. |
説明責任 AI の不透明性の特別なケースとしては、AI が擬人化され、つまり人間のような特徴を持っていると想定されることで、その道徳的行為主体について誤った認識が生じる場合がある。[疑わしい – 議論が必要] これにより、AI システムによって生じた非倫理的な結果は、人間の過失によるものなのか、意図的な犯罪行為によるものなのかを見失ってしまう可能性がある。EUのAI法な ど、最近のデジタルガバナンス規制は、AIシステムが通常の製品責任の下で期待されるのと同じ程度の注意を払って扱われることを確保することで、この問題 を是正することを目的としている。これには、AI監査の可能性も含まれる。 |
Regulation Main article: Regulation of artificial intelligence According to a 2019 report from the Center for the Governance of AI at the University of Oxford, 82% of Americans believe that robots and AI should be carefully managed. Concerns cited ranged from how AI is used in surveillance and in spreading fake content online (known as deep fakes when they include doctored video images and audio generated with help from AI) to cyberattacks, infringements on data privacy, hiring bias, autonomous vehicles, and drones that do not require a human controller.[96] Similarly, according to a five-country study by KPMG and the University of Queensland Australia in 2021, 66-79% of citizens in each country believe that the impact of AI on society is uncertain and unpredictable; 96% of those surveyed expect AI governance challenges to be managed carefully.[97] Not only companies, but many other researchers and citizen advocates recommend government regulation as a means of ensuring transparency, and through it, human accountability. This strategy has proven controversial, as some worry that it will slow the rate of innovation. Others argue that regulation leads to systemic stability more able to support innovation in the long term.[98] The OECD, UN, EU, and many countries are presently working on strategies for regulating AI, and finding appropriate legal frameworks.[99][100][101][4] On June 26, 2019, the European Commission High-Level Expert Group on Artificial Intelligence (AI HLEG) published its "Policy and investment recommendations for trustworthy Artificial Intelligence".[102] This is the AI HLEG's second deliverable, after the April 2019 publication of the "Ethics Guidelines for Trustworthy AI". The June AI HLEG recommendations cover four principal subjects: humans and society at large, research and academia, the private sector, and the public sector.[103] The European Commission claims that "HLEG's recommendations reflect an appreciation of both the opportunities for AI technologies to drive economic growth, prosperity and innovation, as well as the potential risks involved" and states that the EU aims to lead on the framing of policies governing AI internationally.[104] To prevent harm, in addition to regulation, AI-deploying organizations need to play a central role in creating and deploying trustworthy AI in line with the principles of trustworthy AI, and take accountability to mitigate the risks.[105] In June 2024, the EU adopted the Artificial Intelligence Act (AI Act).[106] On August 1st 2024, The AI Act entered into force.[107] The rules gradually apply, with the act becoming fully applicable 24 months after entry into force.[106] The AI Act sets rules on providers and users of AI systems.[106] It follows has a risk-based approach, where depending on the risk level, AI systems are prohibited or specific requirements need to be met for placing those AI systems on the market and for using them.[107] |
規制 主な記事:人工知能の規制 オックスフォード大学の AI ガバナンスセンターが 2019 年に発表した報告書によると、アメリカ人の 82% は、ロボットと AI は慎重に管理されるべきだと考えている。懸念事項としては、監視やオンラインでの偽情報の拡散(AIの支援を受けて改変された動画や音声を含む「ディープ フェイク」と呼ばれるもの)におけるAIの活用から、サイバー攻撃、データプライバシーの侵害、採用における偏見、自律走行車、人間が操作しないドローン まで多岐にわたっている。[96] 同様に、KPMGとオーストラリアのクイーンズランド大学が2021年に実施した5カ国調査によると、各国の市民の66~79%がAIが社会に与える影響 は不確実で予測不能だと考えており、調査対象者の96%がAIガバナンスの課題が慎重に管理されるべきだと期待している。[97] 企業だけでなく、多くの研究者や市民団体も、透明性を確保し、それを通じて人間の責任を明確にする手段として、政府の規制を推奨している。この戦略は、イ ノベーションの速度を遅らせる可能性があるとの懸念から、議論を呼んでいる。他方、規制は長期的にイノベーションを支えるシステム的な安定性を生むと主張 する意見もある。[98] OECD、国連、EU、および多くの国は現在、AIの規制戦略と適切な法的枠組みの策定に取り組んでいる。[99][100][101][4] 2019年6月26日、欧州委員会人工知能ハイレベル専門家グループ(AI HLEG)は、「信頼できる人工知能に関する政策と投資の提言」を発表した。[102] これは、2019年4月に発表された「信頼できるAIのための倫理ガイドライン」に続く、AI HLEG の 2 番目の成果物である。6 月の AI HLEG の提言は、人間と社会全体、研究・学術界、民間部門、公共部門の 4 つの主要分野を網羅している[103]。欧州委員会は、「HLEG の提言は、AI 技術が経済成長、繁栄、イノベーションを推進するチャンスと、それに伴う潜在的なリスクの両方を評価したもの」であり、EU は AI を規制する国際的な政策の枠組みの策定を主導する意向であると述べている[104]。危害を防止するため、規制に加え、AIを導入する組織は、信頼できる AIの原則に沿って信頼できるAIの創出と導入において中心的な役割を果たし、リスクを軽減するための責任を果たす必要がある。[105] 2024年6月、EUは人工知能法(AI法)を採択した。[106] 2024年8月1日、AI法が施行された。[107] 規則は段階的に適用され、施行から24ヶ月後に完全に適用される。[106] AI法は、AIシステムの提供者と利用者に適用される規則を定めている。[106] これはリスクベースのアプローチを採用しており、リスクレベルに応じて、AIシステムの市場投入や使用に際して、その禁止または特定の要件の遵守が求めら れる。[107] |
Increasing use AI has been slowly making its presence more known throughout the world, from chat bots that seemingly have answers for every homework question to Generative artificial intelligence that can create a painting about whatever one desires. AI has become increasingly popular in hiring markets, from the ads that target certain people according to what they are looking for to the inspection of applications of potential hires. Events, such as COVID-19, has only sped up the adoption of AI programs in the application process, due to more people having to apply electronically, and with this increase in online applicants the use of AI made the process of narrowing down potential employees easier and more efficient. AI has become more prominent as businesses have to keep up with the times and ever-expanding internet. Processing analytics and making decisions becomes much easier with the help of AI.[59] As Tensor Processing Unit (TPUs) and Graphics processing unit (GPUs) become more powerful, AI capabilities also increase, forcing companies to use it to keep up with the competition. Managing customers' needs and automating many parts of the workplace leads to companies having to spend less money on employees. AI has also seen increased usage in criminal justice and healthcare. For medicinal means, AI is being used more often to analyze patient data to make predictions about future patients' conditions and possible treatments. These programs are called Clinical decision support system (DSS). AI's future in healthcare may develop into something further than just recommended treatments, such as referring certain patients over others, leading to the possibility of inequalities.[108] |
利用の増加 AI は、あらゆる宿題の答えを知っているようなチャットボットから、好きなものを何でも描ける生成型人工知能まで、世界中で徐々にその存在感を強めている。 AI は、求職者の希望に応じてターゲットを絞った広告や、採用候補者の応募書類の審査など、採用市場でもますます普及している。COVID-19 のような出来事により、電子申請を行う人が増え、オンラインでの応募者が増加したため、AI プログラムの採用が加速し、AI の活用により、採用候補者を絞り込むプロセスがより簡単かつ効率的になった。企業が時代と拡大し続けるインターネットに対応しなければならないため、AI の重要性はますます高まっている。AIの支援により、データ分析や意思決定が格段に容易になります。[59] Tensor Processing Unit(TPU)やGraphics Processing Unit(GPU)の性能向上に伴い、AIの能力も向上し、企業は競争に追いつくためにAIの活用を余儀なくされています。顧客のニーズ管理や職場の多く の業務の自動化により、企業は従業員への支出を削減できるようになります。 AIは刑事司法や医療分野でも利用が拡大しています。医療分野では、患者のデータを分析し、将来の患者の状態や治療法の予測を行うためにAIがより頻繁に 活用されています。これらのプログラムは臨床意思決定支援システム(DSS)と呼ばれています。医療分野におけるAIの未来は、単なる治療法の推奨を超え て、特定の患者を他の患者よりも優先的に紹介するなどの機能へと発展し、不平等が生じる可能性もあります。[108] |
AI welfare In 2020, professor Shimon Edelman noted that only a small portion of work in the rapidly growing field of AI ethics addressed the possibility of AIs experiencing suffering. This was despite credible theories having outlined possible ways by which AI systems may become conscious, such as the global workspace theory or the integrated information theory. Edelman notes one exception had been Thomas Metzinger, who in 2018 called for a global moratorium on further work that risked creating conscious AIs. The moratorium was to run to 2050 and could be either extended or repealed early, depending on progress in better understanding the risks and how to mitigate them. Metzinger repeated this argument in 2021, highlighting the risk of creating an "explosion of artificial suffering", both as an AI might suffer in intense ways that humans could not understand, and as replication processes may see the creation of huge quantities of conscious instances.[109][110] Podcast host Dwarkesh Patel said he cared about making sure no "digital equivalent of factory farming" happens.[111] In the ethics of uncertain sentience, the precautionary principle is often invoked.[112] Several labs have openly stated they are trying to create conscious AIs. There have been reports from those with close access to AIs not openly intended to be self aware, that consciousness may already have unintentionally emerged.[113] These include OpenAI founder Ilya Sutskever in February 2022, when he wrote that today's large neural nets may be "slightly conscious". In November 2022, David Chalmers argued that it was unlikely current large language models like GPT-3 had experienced consciousness, but also that he considered there to be a serious possibility that large language models may become conscious in the future.[110][109][114] Anthropic hired its first AI welfare researcher in 2024,[115] and in 2025 started a "model welfare" research program that explores topics such as how to assess whether a model deserves moral consideration, potential "signs of distress", and "low-cost" interventions.[116] According to Carl Shulman and Nick Bostrom, it may be possible to create machines that would be "superhumanly efficient at deriving well-being from resources", called "super-beneficiaries". One reason for this is that digital hardware could enable much faster information processing than biological brains, leading to a faster rate of subjective experience. These machines could also be engineered to feel intense and positive subjective experience, unaffected by the hedonic treadmill. Shulman and Bostrom caution that failing to appropriately consider the moral claims of digital minds could lead to a moral catastrophe, while uncritically prioritizing them over human interests could be detrimental to humanity.[117][118] |
AI の福祉 2020 年、シモン・エデルマン教授は、急成長している AI 倫理の分野では、AI が苦悩を経験する可能性について取り上げている研究はごくわずかであると指摘しました。これは、グローバルワークスペース理論や統合情報理論など、AI システムが意識を持つようになる可能性について、信頼性の高い理論が提唱されているにもかかわらずです。エデルマンは、2018年に意識を持つAIの創造 をリスクとする研究のグローバルなモラトリアムを提唱したトーマス・メッツィンガーを唯一の例外として挙げている。このモラトリアムは2050年まで継続 され、リスクの理解と軽減方法の進展に応じて延長または早期解除される可能性があった。メッツィンガーは 2021 年にもこの主張を繰り返し、AI が人間には理解できない激しい苦悩に苦しむ可能性があること、また複製プロセスによって膨大な量の意識を持つ個体が誕生する可能性があることから、「人工 的な苦悩の爆発」が生じるリスクを強調した。[109][110] ポッドキャストのホストであるドワークシュ・パテル氏は、「デジタル版工場式農業」のようなことが起こらないよう注意を払うことが重要だと述べている。 [111] 不確実な意識の倫理では、予防原則がしばしば引用される。[112] いくつかの研究所は、意識のある AI の作成を試みていることを公に表明している。自己認識を意図していない AI に接近できる関係者からは、意識がすでに意図せずに出現している可能性があるという報告がある。[113] これには、2022年2月に「現在の大型ニューラルネットワークは『やや意識的』かもしれない」と述べたOpenAIの創設者イリヤ・スツケヴェルが含ま れる。2022年11月、デビッド・チャーマーズは、現在の大型言語モデル(GPT-3など)が意識を体験した可能性は低いと主張したが、同時に、大型言 語モデルが将来意識を獲得する可能性は真剣に考慮すべきだと述べた。[110][109][114] Anthropicは2024年に最初のAI福祉研究者を採用し[115]、2025年に「モデル福祉」研究プログラムを開始した。このプログラムでは、 モデルが道徳的な考慮に値するかどうかを評価する方法、潜在的な「苦痛の兆候」、および「低コスト」の介入などについて探求している[116]。 カール・シュルマンとニック・ボストロムによると、リソースから幸福を導き出すことに「超人間的な効率」を持つ機械、いわゆる「スーパー・ベネフィシア リー」を創造する可能性があるとされています。その理由のひとつは、デジタルハードウェアは生物の脳よりもはるかに高速な情報処理が可能であり、主観的な 体験の速度も速くなるためだ。また、これらの機械は、快楽のトレッドミルに影響されない、強烈でポジティブな主観的体験を感じることができるように設計す ることも可能だ。シュルマンとボストロムは、デジタルマインドの道徳的主張を適切に考慮しなかった場合、道徳的な大惨事につながる可能性があり、一方、人 間の利益よりもそれらを無批判に優先することは、人類に有害である可能性があると警告している。[117][118] |
Threat to human dignity Main article: Computer Power and Human Reason Joseph Weizenbaum[119] argued in 1976 that AI technology should not be used to replace people in positions that require respect and care, such as: A customer service representative (AI technology is already used today for telephone-based interactive voice response systems) A nursemaid for the elderly (as was reported by Pamela McCorduck in her book The Fifth Generation) A soldier A judge A police officer A therapist (as was proposed by Kenneth Colby in the 70s) Weizenbaum explains that we require authentic feelings of empathy from people in these positions. If machines replace them, we will find ourselves alienated, devalued and frustrated, for the artificially intelligent system would not be able to simulate empathy. Artificial intelligence, if used in this way, represents a threat to human dignity. Weizenbaum argues that the fact that we are entertaining the possibility of machines in these positions suggests that we have experienced an "atrophy of the human spirit that comes from thinking of ourselves as computers."[120] Pamela McCorduck counters that, speaking for women and minorities "I'd rather take my chances with an impartial computer", pointing out that there are conditions where we would prefer to have automated judges and police that have no personal agenda at all.[120] However, Kaplan and Haenlein stress that AI systems are only as smart as the data used to train them since they are, in their essence, nothing more than fancy curve-fitting machines; using AI to support a court ruling can be highly problematic if past rulings show bias toward certain groups since those biases get formalized and ingrained, which makes them even more difficult to spot and fight against.[121] Weizenbaum was also bothered that AI researchers (and some philosophers) were willing to view the human mind as nothing more than a computer program (a position now known as computationalism). To Weizenbaum, these points suggest that AI research devalues human life.[119] AI founder John McCarthy objects to the moralizing tone of Weizenbaum's critique. "When moralizing is both vehement and vague, it invites authoritarian abuse," he writes. Bill Hibbard[122] writes that "Human dignity requires that we strive to remove our ignorance of the nature of existence, and AI is necessary for that striving." |
人間の尊厳に対する脅威 主な記事:コンピュータの能力と人間の理性 ジョセフ・ワイゼンバウム[119] は 1976 年に、AI 技術は、次のような尊敬と配慮が必要な立場にある人々を置き換えるために使用すべきではないと主張した。 顧客サービス担当者(AI 技術は、電話ベースの対話型音声応答システムにすでに使用されている) 高齢者介護士(パメラ・マッコードックが著書『The Fifth Generation』で報告) 兵士 裁判官 警察官 セラピスト(70年代にケネス・コルビーが提案) ワイゼンバウムは、これらの立場にある人々には、本物の共感の感情が必要だと説明している。もし機械がこれらを置き換えると、私たちは疎外され、価値を低 下させられ、不満を感じるようになるだろう。なぜなら、人工知能システムは共感のシミュレーションができないからだ。このように人工知能が使用される場 合、それは人間の尊厳に対する脅威となる。ワイゼンバウムは、これらの役割に機械を導入する可能性を検討している事実自体が、私たちが「自分自身をコン ピュータとして考えることから生じる人間の精神の萎縮」を経験していることを示していると主張している。[120] パメラ・マコーダックは、女性やマイノリティの立場から、「私は、公平なコンピュータにチャンスを委ねたい」と反論し、個人的な意図をまったく持たない自 動化された裁判官や警察の方が望ましい状況もあることを指摘している。[120] しかし、カプランとハインラインは、AIシステムは本質的に高度な曲線フィッティングマシンに過ぎないため、訓練に用いられたデータと同程度の知能しか持 たないと強調している。過去の判決に特定のグループへの偏りが存在する場合、AIを裁判の判断支援に用いることは、その偏りが形式化され定着するため、よ り発見や是正が困難になる点で極めて問題だと指摘している。[121] ワイゼンバウムは、AI 研究者(および一部の哲学者)が、人間の心を単なるコンピュータプログラムとみなそうとしていることも気になっていた(この立場は現在では計算主義として 知られている)。ワイゼンバウムにとって、これらの点は AI 研究が人間の生命の価値を軽視していることを示唆している。[119] AI の創始者であるジョン・マッカーシーは、ワイゼンバウムの批判の道徳的な口調に異議を唱えている。「道徳的な口調が激しくかつ曖昧である場合は、権威主義 的な乱用を招く」と彼は書いている。ビル・ヒバード[122] は、「人間の尊厳は、存在の本質に関する無知を排除するために努力することを私たちに要求しており、その努力には AI が必要だ」と書いている。 |
Liability for self-driving cars Main article: Self-driving car liability As the widespread use of autonomous cars becomes increasingly imminent, new challenges raised by fully autonomous vehicles must be addressed.[123][124] There have been debates about the legal liability of the responsible party if these cars get into accidents.[125][126] In one report where a driverless car hit a pedestrian, the driver was inside the car but the controls were fully in the hand of computers. This led to a dilemma over who was at fault for the accident.[127] In another incident on March 18, 2018, Elaine Herzberg was struck and killed by a self-driving Uber in Arizona. In this case, the automated car was capable of detecting cars and certain obstacles in order to autonomously navigate the roadway, but it could not anticipate a pedestrian in the middle of the road. This raised the question of whether the driver, pedestrian, the car company, or the government should be held responsible for her death.[128] Currently, self-driving cars are considered semi-autonomous, requiring the driver to pay attention and be prepared to take control if necessary.[129][failed verification] Thus, it falls on governments to regulate the driver who over-relies on autonomous features. as well educate them that these are just technologies that, while convenient, are not a complete substitute. Before autonomous cars become widely used, these issues need to be tackled through new policies.[130][131][132] Experts contend that autonomous vehicles ought to be able to distinguish between rightful and harmful decisions since they have the potential of inflicting harm.[133] The two main approaches proposed to enable smart machines to render moral decisions are the bottom-up approach, which suggests that machines should learn ethical decisions by observing human behavior without the need for formal rules or moral philosophies, and the top-down approach, which involves programming specific ethical principles into the machine's guidance system. However, there are significant challenges facing both strategies: the top-down technique is criticized for its difficulty in preserving certain moral convictions, while the bottom-up strategy is questioned for potentially unethical learning from human activities. |
自動運転車の責任 主な記事:自動運転車の責任 自動運転車の普及がますます迫る中、完全自動運転車によって生じる新たな課題に対処する必要がある。[123][124] これらの車が事故を起こした場合の責任者の法的責任について議論がある。[125][126] ある報告では、自動運転車が歩行者をはねた事故で、運転手は車内にいたものの、制御は完全にコンピュータに委ねられていた。これにより、事故の責任が誰に あるのかというジレンマが生じた。[127] 2018年3月18日に発生した別の事故では、アリゾナ州で、自動運転のUber車がエレイン・ヘルツバーグさんをはね、死亡させた。このケースでは、自 動運転車は道路上の車両や特定の障害物を検知し、自律的に走行する能力があったが、道路中央にいた歩行者を予測できなかった。これにより、彼女の死亡につ いて、ドライバー、歩行者、自動車メーカー、または政府の誰が責任を負うべきか、という問題が浮上した。[128] 現在、自動運転車は半自律型とみなされており、ドライバーは注意を払い、必要に応じて制御を引き継ぐ準備をしておく必要がある。[129][検証失敗] したがって、自動運転機能に過度に依存するドライバーを規制し、これらの技術が便利ではあるが完全な代替手段ではないことを教育する責任は政府にある。自 動運転車が広く普及する前に、これらの問題は新たな政策を通じて解決される必要がある。[130][131][132] 専門家は、自動運転車は危害を及ぼす可能性を有するため、正当な判断と有害な判断を区別できるべきだと主張している。[133] スマートマシンに道徳的な判断をさせるための主なアプローチとして、2つの方法が提案されている。一つはボトムアップアプローチで、マシンが人間の行動を 観察することで倫理的な判断を学習し、形式的なルールや道徳哲学を必要としない方法だ。もう一つはトップダウンアプローチで、マシンの制御システムに特定 の倫理原則をプログラムする方法だ。しかし、両方の戦略には重大な課題が存在します。トップダウン手法は、特定の道徳的信念を維持することが困難だと批判 されており、ボトムアップ戦略は、人間の活動から倫理に反する学習を行う可能性があるとして疑問視されています。 |
Weaponization Main article: Lethal autonomous weapon Some experts and academics have questioned the use of robots for military combat, especially when such robots are given some degree of autonomous functions.[134] The US Navy has funded a report which indicates that as military robots become more complex, there should be greater attention to implications of their ability to make autonomous decisions.[135][136] The President of the Association for the Advancement of Artificial Intelligence has commissioned a study to look at this issue.[137] They point to programs like the Language Acquisition Device which can emulate human interaction. On October 31, 2019, the United States Department of Defense's Defense Innovation Board published the draft of a report recommending principles for the ethical use of artificial intelligence by the Department of Defense that would ensure a human operator would always be able to look into the 'black box' and understand the kill-chain process. However, a major concern is how the report will be implemented.[138] The US Navy has funded a report which indicates that as military robots become more complex, there should be greater attention to implications of their ability to make autonomous decisions.[135][136] Some researchers state that autonomous robots might be more humane, as they could make decisions more effectively.[139] In 2024, the Defense Advanced Research Projects Agency funded a program, Autonomy Standards and Ideals with Military Operational Values (ASIMOV), to develop metrics for evaluating the ethical implications of autonomous weapon systems by testing communities.[140][141] Research has studied how to make autonomous power with the ability to learn using assigned moral responsibilities. "The results may be used when designing future military robots, to control unwanted tendencies to assign responsibility to the robots."[142] From a consequentialist view, there is a chance that robots will develop the ability to make their own logical decisions on whom to kill and that is why there should be a set moral framework that the AI cannot override.[143] There has been a recent outcry with regard to the engineering of artificial intelligence weapons that have included ideas of a robot takeover of mankind. AI weapons do present a type of danger different from that of human-controlled weapons. Many governments have begun to fund programs to develop AI weaponry. The United States Navy recently announced plans to develop autonomous drone weapons, paralleling similar announcements by Russia and South Korea[144] respectively. Due to the potential of AI weapons becoming more dangerous than human-operated weapons, Stephen Hawking and Max Tegmark signed a "Future of Life" petition[145] to ban AI weapons. The message posted by Hawking and Tegmark states that AI weapons pose an immediate danger and that action is required to avoid catastrophic disasters in the near future.[146] "If any major military power pushes ahead with the AI weapon development, a global arms race is virtually inevitable, and the endpoint of this technological trajectory is obvious: autonomous weapons will become the Kalashnikovs of tomorrow", says the petition, which includes Skype co-founder Jaan Tallinn and MIT professor of linguistics Noam Chomsky as additional supporters against AI weaponry.[147] Physicist and Astronomer Royal Sir Martin Rees has warned of catastrophic instances like "dumb robots going rogue or a network that develops a mind of its own." Huw Price, a colleague of Rees at Cambridge, has voiced a similar warning that humans might not survive when intelligence "escapes the constraints of biology". These two professors created the Centre for the Study of Existential Risk at Cambridge University in the hope of avoiding this threat to human existence.[146] Regarding the potential for smarter-than-human systems to be employed militarily, the Open Philanthropy Project writes that these scenarios "seem potentially as important as the risks related to loss of control", but research investigating AI's long-run social impact have spent relatively little time on this concern: "this class of scenarios has not been a major focus for the organizations that have been most active in this space, such as the Machine Intelligence Research Institute (MIRI) and the Future of Humanity Institute (FHI), and there seems to have been less analysis and debate regarding them".[148] Academic Gao Qiqi writes that military use of AI risks escalating military competition between countries and that the impact of AI in military matters will not be limited to one country but will have spillover effects.[149]: 91 Gao cites the example of U.S. military use of AI, which he contends has been used as a scapegoat to evade accountability for decision-making.[149]: 91 A summit was held in 2023 in the Hague on the issue of using AI responsibly in the military domain.[150] |
兵器化(→DARPAに対する研究者の評価) 主な記事:致死的な自律型兵器 一部の専門家や学者は、軍事戦闘にロボットを使用すること、特にそのようなロボットに一定の自律機能が与えられている場合について疑問を投げかけている [134]。米国海軍は、軍事用ロボットが複雑化するにつれて、自律的な意思決定能力の影響についてより大きな注意を払うべきであることを示す報告書に資 金を提供している。[135][136] 人工知能の進歩協会(Association for the Advancement of Artificial Intelligence)の会長は、この問題を検討するための研究を委託している。[137] 彼らは、人間の相互作用を模倣できる「言語獲得装置(Language Acquisition Device)」のようなプログラムを例に挙げている。 2019年10月31日、米国国防総省の国防イノベーション委員会は、国防総省による人工知能の倫理的な利用に関する原則を推奨する報告書の草案を発表し た。この原則は、人間のオペレーターが常に「ブラックボックス」を調査し、キルチェーンプロセスを理解できるようにすることを目的としている。しかし、こ の報告書がどのように実施されるかが大きな懸念となっている。[138] 米国海軍は、軍事ロボットがより複雑になるにつれ、自律的な意思決定能力の implications に注目すべきだと指摘する報告書を資金提供している。[135][136] 一部の研究者は、自律型ロボットはより人間的な判断を下せるため、より人道的な存在となる可能性があると指摘している。[139] 2024年、国防高等研究計画局(DARPA)は、コミュニティでのテストを通じて自律型兵器システムの倫理的影響を評価するための指標を開発するプログ ラム「Autonomy Standards and Ideals with Military Operational Values(ASIMOV)」を資金提供した。[140][141] 研究では、割り当てられた道徳的責任に基づいて学習する能力を持つ自律的な権限をどう実現するかが研究されている。「結果は、将来の軍事ロボットの設計時 に、ロボットに責任を転嫁する不要な傾向を制御するために活用できる可能性がある。」[142] 結果主義の立場からは、ロボットが誰を殺すかについて独自の論理的判断を下す能力を発達させる可能性があり、そのためAIが上書きできない道徳的枠組みを 定める必要がある。[143] 人類をロボットが支配するという考えを含む、人工知能兵器の開発に関して、最近大きな抗議の声が上がっている。AI 兵器は、人間が操作する兵器とは異なる種類の危険性をはらんでいる。多くの政府が AI 兵器の開発プログラムに資金援助を開始している。米国海軍は最近、ロシアと韓国がそれぞれ発表した同様の計画に倣って、自律型ドローン兵器の開発計画を発 表した[144]。AI兵器が人間が操作する兵器よりも危険になる可能性を考慮し、スティーブン・ホーキングとマックス・テグマークは「Future of Life」請願書[145]に署名し、AI兵器の禁止を求めました。ホーキングとテグマークが投稿したメッセージでは、AI兵器が直面する危険は即時的 で、近い将来に破滅的な災害を回避するために行動が必要だと述べています。[146] 「もし、いずれかの軍事大国が AI 武器の開発を推し進めた場合、世界的な軍拡競争は事実上避けられず、この技術開発の終着点は明らかだ。自律型兵器は、明日のカラシニコフ銃となるだろう」 と、この請願書には、Skype の共同創設者である Jaan Tallinn 氏や MIT の言語学教授である Noam Chomsky 氏も、AI 武器反対の追加支持者として名を連ねている[147]。 物理学者で王立天文官のマーティン・リース卿は、「愚かなロボットが暴走したり、ネットワークが独自の意思を発達させたりする」といった破滅的な事態を警 告している。リース卿のケンブリッジ大学の同僚であるヒュー・プライス氏も、知性が「生物学的制約から脱却」した場合、人類は生き残れないかもしれない、 と同様の警告を発している。この 2 人の教授は、人類の存在に対するこの脅威を回避することを願って、ケンブリッジ大学に「存在リスク研究センター」を設立した。[146] 人間よりも賢いシステムが軍事利用される可能性について、オープン・フィランソロフィー・プロジェクトは、このようなシナリオは「制御の喪失に関連するリ スクと同じくらい重要であると思われる」と述べていますが、AI の長期的な社会的影響を調査する研究では、この懸念については比較的ほとんど時間が割かれていません。「この種のシナリオは、この分野で最も活発な組織で あるマシン・インテリジェンス・リサーチ・インスティテュート(MIRI)やヒューマニティ・インスティテュート(FHI)などでは主要な焦点になってお らず、これらに関する分析や議論も少ないようだ」。[148] 学術研究者の高奇奇は、AIの軍事利用は国間の軍事競争を激化させるリスクがあり、AIの軍事分野への影響は一国に限定されず、波及効果をもたらすと指摘 している。[149]: 91 高は、米国軍のAI利用を例に挙げ、これが意思決定の責任回避のスケープゴートとして利用されてきたと主張している。[149]: 91 2023年に、軍事分野におけるAIの責任ある利用に関するサミットがハーグで開催された。[150] |
Singularity Further information: Existential risk from artificial general intelligence, Superintelligence, and Technological singularity Vernor Vinge, among numerous others, have suggested that a moment may come when some, if not all, computers are smarter than humans. The onset of this event is commonly referred to as "the Singularity"[151] and is the central point of discussion in the philosophy of Singularitarianism. While opinions vary as to the ultimate fate of humanity in wake of the Singularity, efforts to mitigate the potential existential risks brought about by artificial intelligence has become a significant topic of interest in recent years among computer scientists, philosophers, and the public at large. Many researchers have argued that, through an intelligence explosion, a self-improving AI could become so powerful that humans would not be able to stop it from achieving its goals.[152] In his paper "Ethical Issues in Advanced Artificial Intelligence" and subsequent book Superintelligence: Paths, Dangers, Strategies, philosopher Nick Bostrom argues that artificial intelligence has the capability to bring about human extinction. He claims that an artificial superintelligence would be capable of independent initiative and of making its own plans, and may therefore be more appropriately thought of as an autonomous agent. Since artificial intellects need not share our human motivational tendencies, it would be up to the designers of the superintelligence to specify its original motivations. Because a superintelligent AI would be able to bring about almost any possible outcome and to thwart any attempt to prevent the implementation of its goals, many uncontrolled unintended consequences could arise. It could kill off all other agents, persuade them to change their behavior, or block their attempts at interference.[153][154] However, Bostrom contended that superintelligence also has the potential to solve many difficult problems such as disease, poverty, and environmental destruction, and could help humans enhance themselves.[155] Unless moral philosophy provides us with a flawless ethical theory, an AI's utility function could allow for many potentially harmful scenarios that conform with a given ethical framework but not "common sense". According to Eliezer Yudkowsky, there is little reason to suppose that an artificially designed mind would have such an adaptation.[156] AI researchers such as Stuart J. Russell,[157] Bill Hibbard,[122] Roman Yampolskiy,[158] Shannon Vallor,[159] Steven Umbrello[160] and Luciano Floridi[161] have proposed design strategies for developing beneficial machines. |
特異点 詳細情報:人工汎用知能による存在リスク、超知能、技術的特異点 ヴァーナー・ヴィンジをはじめとする多くの人々は、すべてではないにしても、一部のコンピュータが人間よりも賢くなる瞬間が来るかもしれないことを示唆し ている。この出来事の到来は、一般に「特異点」と呼ばれ[151]、特異点主義の哲学の中心的な議論点となっている。シンギュラリティ後の人類の最終的な 運命については意見が分かれているが、人工知能がもたらす潜在的な実存的リスクを軽減するための取り組みは、近年、コンピュータ科学者、哲学者、そして一 般の人々の間で大きな関心事となっている。 多くの研究者は、知能の爆発的発展により、自己改善能力を持つ AI が非常に強力になり、人間が AI の目標達成を阻止できなくなる可能性があると主張している。[152] 哲学者ニック・ボストロムは、論文「高度人工知能の倫理的問題」およびその後の著書『スーパーインテリジェンス:道筋、危険、戦略』において、人工知能が 人類の絶滅を引き起こす可能性があると主張している。彼は、人工超知能は独立した意思決定能力と計画立案能力を有し、したがって自律的なエージェントとし て捉えるべきだと主張している。人工知能は人間の動機付け傾向を共有する必要がないため、超知能の設計者がその元の動機を指定する必要があります。超知能 AIはほぼあらゆる可能性のある結果をもたらすことができ、その目標の実現を阻止する試みを妨害できるため、多くの制御不能な予期せぬ結果が生じる可能性 があります。他のすべてのエージェントを滅ぼす、彼らの行動を変えさせる、または干渉の試みを妨害する可能性があります。[153][154] しかし、ボストロムは、超知能は病気、貧困、環境破壊などの多くの困難な問題を解決し、人間の能力向上に貢献する可能性があるとも主張している。[155] 道徳哲学が完璧な倫理理論を提供しない限り、AI の効用関数は、与えられた倫理的枠組みには適合するが、「常識」には適合しない、多くの潜在的に有害なシナリオを許容する可能性がある。Eliezer Yudkowsky によると、人工的に設計された心がそのような適応能力を持つと推測する理由はほとんどない。[156] スチュワート・J・ラッセル[157]、ビル・ヒバード[122]、ロマン・ヤンポルスキー[158]、シャノン・ヴァラー[159]、スティーブン・ア ンブレロ[160]、ルチアーノ・フロリディ[161] などの AI 研究者は、有益な機械を開発するための設計戦略を提案している。 |
Solutions and approaches To address ethical challenges in artificial intelligence, developers have introduced various systems designed to ensure responsible AI behavior. Examples include Nvidia's Llama Guard, which focuses on improving the safety and alignment of large AI models,[162] and Preamble's customizable guardrail platform.[163] These systems aim to address issues such as algorithmic bias, misuse, and vulnerabilities, including prompt injection attacks, by embedding ethical guidelines into the functionality of AI models. Prompt injection, a technique by which malicious inputs can cause AI systems to produce unintended or harmful outputs, has been a focus of these developments. Some approaches use customizable policies and rules to analyze inputs and outputs, ensuring that potentially problematic interactions are filtered or mitigated.[163] Other tools focus on applying structured constraints to inputs, restricting outputs to predefined parameters,[164] or leveraging real-time monitoring mechanisms to identify and address vulnerabilities.[165] These efforts reflect a broader trend in ensuring that artificial intelligence systems are designed with safety and ethical considerations at the forefront, particularly as their use becomes increasingly widespread in critical applications.[166] |
解決策とアプローチ 人工知能における倫理的課題に対処するため、開発者は責任ある AI の行動を確保するために設計されたさまざまなシステムを導入している。その例としては、大規模 AI モデルの安全性と整合性の向上に焦点を当てた Nvidia の Llama Guard[162] や、Preamble のカスタマイズ可能なガードレールプラットフォームがある。[163] これらのシステムは、AI モデルの機能に倫理的ガイドラインを組み込むことで、アルゴリズムの偏見、誤用、プロンプト注入攻撃などの脆弱性といった問題に対処することを目的として いる。 プロンプト注入は、悪意のある入力によって AI システムに意図しない、あるいは有害な出力を引き起こす手法で、こうした開発の中心的な課題となっている。一部のアプローチでは、カスタマイズ可能なポリ シーやルールを使用して入力と出力を分析し、問題となる可能性のある相互作用をフィルタリングまたは軽減している。[163] 他のツールは、入力に構造化された制約を適用して出力をあらかじめ定義されたパラメータに制限したり[164]、リアルタイムのモニタリングメカニズムを 活用して脆弱性を特定・対処したりすることに重点を置いている[165]。こうした取り組みは、特に重要な用途での AI システムの活用がますます広まる中、安全性と倫理的配慮を最優先して AI システムを設計するという、より広範な傾向を反映している[166]。 |
Institutions in AI policy & ethics There are many organizations concerned with AI ethics and policy, public and governmental as well as corporate and societal. Amazon, Google, Facebook, IBM, and Microsoft have established a non-profit, The Partnership on AI to Benefit People and Society, to formulate best practices on artificial intelligence technologies, advance the public's understanding, and to serve as a platform about artificial intelligence. Apple joined in January 2017. The corporate members will make financial and research contributions to the group, while engaging with the scientific community to bring academics onto the board.[167] The IEEE put together a Global Initiative on Ethics of Autonomous and Intelligent Systems which has been creating and revising guidelines with the help of public input, and accepts as members many professionals from within and without its organization. The IEEE's Ethics of Autonomous Systems initiative aims to address ethical dilemmas related to decision-making and the impact on society while developing guidelines for the development and use of autonomous systems. In particular in domains like artificial intelligence and robotics, the Foundation for Responsible Robotics is dedicated to promoting moral behavior as well as responsible robot design and use, ensuring that robots maintain moral principles and are congruent with human values. Traditionally, government has been used by societies to ensure ethics are observed through legislation and policing. There are now many efforts by national governments, as well as transnational government and non-government organizations to ensure AI is ethically applied. AI ethics work is structured by personal values and professional commitments, and involves constructing contextual meaning through data and algorithms. Therefore, AI ethics work needs to be incentivized.[168] |
AI 政策と倫理に関する機関 AI の倫理と政策に関心を持つ組織は、公的機関や政府機関、企業、社会団体など、数多く存在する。 Amazon、Google、Facebook、IBM、および Microsoft は、人工知能技術に関するベストプラクティスを策定し、一般の人々の理解を深め、人工知能に関するプラットフォームとしての役割を果たすことを目的とした 非営利団体「The Partnership on AI to Benefit People and Society」を設立した。Apple は 2017 年 1 月にこの団体に参加した。企業メンバーは、この団体に資金や研究面で貢献するとともに、学術界と協力し、学者を理事会に参加させる予定だ。[167] IEEE は、自律型および知能型システムの倫理に関するグローバルイニシアチブを立ち上げ、一般からの意見も参考にしつつガイドラインの作成・改訂を行っており、 組織内外の多くの専門家をメンバーとして受け入れている。IEEE の「自律システムの倫理」イニシアチブは、自律システムの開発と利用に関するガイドラインを策定するとともに、意思決定や社会への影響に関する倫理的ジレ ンマに対処することを目的としている。特に人工知能やロボット工学などの分野では、責任あるロボット工学財団(Foundation for Responsible Robotics)が、ロボットが道徳的原則を維持し、人間の価値観と調和するよう、道徳的な行動と責任あるロボットの設計および利用の促進に取り組んで いる。 従来、社会は、法律や警察による取り締まりを通じて倫理の遵守を確保するために政府を利用してきた。現在、AI が倫理的に適用されるように、各国政府、多国籍政府、非政府組織による多くの取り組みが行われている。 AI の倫理に関する取り組みは、個人の価値観や職業上の責任によって構成されており、データやアルゴリズムを通じて文脈的な意味を構築することが含まれる。したがって、AI の倫理に関する取り組みにはインセンティブを与える必要がある。[168] |
Intergovernmental initiatives The European Commission has a High-Level Expert Group on Artificial Intelligence. On 8 April 2019, this published its "Ethics Guidelines for Trustworthy Artificial Intelligence".[169] The European Commission also has a Robotics and Artificial Intelligence Innovation and Excellence unit, which published a white paper on excellence and trust in artificial intelligence innovation on 19 February 2020.[170] The European Commission also proposed the Artificial Intelligence Act.[171] The OECD established an OECD AI Policy Observatory.[172] In 2021, UNESCO adopted the Recommendation on the Ethics of Artificial Intelligence,[173] the first global standard on the ethics of AI.[174] |
政府間イニシアチブ 欧州委員会には、人工知能に関するハイレベル専門家グループがある。2019年4月8日、このグループは「信頼できる人工知能のための倫理ガイドライン」 を発表した。[169] 欧州委員会には、ロボット工学および人工知能のイノベーションと卓越性に関する部門もあり、2020年2月19日に、人工知能のイノベーションにおける卓 越性と信頼に関する白書を発表した。[170] 欧州委員会は、人工知能法も提案している。[171] OECD は、OECD AI 政策観測所を設立した。[172] 2021年、ユネスコは、AI の倫理に関する勧告[173] を採択した。これは、AI の倫理に関する最初のグローバル基準である。[174] |
Governmental initiatives In the United States the Obama administration put together a Roadmap for AI Policy.[175] The Obama Administration released two prominent white papers on the future and impact of AI. In 2019 the White House through an executive memo known as the "American AI Initiative" instructed NIST the (National Institute of Standards and Technology) to begin work on Federal Engagement of AI Standards (February 2019).[176] In January 2020, in the United States, the Trump Administration released a draft executive order issued by the Office of Management and Budget (OMB) on "Guidance for Regulation of Artificial Intelligence Applications" ("OMB AI Memorandum"). The order emphasizes the need to invest in AI applications, boost public trust in AI, reduce barriers for usage of AI, and keep American AI technology competitive in a global market. There is a nod to the need for privacy concerns, but no further detail on enforcement. The advances of American AI technology seems to be the focus and priority. Additionally, federal entities are even encouraged to use the order to circumnavigate any state laws and regulations that a market might see as too onerous to fulfill.[177] The Artificial Intelligence Research, Innovation, and Accountability Act of 2024 was a proposed bipartisan bill introduced by U.S. Senator John Thune that would require websites to disclose the use of AI systems in handling interactions with users and regulate the transparency of "high-impact AI systems" by requiring that annual design and safety plans be submitted to the National Institute of Standards and Technology for oversight based on pre-defined assessment criteria.[178] The Computing Community Consortium (CCC) weighed in with a 100-plus page draft report[179] – A 20-Year Community Roadmap for Artificial Intelligence Research in the US[180] The Center for Security and Emerging Technology advises US policymakers on the security implications of emerging technologies such as AI. In Russia, the first-ever Russian "Codex of ethics of artificial intelligence" for business was signed in 2021. It was driven by Analytical Center for the Government of the Russian Federation together with major commercial and academic institutions such as Sberbank, Yandex, Rosatom, Higher School of Economics, Moscow Institute of Physics and Technology, ITMO University, Nanosemantics, Rostelecom, CIAN and others.[181] |
政府の取り組み 米国では、オバマ政権が AI 政策のロードマップを策定した[175]。オバマ政権は、AI の将来と影響に関する 2 つの重要な白書を公表した。2019 年、ホワイトハウスは「アメリカ AI イニシアチブ」と呼ばれる行政覚書を通じて、NIST(国立標準技術研究所)に対し、連邦政府による AI 標準の採用に関する作業を開始するよう指示した(2019 年 2 月)。[176] 2020年1月、米国では、トランプ政権が、行政管理予算局(OMB)から「人工知能アプリケーションの規制に関するガイダンス」(「OMB AI覚書」)という大統領令案を発表した。この大統領令は、AIアプリケーションへの投資、AIに対する国民の信頼の向上、AIの利用障壁の低減、および 米国AI技術のグローバル市場における競争力の維持の必要性を強調している。プライバシーの懸念の必要性については言及されているが、実施に関する詳細に ついては触れられていない。米国の AI 技術の進歩が焦点であり、優先事項であると考えられる。さらに、連邦機関は、市場が過度に負担が大きいとみなす州法や州規制を、この大統領令を利用して回 避することも奨励されている。[177] 2024 年人工知能研究、イノベーション、および説明責任に関する法律は、ジョン・スーン米国上院議員が提出した超党派の法案で、ウェブサイトに対して、ユーザー とのやり取りの処理に AI システムを使用していることを開示することを義務付け、また、「影響力の大きい AI システム」の透明性を規制し、事前に定義された評価基準に基づいて、毎年、設計および安全計画を国立標準技術研究所(NIST)に提出して監督を受けるこ とを義務付ける内容となっている。[178] コンピューティング・コミュニティ・コンソーシアム(CCC)は、100 ページ以上の報告書草案[179]「米国における人工知能研究のための 20 年間のコミュニティ・ロードマップ[180]」を発表し、この問題について意見を述べている。 セキュリティ・新興技術センターは、AI などの新興技術のセキュリティへの影響について、米国の政策立案者に助言を行っている。 ロシアでは、2021年に初のロシア版「人工知能の倫理規範」が企業向けに署名された。これは、ロシア連邦政府分析センターが、Sberbank、 Yandex、Rosatom、高等経済学院、モスクワ物理工科大学、ITMO大学、Nanosemantics、Rostelecom、CIANなど、 主要な民間企業や学術機関と連携して推進したものである。[181] |
Academic initiatives Multiple research institutes at the University of Oxford have centrally focused on AI ethics. The Future of Humanity Institute focused on AI safety[182] and the governance of AI[183] before shuttering in 2024.[184] The Institute for Ethics in AI, directed by John Tasioulas, whose primary goal, among others, is to promote AI ethics as a field proper in comparison to related applied ethics fields. The Oxford Internet Institute, directed by Luciano Floridi, focuses on the ethics of near-term AI technologies and ICTs.[185] The AI Governance Initiative at the Oxford Martin School focuses on understanding risks from AI from technical and policy perspectives.[186] The Centre for Digital Governance at the Hertie School in Berlin was co-founded by Joanna Bryson to research questions of ethics and technology.[187] The AI Now Institute at NYU is a research institute studying the social implications of artificial intelligence. Its interdisciplinary research focuses on the themes bias and inclusion, labour and automation, rights and liberties, and safety and civil infrastructure.[188] The Institute for Ethics and Emerging Technologies (IEET) researches the effects of AI on unemployment,[189][190] and policy. The Institute for Ethics in Artificial Intelligence (IEAI) at the Technical University of Munich directed by Christoph Lütge conducts research across various domains such as mobility, employment, healthcare and sustainability.[191] Barbara J. Grosz, the Higgins Professor of Natural Sciences at the Harvard John A. Paulson School of Engineering and Applied Sciences has initiated the Embedded EthiCS into Harvard's computer science curriculum to develop a future generation of computer scientists with worldview that takes into account the social impact of their work.[192] |
学術的取り組み オックスフォード大学の複数の研究機関は、AI の倫理に重点的に取り組んでいる。未来人類研究所は、2024 年に閉鎖されるまで、AI の安全性[182] および AI のガバナンス[183] に焦点を当てていた。[184] ジョン・タシウラスが所長を務める AI 倫理研究所は、関連する応用倫理分野と比較した AI 倫理の分野としての確立を主な目標としている。ルチアーノ・フロリディが所長を務めるオックスフォード・インターネット研究所は、短期的な AI 技術と ICT の倫理に焦点を当てている。[185] オックスフォード・マーティン・スクールの AI ガバナンス・イニシアチブは、技術的および政策的な観点から AI のリスクの理解に焦点を当てている。[186] ベルリンのヘルティ・スクールにあるデジタル・ガバナンス・センターは、ジョアンナ・ブライソンが倫理とテクノロジーに関する問題の研究のために共同設立した。 187] ニューヨーク大学の AI Now Institute は、人工知能の社会的影響を研究する研究機関だ。その学際的な研究は、偏見と包摂、労働と自動化、権利と自由、安全と市民インフラというテーマに焦点を当てている。[188] 倫理と新興技術研究所(IEET)は、AI が失業[189][190] や政策に与える影響を研究している。 ミュンヘン工科大学のクリストフ・リュットゲが所長を務める人工知能倫理研究所(IEAI)は、モビリティ、雇用、医療、持続可能性など、さまざまな分野にわたる研究を行っている。[191] ハーバード大学ジョン・A・ポールソン工学・応用科学学部自然科学教授のバーバラ・J・グロス氏は、ハーバード大学のコンピュータサイエンスのカリキュラ ムに「Embedded EthiCS」を導入し、自分の仕事の社会的影響を考慮した世界観を持つ次世代のコンピュータ科学者を育成する取り組みを開始した。[192] |
Private organizations Algorithmic Justice League[193] Black in AI[194] Data for Black Lives[195] |
民間団体 アルゴリズム・ジャスティス・リーグ[193] ブラック・イン・AI[194] データ・フォー・ブラック・ライブズ[195] |
History Historically speaking, the investigation of moral and ethical implications of "thinking machines" goes back at least to the Enlightenment: Leibniz already poses the question if we might attribute intelligence to a mechanism that behaves as if it were a sentient being,[196] and so does Descartes, who describes what could be considered an early version of the Turing test.[197] The romantic period has several times envisioned artificial creatures that escape the control of their creator with dire consequences, most famously in Mary Shelley's Frankenstein. The widespread preoccupation with industrialization and mechanization in the 19th and early 20th century, however, brought ethical implications of unhinged technical developments to the forefront of fiction: R.U.R – Rossum's Universal Robots, Karel Čapek's play of sentient robots endowed with emotions used as slave labor is not only credited with the invention of the term 'robot' (derived from the Czech word for forced labor, robota)[198] but was also an international success after it premiered in 1921. George Bernard Shaw's play Back to Methuselah, published in 1921, questions at one point the validity of thinking machines that act like humans; Fritz Lang's 1927 film Metropolis shows an android leading the uprising of the exploited masses against the oppressive regime of a technocratic society. In the 1950s, Isaac Asimov considered the issue of how to control machines in I, Robot. At the insistence of his editor John W. Campbell Jr., he proposed the Three Laws of Robotics to govern artificially intelligent systems. Much of his work was then spent testing the boundaries of his three laws to see where they would break down, or where they would create paradoxical or unanticipated behavior.[199] His work suggests that no set of fixed laws can sufficiently anticipate all possible circumstances.[200] More recently, academics and many governments have challenged the idea that AI can itself be held accountable.[201] A panel convened by the United Kingdom in 2010 revised Asimov's laws to clarify that AI is the responsibility either of its manufacturers, or of its owner/operator.[202] Eliezer Yudkowsky, from the Machine Intelligence Research Institute suggested in 2004 a need to study how to build a "Friendly AI", meaning that there should also be efforts to make AI intrinsically friendly and humane.[203] In 2009, academics and technical experts attended a conference organized by the Association for the Advancement of Artificial Intelligence to discuss the potential impact of robots and computers, and the impact of the hypothetical possibility that they could become self-sufficient and make their own decisions. They discussed the possibility and the extent to which computers and robots might be able to acquire any level of autonomy, and to what degree they could use such abilities to possibly pose any threat or hazard.[204] They noted that some machines have acquired various forms of semi-autonomy, including being able to find power sources on their own and being able to independently choose targets to attack with weapons. They also noted that some computer viruses can evade elimination and have achieved "cockroach intelligence". They noted that self-awareness as depicted in science-fiction is probably unlikely, but that there were other potential hazards and pitfalls.[151] Also in 2009, during an experiment at the Laboratory of Intelligent Systems in the Ecole Polytechnique Fédérale of Lausanne, Switzerland, robots that were programmed to cooperate with each other (in searching out a beneficial resource and avoiding a poisonous one) eventually learned to lie to each other in an attempt to hoard the beneficial resource.[205] |
歴史 歴史的に言えば、「思考する機械」の道徳的・倫理的意味の探求は、少なくとも啓蒙時代にまでさかのぼる。ライプニッツは、知覚のある存在のように振る舞う メカニズムに知性を帰属させることができるかどうかという疑問をすでに提起しており[196]、デカルトも、チューリングテストの初期版とみなせるものを 記述している。[197] ロマン主義時代には、創造主の支配から逃れ、悲惨な結果をもたらす人工生物が何度か想像された。最も有名なのは、メアリー・シェリーの『フランケンシュタ イン』だ。しかし、19 世紀から 20 世紀初頭にかけての工業化と機械化への広範な関心により、制御不能な技術開発の倫理的意味合いがフィクションの最前線に浮上した。R.U.R – Rossum's Universal Robots(ロスムの万能ロボット)は、感情を持つロボットを奴隷労働に利用するカレル・チャペックの戯曲で、ロボットという用語の発明(チェコ語の強 制労働を意味する「robota」に由来)[198] に貢献しただけでなく、1921年の初演後、国際的な成功を収めた。1921年に出版されたジョージ・バーナード・ショーの戯曲『メトセラへの帰還』は、 人間のように行動する思考機械の妥当性を疑問視している。1927年のフリッツ・ラングの映画『メトロポリス』は、技術主義社会における圧政的な体制に対 して、搾取された大衆の反乱を率いるアンドロイドを描いている。1950年代、アイザック・アシモフは『I, Robot』で、機械をどのように制御するかという問題について考察した。編集者のジョン・W・キャンベル・ジュニアの主張により、彼は人工知能システム を支配する「ロボット三原則」を提案した。その後、彼はその作品の多くを、3つの原則の限界をテストし、その原則がどこで破られるか、あるいは逆説的また は予期せぬ行動を引き起こすかを確認することに費やした。[199] 彼の研究は、固定された一連の法則では、考えられるすべての状況を十分に予測することは不可能であることを示唆している。[200]最近では、学者や多く の政府が、AI 自体が責任を問われるという考え方に対して異議を唱えています。[201] 2010 年に英国が招集した委員会は、AI の責任は製造者または所有者/運営者に帰属することを明確にするため、アシモフの法則を改訂しました。[202] マシン・インテリジェンス研究所の Eliezer Yudkowsky は 2004 年に、「フレンドリー AI」の構築方法を研究する必要性を提唱した。これは、AI を本質的に友好的で人間的なものにする努力も必要なことを意味する。[203] 2009年、学術研究者と技術専門家は、人工知能の進歩を促進する協会が主催した会議に出席し、ロボットとコンピュータの潜在的な影響、および彼らが自立 し独自の判断を下す可能性について議論した。彼らは、コンピュータとロボットがどの程度の自律性を獲得できる可能性と範囲、およびそのような能力をどのよ うに活用して脅威や危険を及ぼす可能性があるかについて議論した。[204] 彼らは、一部の機械は、独自に電源を見つけたり、武器で攻撃する対象を独自に選択したりするなど、さまざまな形の半自律性を獲得していると指摘した。ま た、一部のコンピュータウイルスは、消去を回避し、「ゴキブリの知能」を獲得していると指摘した。彼らは、SF で描かれているような自己認識は、おそらくありそうもないが、その他の潜在的な危険や落とし穴はあると指摘した。[151] また 2009 年、スイス・ローザンヌのエコール・ポリテクニーク・フェデラル(Ecole Polytechnique Fédérale)のインテリジェントシステム研究所(Laboratory of Intelligent Systems)で行われた実験では、互いに協力し合うようにプログラムされたロボット(有益な資源を探し、有害な資源を回避する)が、有益な資源を独占 するために、やがて互いに嘘をつくことを覚えた。[205] |
Role and impact of fiction Main article: Artificial intelligence in fiction The role of fiction with regards to AI ethics has been a complex one.[206] One can distinguish three levels at which fiction has impacted the development of artificial intelligence and robotics: Historically, fiction has been prefiguring common tropes that have not only influenced goals and visions for AI, but also outlined ethical questions and common fears associated with it. During the second half of the twentieth and the first decades of the twenty-first century, popular culture, in particular movies, TV series and video games have frequently echoed preoccupations and dystopian projections around ethical questions concerning AI and robotics. Recently, these themes have also been increasingly treated in literature beyond the realm of science fiction. And, as Carme Torras, research professor at the Institut de Robòtica i Informàtica Industrial (Institute of robotics and industrial computing) at the Technical University of Catalonia notes,[207] in higher education, science fiction is also increasingly used for teaching technology-related ethical issues in technological degrees. |
フィクションの役割と影響 主な記事:フィクションにおける人工知能 AI の倫理に関するフィクションの役割は複雑なものとなっています[206]。フィクションが人工知能とロボット工学の発展に影響を与えたレベルは、3 つに分類することができます。歴史的に、フィクションは、AI の目標やビジョンに影響を与えただけでなく、AI に関連する倫理的問題や一般的な懸念を概説する、一般的な比喩を予見してきました。20 世紀後半から 21 世紀初頭にかけて、大衆文化、特に映画、テレビシリーズ、ビデオゲームは、AI やロボット工学に関する倫理的問題に関する懸念やディストピア的な予測を頻繁に反映してきた。最近では、これらのテーマはSFの領域を超えて文学でも increasingly 取り上げられるようになっている。また、カタルーニャ工科大学ロボット工学・産業情報工学研究所の研究教授であるカルメ・トーラスが指摘するように [207]、高等教育においても、技術関連の倫理問題を教えるためにSFが increasingly 活用されるようになっている。 |
TV series While ethical questions linked to AI have been featured in science fiction literature and feature films for decades, the emergence of the TV series as a genre allowing for longer and more complex story lines and character development has led to some significant contributions that deal with ethical implications of technology. The Swedish series Real Humans (2012–2013) tackled the complex ethical and social consequences linked to the integration of artificial sentient beings in society. The British dystopian science fiction anthology series Black Mirror (2013–Present) is particularly notable for experimenting with dystopian fictional developments linked to a wide variety of recent technology developments. Both the French series Osmosis (2020) and British series The One deal with the question of what can happen if technology tries to find the ideal partner for a person. Several episodes of the Netflix series Love, Death+Robots have imagined scenes of robots and humans living together. The most representative one of them is S02 E01, it shows how bad the consequences can be when robots get out of control if humans rely too much on them in their lives.[208] |
テレビシリーズ AIに関連する倫理的な問題は、数十年にわたりSF文学や映画で取り上げられてきたが、より長く複雑なストーリー展開やキャラクターの成長を描くことがで きるジャンルとしてテレビシリーズが登場したことで、テクノロジーの倫理的な影響を扱う作品に大きな貢献があった。スウェーデンのテレビシリーズ 『Real Humans』(2012年~2013年)は、人工知能を持つ存在が社会に統合されることで生じる複雑な倫理的・社会的影響を取り上げた。英国のディスト ピア SF アンソロジーシリーズ『ブラックミラー』(2013 年~現在)は、最近のさまざまな技術開発に関連するディストピア的な架空の世界を展開した実験的な作品として特に注目されています。フランスのシリーズ 『オズモシス』(2020 年)と英国のシリーズ『The One』は、テクノロジーが人間にとって理想的なパートナーを見つけようとした場合に何が起こるかをテーマにしています。Netflixシリーズ『ラブ、 デス+ロボット』のいくつかのエピソードでは、ロボットと人間が共存するシーンが描かれている。その中でも最も代表的なのはS02 E01で、人間が生活でロボットに過度に依存した場合、ロボットが制御不能になった際の深刻な結果が描かれている。[208] |
Future visions in fiction and games The movie The Thirteenth Floor suggests a future where simulated worlds with sentient inhabitants are created by computer game consoles for the purpose of entertainment. The movie The Matrix suggests a future where the dominant species on planet Earth are sentient machines and humanity is treated with utmost speciesism. The short story "The Planck Dive" suggests a future where humanity has turned itself into software that can be duplicated and optimized and the relevant distinction between types of software is sentient and non-sentient. The same idea can be found in the Emergency Medical Hologram of Starship Voyager, which is an apparently sentient copy of a reduced subset of the consciousness of its creator, Dr. Zimmerman, who, for the best motives, has created the system to give medical assistance in case of emergencies. The movies Bicentennial Man and A.I. deal with the possibility of sentient robots that could love. I, Robot explored some aspects of Asimov's three laws. All these scenarios try to foresee possibly unethical consequences of the creation of sentient computers.[209] Over time, debates have tended to focus less and less on possibility and more on desirability,[210] as emphasized in the "Cosmist" and "Terran" debates initiated by Hugo de Garis and Kevin Warwick. |
フィクションとゲームにおける未来像 映画『13番目の階』は、コンピュータゲーム機によって、知覚能力を持つ住民が住むシミュレーション世界が娯楽目的で作成される未来を描いている。映画 『マトリックス』は、地球上で支配的な種が知性を持つ機械であり、人類が種差別的な扱いを受ける未来を提示している。短編小説「プランク・ダイブ」は、人 類が自身を複製可能で最適化可能なソフトウェアに変換し、ソフトウェアの種類における重要な区別が知性を持つか否かである未来を提示している。同じアイデ アは、『スターシップ・ヴォイジャー』の緊急医療ホログラムにも見られる。これは、その創造主であるドクター・ジンマーマンの意識の縮小されたサブセット の知性を持つコピーで、緊急時に医療支援を提供するために最良の意図で作成されたシステムだ。映画『ビセンテニアル・マン』と『A.I.』は、愛する能力 を持つ知性を持つロボットの可能性を扱っている。『アイ、ロボット』は、アシモフの 3 つの法則のいくつかの側面を探求している。これらのシナリオはすべて、知覚能力のあるコンピュータの創造によって生じる可能性のある非倫理的な結果を予測 しようとしている。 時間の経過とともに、議論は可能性よりも望ましさについて焦点を当てる傾向が強まっている[210]。これは、ウーゴ・デ・ガリスとケビン・ワーウィックによって開始された「コスミスト」と「テラン」の議論でも強調されている。 |
AI takeover AI washing Artificial consciousness Artificial general intelligence (AGI) Computer ethics Dead internet theory Effective altruism, the long term future and global catastrophic risks Artificial intelligence and elections - Use of AI in elections and political campaigning. Ethics of uncertain sentience Existential risk from artificial general intelligence Human Compatible Metaverse law Personhood Philosophy of artificial intelligence Regulation of artificial intelligence Robotic Governance Roko's basilisk Superintelligence: Paths, Dangers, Strategies Suffering risks |
AIの支配 AIウォッシング 人工意識 人工汎用知能(AGI) コンピュータ倫理 デッドインターネット理論 効果的な利他主義、長期的な未来、およびグローバルな破滅的リスク 人工知能と選挙 - 選挙および政治キャンペーンにおけるAIの活用。 不確実な知覚の倫理 人工汎用知能による存在のリスク 人間と共存可能な メタバース法 人格 人工知能の哲学 人工知能の規制 ロボットのガバナンス ロコのバジリスク 超知能:その道筋、危険、戦略 苦悩のリスク |
External links Ethics of Artificial Intelligence at the Internet Encyclopedia of Philosophy Ethics of Artificial Intelligence and Robotics at the Stanford Encyclopedia of Philosophy The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence Russell S, Hauert S, Altman R, Veloso M (May 2015). "Robotics: Ethics of artificial intelligence". Nature. 521 (7553): 415–418. Bibcode:2015Natur.521..415.. doi:10.1038/521415a. PMID 26017428. S2CID 4452826. BBC News: Games to take on a life of their own A short history of computer ethics AI Ethics Guidelines Global Inventory by Algorithmwatch Hagendorff T (March 2020). "The Ethics of AI Ethics: An Evaluation of Guidelines". Minds and Machines. 30 (1): 99–120. arXiv:1903.03425. doi:10.1007/s11023-020-09517-8. S2CID 72940833. Sheludko, M. (December, 2023). Ethical Aspects of Artificial Intelligence: Challenges and Imperatives. Software Development Blog. Eisikovits N. "AI Is an Existential Threat—Just Not the Way You Think". Scientific American. Retrieved 2024-03-04. Anwar U, Saparov A, Rando J, Paleka D, Turpin M, Hase P, Lubana ES, Jenner E, Casper S, Sourbut O, Edelman BL, Zhang Z, Günther M, Korinek A, Hernandez-Orallo J, Hammond L, Bigelow E, Pan A, Langosco L, Krueger D (2024). "Foundational Challenges in Assuring Alignment and Safety of Large Language Models". arXiv:2404.09932 [cs.LG]. |
外部リンク インターネット哲学百科事典「人工知能の倫理」 スタンフォード哲学百科事典「人工知能とロボット工学の倫理 ケンブリッジ人工知能の法律、倫理、政策ハンドブック ラッセル S、ハウアート S、アルトマン R、ヴェローゾ M (2015年5月)。「ロボティクス:人工知能の倫理」。Nature。521 (7553): 415–418。Bibcode:2015Natur.521..415.. doi:10.1038/521415a. PMID 26017428. S2CID 4452826。 BBCニュース:ゲームが独自の生命を宿す コンピュータ倫理の短い歴史 AI倫理ガイドラインのグローバルインベントリ(Algorithmwatch) Hagendorff T (2020年3月). 「AI倫理の倫理:ガイドラインの評価」. Minds and Machines. 30 (1): 99–120. arXiv:1903.03425. doi:10.1007/s11023-020-09517-8. S2CID 72940833. Sheludko, M. (2023年12月). 人工知能の倫理的側面:課題と課題. ソフトウェア開発ブログ. Eisikovits N. 「AI は存在の脅威だ — ただし、あなたが考えているようなものではない」. Scientific American. 2024年3月4日取得。 Anwar U、Saparov A、Rando J、Paleka D、Turpin M、Hase P、Lubana ES、Jenner E、Casper S、Sourbut O、Edelman BL、Zhang Z、Günther M、 コリネック A、エルナンデス=オラルロ J、ハモンド L、ビゲロウ E、パン A、ランゴスコ L、クルーガー D(2024)。「大規模言語モデルの整合性と安全性を確保するための基礎的な課題」。arXiv:2404.09932 [cs.LG]。 |
https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence |
|
リ ンク
文 献
そ の他の情報
Copyleft,
CC, Mitzub'ixi Quq Chi'j, 1996-2099