はじめによんでください

道徳的推論

Moral reasoning

Unknown artist,  Richard III

池田光穂

☆ 道徳的推論とは、人が善悪についてどのように考えるか、また道徳的ルールをどのように獲得し適用するかについての研究である。道徳哲学(倫理学)と重なる道徳心理学の一分野であり、記述倫理学の基礎となる。

Moral reasoning is the study of how people think about right and wrong and how they acquire and apply moral rules. It is a subdiscipline of moral psychology that overlaps with moral philosophy, and is the foundation of descriptive ethics.
道徳的推論とは、人が善悪についてどのように考えるか、また道徳的ルールをどのように獲得し適用するかについての研究である。道徳哲学と重なる道徳心理学の一分野であり、記述倫理学の基礎となる。
Description
Starting from a young age, people can make moral decisions about what is right and wrong. Moral reasoning, however, is a part of morality that occurs both within and between individuals.[1] Prominent contributors to this theory include Lawrence Kohlberg and Elliot Turiel. The term is sometimes used in a different sense: reasoning under conditions of uncertainty, such as those commonly obtained in a court of law. It is this sense that gave rise to the phrase, "To a moral certainty;"[2] however, this idea is now seldom used outside of charges to juries.

Moral reasoning is an important and often daily process that people use when trying to do the right thing. For instance, every day people are faced with the dilemma of whether to lie in a given situation or not. People make this decision by reasoning the morality of their potential actions, and through weighing their actions against potential consequences.

A moral choice can be a personal, economic, or ethical one; as described by some ethical code, or regulated by ethical relationships with others. This branch of psychology is concerned with how these issues are perceived by ordinary people, and so is the foundation of descriptive ethics. There are many different forms of moral reasoning which often are dictated by culture. Cultural differences in the high-levels of cognitive function associated with moral reasoning can be observed through the association of brain networks from various cultures and their moral decision making. These cultural differences demonstrate the neural basis that cultural influences can have on an individual's moral reasoning and decision making.[3]

Distinctions between theories of moral reasoning can be accounted for by evaluating inferences (which tend to be either deductive or inductive) based on a given set of premises.[4] Deductive inference reaches a conclusion that is true based on whether a given set of premises preceding the conclusion are also true, whereas, inductive inference goes beyond information given in a set of premises to base the conclusion on provoked reflection.[4]
解説

人は幼い頃から、何が正しくて何が間違っているのか、道徳的な判断を下すことができる。しかし、道徳的推論とは、個人内と個人間の両方で発生する道徳の一 部である[1]。この理論の著名な貢献者には、ローレンス・コールバーグとエリオット・トゥリエルが含まれる。この用語は、法廷で一般的に得られるような 不確実な条件下での推論という別の意味で使われることもある。道徳的確信に至るまで」[2]という言葉が生まれたのはこの意味からであるが、この考え方は 現在では陪審員への告発以外ではほとんど使われていない。

道徳的推論とは、人々が正しいことをしようとするときに用いる重要かつしばしば日常的なプロセスである。例えば、人々は毎日、ある状況において嘘をつくか どうかというジレンマに直面する。人は、自分の潜在的な行動の道徳性を推論し、潜在的な結果と自分の行動を天秤にかけて、この決断を下す。

道徳的な選択とは、個人的なもの、経済的なもの、倫理的なもの、何らかの倫理規範によって記述されるもの、あるいは他者との倫理的関係によって規制される ものなどがある。心理学のこの部門はこれらの問題が普通の人々によっていかに感知されるか心配する、従って記述倫理学の基礎である。道徳的推論にはさまざ まな形式があり、それはしばしば文化によって左右される。道徳的推論に関連する高レベルの認知機能における文化的差異は、様々な文化圏の脳ネットワークと 道徳的意思決定の関連性によって観察することができる。これらの文化的相違は、文化的影響が個人の道徳的推論と意思決定に及ぼしうる神経基盤を示している [3]。

演繹的推論では、結論に先行する前提のセットが真であるかどうかに基づいて真である結論に到達するのに対し、帰納的推論では、前提のセットで与えられた情報を超えて、誘発された反省に基づいて結論に到達する[4]。
In philosophy

Philosopher David Hume claims that morality is based more on perceptions than on logical reasoning.[4] This means that people's morality is based more on their emotions and feelings than on a logical analysis of any given situation. Hume regards morals as linked to passion, love, happiness, and other emotions and therefore not based on reason.[4] Jonathan Haidt agrees, arguing in his social intuitionist model that reasoning concerning a moral situation or idea follows an initial intuition.[5] Haidt's fundamental stance on moral reasoning is that "moral intuitions (including moral emotions) come first and directly cause moral judgments"; he characterizes moral intuition as "the sudden appearance in consciousness of a moral judgment, including an affective valence (good-bad, like-dislike), without any conscious awareness of having gone through steps of searching, weighing evidence, or inferring a conclusion".[4]

Immanuel Kant had a radically different view of morality. In his view, there are universal laws of morality that one should never break regardless of emotions.[4] He proposes a four-step system to determine whether or not a given action was moral based on logic and reason. The first step of this method involves formulating "a maxim capturing your reason for an action".[4] In the second step, one "frame[s] it as a universal principle for all rational agents".[4] The third step is assessing "whether a world based on this universal principle is conceivable".[4] If it is, then the fourth step is asking oneself "whether [one] would will the maxim to be a principle in this world".[4] In essence, an action is moral if the maxim by which it is justified is one which could be universalized. For instance, when deciding whether or not to lie to someone for one's own advantage, one is meant to imagine what the world would be like if everyone always lied, and successfully so. In such a world, there would be no purpose in lying, for everybody would expect deceit, rendering the universal maxim of lying whenever it is to your advantage absurd. Thus, Kant argues that one should not lie under any circumstance. Another example would be if trying to decide whether suicide is moral or immoral; imagine if everyone committed suicide. Since mass international suicide would not be a good thing, the act of suicide is immoral. Kant's moral framework, however, operates under the overarching maxim that you should treat each person as an end in themselves, not as a means to an end. This overarching maxim must be considered when applying the four aforementioned steps.[4]

Reasoning based on analogy is one form of moral reasoning. When using this form of moral reasoning the morality of one situation can be applied to another based on whether this situation is relevantly similar: similar enough that the same moral reasoning applies. A similar type of reasoning is used in common law when arguing based upon legal precedent. [a]

In consequentialism (often distinguished from deontology) actions are based as right on wrong based upon the consequences of action as opposed to a property intrinsic to the action itself.
哲学

哲学者のデイヴィッド・ヒュームは、道徳は論理的な推論よりも知覚に基づいていると主張している[4]。ヒュームは道徳を情熱、愛、幸福、その他の感情と 結びついており、したがって理性に基づくものではないとみなしている[4]。ジョナサン・ハイドもこれに同意しており、彼の社会的直観主義モデルにおい て、道徳的状況や考えに関する推論は最初の直観に従うと主張している[5]。 [5]道徳的推論に関するハイドの基本的なスタンスは「道徳的直観(道徳的感情を含む)が最初に来て、道徳的判断を直接引き起こす」というものであり、彼 は道徳的直観を「検索、証拠の重み付け、結論の推論といった段階を経たという意識的な認識なしに、感情的価値(良い-悪い、好き-嫌い)を含む道徳的判断 が突然意識に現れること」と特徴づけている[4]。

イマニュエル・カントは道徳について根本的に異なる見解を持っていた。彼の見解では、感情に関係なく決して破ってはならない普遍的な道徳の法則が存在する [4]。彼は、論理と理性に基づいて、ある行為が道徳的かどうかを判断する4段階のシステムを提案している。この方法の最初のステップでは、「行動の理由 を捕らえた格言」を定式化する[4]。 第2のステップでは、それを「すべての合理的な主体にとっての普遍的な原理として枠にはめる[4]」[4]。 第3のステップでは、「この普遍的な原理に基づく世界が考えられるかどうか」を評価する[4]。 もし考えられるのであれば、第4のステップでは、「この世界においてその格言が原理となることを(自分が)望むかどうか」を自問する[4]。例えば、自分 の利益のために誰かに嘘をつくかどうかを決めるとき、もしすべての人が常に嘘をつき、それが成功したとしたら、世界はどうなるかを想像することになる。そ のような世界では、嘘をつくことに何の目的もなく、誰もが騙すことを期待し、自分に有利になるときはいつでも嘘をつくという普遍的な格言が不合理になる。 したがって、カントは、人はいかなる状況においても嘘をついてはならないと主張する。もう一つの例は、自殺が道徳的か非道徳的かを判断しようとする場合で ある。国際的な集団自殺は良いことではないので、自殺という行為は不道徳である。しかし、カントの道徳的枠組みは、各人を手段としてではなく、それ自体を 目的として扱うべきだという包括的な格言の下で運営されている。この包括的な最大公約数は、前述の4つのステップを適用する際に考慮されなければならない [4]。

類推に基づく推論は道徳的推論の一つの形式である。この形式の道徳的推論を使用するとき、ある状況の道徳性は、この状況が関連するほど類似しているかどう かに基づいて別の状況に適用することができます:同じ道徳的推論が適用されるのに十分似ています。コモンローでは、判例に基づいて議論するときに、同様の タイプの推論が使用される。[a]

帰結主義(しばしば脱ontologyと区別される)では、行為は、行為自体に内在する性質とは対照的に、行為の結果に基づいて善悪を判断する。
In developmental psychology
Moral reasoning first attracted a broad attention from developmental psychologists in the mid-to-late 20th century. Their main theorization involved elucidating the stages of development of moral reasoning capacity.

Jean Piaget
Jean Piaget developed two phases of moral development, one common among children and the other common among adults. The first is known as the Heteronomous Phase.[7] This phase, more common among children, is characterized by the idea that rules come from authority figures in one's life such as parents, teachers, and God.[7] It also involves the idea that rules are permanent no matter what.[7] Thirdly, this phase of moral development includes the belief that "naughty" behavior must always be punished and that the punishment will be proportional.[7]

The second phase in Piaget's theory of moral development is referred to as the Autonomous Phase. This phase is more common after one has matured and is no longer a child. In this phase people begin to view the intentions behind actions as more important than their consequences.[7] For instance, if a person who is driving swerves in order to not hit a dog and then knocks over a road sign, adults are likely to be less angry at the person than if he or she had done it on purpose just for fun. Even though the outcome is the same, people are more forgiving because of the good intention of saving the dog. This phase also includes the idea that people have different morals and that morality is not necessarily universal.[7] People in the Autonomous Phase also believe rules may be broken under certain circumstances.[7] For instance, Rosa Parks broke the law by refusing to give up her seat on a bus, which was against the law but something many people consider moral nonetheless. In this phase people also stop believing in the idea of immanent justice.[7]

Lawrence Kohlberg
Main article: Lawrence Kohlberg's stages of moral development
Inspired by Piaget, Lawrence Kohlberg made significant contributions to the field of moral reasoning by creating a theory of moral development.[8] His theory is a "widely accepted theory that provides the basis for empirical evidence on the influence of human decision making on ethical behavior."[9] In Lawrence Kohlberg's view, moral development consists of the growth of less egocentric and more impartial modes of reasoning on more complicated matters. He believed that the objective of moral education is the reinforcement of children to grow from one stage to an upper stage. Dilemma was a critical tool that he emphasized that children should be presented with; yet also, the knowledge for children to cooperate.[10] According to his theory, people pass through three main stages of moral development as they grow from early childhood to adulthood. These are pre-conventional morality, conventional morality, and post-conventional morality.[8] Each of these is subdivided into two levels.[8]

The stages that are presented by Lawrence Kohlberg can be varied into three which are pre-conventional, conventional, and post-conventional where each contains two stages varying in ages. The first stage in the pre-conventional level is obedience and punishment. In this stage people, usually young children where they age from 5 to 7 years old, avoid certain behaviors only because of the fear of punishment, not because they see them as wrong. They believe that the rules are mandatory, and they like avoiding harms.[8] The second stage in the pre-conventional level is called individualism and exchange: in this stage people make moral decisions based on what best serves their needs. It happens usually during ages of 8 to 10 years old where they have some understandings that some rules are arbitrary but not consistent.[8]

The third stage is part of the conventional morality level and is called interpersonal relationships. This stage ages from 10 to 12 years old where they concern about living up to expectations and reciprocity. For example, their actings are mostly motivated by their parent's praises or reactions. In this stage one tries to conform to what is considered moral by the society that they live in, attempting to be seen by peers as a good person.[8] The fourth stage is also in the conventional morality level and is called maintaining social order. Kids around this stage age between 12 and 14 where they believe conventions are arbitrary social expectations. Also, they believe moral decisions are based on fairness not rules. This stage focuses on a view of society as a whole and following the laws and rules of that society.[8]

The fifth stage is a part of the post-conventional level and is called social contract and individual rights. People in this age vary from 17 to 20 which not much people are in it. They believe morality is relative to systems of laws, and they don't think any system is necessarily superior. In this stage people begin to consider differing ideas about morality in other people and feel that rules and laws should be agreed on by the members of a society.[8] The sixth and final stage of moral development, the second in the post-conventional level, is called universal principles. They usually age between 21 or older where they think what is moral are values and rights that exist prior to social attachment and contracts. At this stage people begin to develop their ideas of universal moral principles and will consider them the right thing to do regardless of what the laws of a society are.[8]

James Rest
In 1983, James Rest developed the four component Model of Morality, which addresses the ways that moral motivation and behavior occurs.[11] The first of these is moral sensitivity, which is "the ability to see an ethical dilemma, including how our actions will affect others".[12] The second is moral judgment, which is "the ability to reason correctly about what 'ought' to be done in a specific situation".[12] The third is moral motivation, which is "a personal commitment to moral action, accepting responsibility for the outcome".[12] The fourth and final component of moral behavior is moral character, which is a "courageous persistence in spite of fatigue or temptations to take the easy way out".[12]
発達心理学において
道徳的推論は、20世紀半ばから後半にかけて、発達心理学者から広く注目されるようになった。彼らの主な理論化は、道徳的推論の能力の発達段階を解明することであった。

ジャン・ピアジェ
ジャン・ピアジェは、道徳性の発達について、子どもに共通する段階と成人に共通する段階の2つを開発した。1つ目は、「他律的段階」として知られている [7]。この段階は、子どもにより一般的であり、ルールは両親、教師、神など、自分の人生における権威者からもたらされるという考えによって特徴づけられ る[7]。また、ルールは何があっても永久的なものであるという考えも含まれる[7]。3つ目に、道徳的発達のこの段階には、「いたずらな」行動は常に罰 せられなければならず、その罰は比例するという信念が含まれる[7]。

ピアジェの道徳的発達の理論における第二の段階は、自律期と呼ばれている。この段階は、人が成熟し、もはや子どもでなくなった後によく見られる。この段階 では、人は行動の背後にある意図を、その結果よりも重要視し始める[7]。例えば、運転中の人が犬にぶつからないようにハンドルを切り、道路標識を倒して しまった場合、大人は、その人が遊び半分でわざとやった場合よりも、その人に対する怒りを抑える可能性が高い。結果は同じでも、犬を助けようという善意が あるため、人々はより寛容になる。例えば、ローザ・パークスはバスで席を譲ることを拒否して法律を破ったが、これは法律違反であったが、それにもかかわら ず多くの人が道徳的なことだと考えている。この段階になると、人々は内在的正義という考え方も信じなくなる[7]。

ローレンス・コールバーグ
主な記事 ローレンス・コールバーグの道徳的発達段階
ピアジェに触発されたローレンス・コールバーグは、道徳的発達の理論を構築することによって道徳的推論の分野に大きく貢献した[8]。 彼の理論は、「人間の意思決定が倫理的行動に及ぼす影響に関する経験的証拠の基礎を提供する、広く受け入れられている理論」[9]である。ローレンス・ コールバーグの見解では、道徳的発達は、より複雑な事柄について、より自己中心的でなく、より公平な推論様式の成長から成る。彼は、道徳教育の目的は、子 どもたちがある段階から上の段階へと成長するように強化することであると考えていた。彼の理論によれば、人は幼児期から成人期へと成長する過程で、主に3 つの道徳的発達段階を経る。これらは前伝統的道徳、慣習的道徳、後伝統的道徳であり、それぞれは2つのレベルに細分化されている[8]。

ローレンス・コールバーグによって提示された段階は、前伝統的、慣習的、後伝統的の3つに分けることができ、それぞれが年齢によって異なる2つの段階を含 んでいる。前慣習的レベルの最初の段階は、服従と罰である。この段階では、通常5歳から7歳の幼い子どもたちが、罰を恐れて特定の行動を避けるのであっ て、それが間違っていると考えるからではない。彼らはルールは強制的なものであり、危害を避けることを好むと信じている[8]。前従順レベルの第2段階 は、個人主義と交換と呼ばれるものである。この段階は通常8歳から10歳の間に起こり、いくつかのルールは恣意的であるが一貫性がないことをある程度理解 している[8]。

第3段階は従来の道徳レベルの一部であり、対人関係と呼ばれる。この段階は10歳から12歳までで、期待に応えることや互恵性に関心を持つ。例えば、彼ら の行動のほとんどは、親の賞賛や反応によって動機づけられる。この段階では、自分が住んでいる社会で道徳的と考えられていることに従おうとし、仲間から良 い人と思われようとする[8]。この段階の12~14歳の子どもたちは、慣習とは恣意的な社会的期待であると考えている。また、道徳的判断は規則ではなく 公正さに基づいていると考える。この段階は、社会を全体としてとらえ、その社会の法律や規則に従うことに重点を置いている[8]。

第5段階は、ポスト慣習的レベルの一部であり、社会契約と個人の権利と呼ばれる。この年齢層は17歳から20歳までと幅が広く、あまり多くの人はこの年齢 にはいない。彼らは道徳は法制度に相対するものだと考えており、どの制度が必ずしも優れているとは考えていない。この段階では、人々は他の人々の道徳に関 する異なる考えを考慮し始め、規則や法律は社会の構成員によって合意されるべきであると感じている[8]。道徳的発達の6番目と最後の段階は、ポスト慣習 的レベルの2番目で、普遍的原理と呼ばれている。彼らは通常21歳以上で、道徳的なものとは社会的な愛着や契約よりも前に存在する価値や権利だと考える。 この段階になると、人々は普遍的な道徳原則についての考えを発展させ始め、社会の法律がどうであろうと、それを正しいと考えるようになる[8]。

ジェームズ・レスト
1983年、ジェームズ・レストは、道徳的動機づけと行動がどのように起こるかを扱う「道徳の4つの構成要素モデル」を開発した[11]。その第1は道徳 的感受性であり、「自分の行動が他者にどのような影響を与えるかを含め、倫理的ジレンマを見抜く能力」である[12]。 [12]3つ目は道徳的動機づけであり、「結果に対する責任を引き受ける道徳的行動への個人的なコミットメント」[12]である。[12]4つ目、そして 道徳的行動の最後の構成要素は道徳的性格であり、「疲労や安易な道を選びたくなる誘惑にもかかわらず、勇気を持って持続すること」[12]である。
n social cognition
Based on empirical results from behavioral and neuroscientific studies, social and cognitive psychologists attempted to develop a more accurate descriptive (rather than normative) theory of moral reasoning. That is, the emphasis of research was on how real-world individuals made moral judgments, inferences, decisions, and actions, rather than what should be considered as moral.

Dual-process theory and social intuitionism
Main articles: Dual process theory (moral psychology) and Social intuitionism
Developmental theories of moral reasoning were critiqued as prioritizing on the maturation of cognitive aspect of moral reasoning.[13] From Kohlberg's perspective, one is considered as more advanced in moral reasoning as she is more efficient in using deductive reasoning and abstract moral principles to make moral judgments about particular instances.[13][14] For instance, an advanced reasoner may reason syllogistically with the Kantian principle of 'treat individuals as ends and never merely as means' and a situation where kidnappers are demanding a ransom for a hostage, to conclude that the kidnappers have violated a moral principle and should be condemned. In this process, reasoners are assumed to be rational and have conscious control over how they arrive at judgments and decisions.[13]

In contrast with such view, however, Joshua Greene and colleagues argued that laypeople's moral judgments are significantly influenced, if not shaped, by intuition and emotion as opposed to rational application of rules. In their fMRI studies in the early 2000s,[15][16] participants were shown three types of decision scenarios: one type included moral dilemmas that elicited emotional reaction (moral-personal condition), the second type included moral dilemmas that did not elicit emotional reaction (moral-impersonal condition), and the third type had no moral content (non-moral condition). Brain regions such as posterior cingulate gyrus and angular gyrus, whose activation is known to correlate with experience of emotion, showed activations in moral-personal condition but not in moral-impersonal condition. Meanwhile, regions known to correlate with working memory, including right middle frontal gyrus and bilateral parietal lobe, were less active in moral-personal condition than in moral-impersonal condition. Moreover, participants' neural activity in response to moral-impersonal scenarios was similar to their activity in response to non-moral decision scenarios.

Another study[14] used variants of trolley problem that differed in the 'personal/impersonal' dimension and surveyed people's permissibility judgment (Scenarios 1 and 2). Across scenarios, participants were presented with the option of sacrificing a person to save five people. However, depending on the scenario, the sacrifice involved pushing a person off a footbridge to block the trolley (footbridge dilemma condition; personal) or simply throwing a switch to redirect the trolley (trolley dilemma condition; impersonal). The proportions of participants who judged the sacrifice as permissible differed drastically: 11% (footbridge dilemma) vs. 89% (trolley dilemma). This difference was attributed to the emotional reaction evoked from having to apply personal force on the victim, rather than simply throwing a switch without physical contact with the victim. Focusing on participants who judged the sacrifice in trolley dilemma as permissible but the sacrifice in footbridge dilemma as impermissible, the majority of them failed to provide a plausible justification for their differing judgments.[14] Several philosophers have written critical responses on this matter to Joshua Greene and colleagues.[17][18][19][20]

Based on these results, social psychologists proposed the dual process theory of morality. They suggested that our emotional intuition and deliberate reasoning are not only qualitatively distinctive, but they also compete in making moral judgments and decisions. When making an emotionally-salient moral judgment, automatic, unconscious, and immediate response is produced by our intuition first. More careful, deliberate, and formal reasoning then follows to produce a response that is either consistent or inconsistent with the earlier response produced by intuition,[13][5][21] in parallel with more general form of dual process theory of thinking. But in contrast with the previous rational view on moral reasoning, the dominance of the emotional process over the rational process was proposed.[5][21] Haidt highlighted the aspect of morality not directly accessible by our conscious search in memory, weighing of evidence, or inference. He describes moral judgment as akin to aesthetic judgment, where an instant approval or disapproval of an event or object is produced upon perception.[5] Hence, once produced, the immediate intuitive response toward a situation or person cannot easily be overridden by the rational consideration that follows. The theory explained that in many cases, people resolve inconsistency between the intuitive and rational processes by using the latter for post-hoc justification of the former. Haidt, using the metaphor "the emotional dog and its rational tail",[5] applied such nature of our reasoning to the contexts ranging from person perception to politics.

A notable illustration of the influence of intuition involved feeling of disgust. According to Haidt's moral foundations theory, political liberals rely on two dimensions (harm/care and fairness/reciprocity) of evaluation to make moral judgments, but conservatives utilize three additional dimensions (ingroup/loyalty, authority/respect, and purity/sanctity).[21][22] Among these, studies have revealed the link between moral evaluations based on purity/sanctity dimension and reasoner's experience of disgust. That is, people with higher sensitivity to disgust were more likely to be conservative toward political issues such as gay marriage and abortion.[23] Moreover, when the researchers reminded participants of keeping the lab clean and washing their hands with antiseptics (thereby priming the purity/sanctity dimension), participants' attitudes were more conservative than in the control condition.[24] In turn, Helzer and Pizarro's findings have been rebutted by two failed attempts of replications.[25]

Other studies raised criticism toward Haidt's interpretation of his data.[26][27] Augusto Blasi also rebuts the theories of Jonathan Haidt on moral intuition and reasoning. He agrees with Haidt that moral intuition plays a significant role in the way humans operate. However, Blasi suggests that people use moral reasoning more than Haidt and other cognitive scientists claim. Blasi advocates moral reasoning and reflection as the foundation of moral functioning. Reasoning and reflection play a key role in the growth of an individual and the progress of societies.[28]

Alternatives to these dual-process/intuitionist models have been proposed, with several theorists proposing that moral judgment and moral reasoning involves domain general cognitive processes, e.g., mental models,[29] social learning [30][31][32] or categorization processes.[33]

Motivated reasoning
Main article: Motivated reasoning
A theorization of moral reasoning similar to dual-process theory was put forward with emphasis on our motivations to arrive at certain conclusions.[34] Ditto and colleagues[35] likened moral reasoners in everyday situations to lay attorneys than lay judges; people do not reason in the direction from assessment of individual evidence to moral conclusion (bottom-up), but from a preferred moral conclusion to assessment of evidence (top-down). The former resembles the thought process of a judge who is motivated to be accurate, unbiased, and impartial in her decisions; the latter resembles that of an attorney whose goal is to win a dispute using partial and selective arguments.[21][35]

Kunda proposed motivated reasoning as a general framework for understanding human reasoning.[34] She emphasized the broad influence of physiological arousal, affect, and preference (which constitute the essence of motivation and cherished beliefs) on our general cognitive processes including memory search and belief construction. Importantly, biases in memory search, hypothesis formation and evaluation result in confirmation bias, making it difficult for reasoners to critically assess their beliefs and conclusions. It is reasonable to state that individuals and groups will manipulate and confuse reasoning for belief depending on the lack of self control to allow for their confirmation bias to be the driving force of their reasoning. This tactic is used by media, government, extremist groups, cults, etc. Those with a hold on information may dull out certain variables that propagate their agenda and then leave out specific context to push an opinion into the form of something reasonable to control individual, groups, and entire populations. This allows the use of alternative specific context with fringe content to further veer from any form of dependability in their reasoning. Leaving a fictional narrative in the place of real evidence for a logical outlook to form a proper, honest, and logical assessment .[34]

Applied to moral domain, our strong motivation to favor people we like leads us to recollect beliefs and interpret facts in ways that favor them. In Alicke (1992, Study 1),[36] participants made responsibility judgments about an agent who drove over the speed limit and caused an accident. When the motive for speeding was described as moral (to hide a gift for his parents' anniversary), participants assigned less responsibility to the agent than when the motive was immoral (to hide a vial of cocaine). Even though the causal attribution of the accident may technically fall under the domain of objective, factual understanding of the event, it was nevertheless significantly affected by the perceived intention of the agent (which was presumed to have determined the participants' motivation to praise or blame him).

Another paper by Simon, Stenstrom, and Read (2015, Studies 3 and 4)[37] used a more comprehensive paradigm that measures various aspects of participants' interpretation of a moral event, including factual inferences, emotional attitude toward agents, and motivations toward the outcome of decision. Participants read about a case involving a purported academic misconduct and were asked to role-play as a judicial officer who must provide a verdict. A student named Debbie had been accused of cheating in an exam, but the overall situation of the incident was kept ambiguous to allow participants to reason in a desired direction. Then, the researchers attempted to manipulate participants' motivation to support either the university (conclude that she cheated) or Debbie (she did not cheat) in the case. In one condition, the scenario stressed that through previous incidents of cheating, the efforts of honest students have not been honored and the reputation of the university suffered (Study 4, Pro-University condition); in another condition, the scenario stated that Debbie's brother died from a tragic accident a few months ago, eliciting participants' motivation to support and sympathize with Debbie (Study 3, Pro-Debbie condition). Behavioral and computer simulation results showed an overall shift in reasoning—factual inference, emotional attitude, and moral decision—depending on the manipulated motivation. That is, when the motivation to favor the university/Debbie was elicited, participants' holistic understanding and interpretation of the incident shifted in the way that favored the university/Debbie. In these reasoning processes, situational ambiguity was shown to be critical for reasoners to arrive at their preferred conclusion.[34][37][38]

From a broader perspective, Holyoak and Powell interpreted motivated reasoning in the moral domain as a special pattern of reasoning predicted by coherence-based reasoning framework.[39] This general framework of cognition, initially theorized by the philosopher Paul Thagard, argues that many complex, higher-order cognitive functions are made possible by computing the coherence (or satisfying the constraints) between psychological representations such as concepts, beliefs, and emotions.[40] Coherence-based reasoning framework draws symmetrical links between consistent (things that co-occur) and inconsistent (things that do not co-occur) psychological representations and use them as constraints, thereby providing a natural way to represent conflicts between irreconcilable motivations, observations, behaviors, beliefs, and attitudes, as well as moral obligations.[37][39] Importantly, Thagard's framework was highly comprehensive in that it provided a computational basis for modeling reasoning processes using moral and non-moral facts and beliefs as well as variables related to both 'hot' and 'cold' cognitions.[39][40][41]

Causality and intentionality
Classical theories of social perception had been offered by psychologists including Fritz Heider (model of intentional action)[42] and Harold Kelley (attribution theory).[43] These theories highlighted how laypeople understand another person's action based on their causal knowledge of internal (intention and ability of actor) and external (environment) factors surrounding that action. That is, people assume a causal relationship between an actor's disposition or mental states (personality, intention, desire, belief, ability; internal cause), environment (external cause), and the resulting action (effect). In later studies, psychologists discovered that moral judgment toward an action or actor is critically linked with these causal understanding and knowledge about the mental state of the actor.

Bertram Malle and Joshua Knobe conducted survey studies to investigate laypeople's understanding and use (the folk concept) of the word 'intentionality' and its relation to action.[44] His data suggested that people think of intentionality of an action in terms of several psychological constituents: desire for outcome, belief about the expected outcome, intention to act (combination of desire and belief), skill to bring about the outcome, and awareness of action while performing that action. Consistent with this view as well as with our moral intuitions, studies found significant effects of the agent's intention, desire, and beliefs on various types of moral judgments, Using factorial designs to manipulate the content in the scenarios, Cushman showed that the agent's belief and desire regarding a harmful action significantly influenced judgments of wrongness, permissibility, punishment, and blame. However, whether the action actually brought about negative consequence or not only affected blame and punishment judgments, but not wrongness and permissibility judgments.[45][46] Another study also provided neuroscientific evidence for the interplay between theory of mind and moral judgment.[47]

Through another set of studies, Knobe showed a significant effect in the opposite direction: Intentionality judgments are significantly affected by the reasoner's moral evaluation of the actor and action.[48][49] In one of his scenarios, a CEO of a corporation hears about a new programme designed to increase profit. However, the program is also expected to benefit or harm the environment as a side effect, to which he responds by saying 'I don't care'. The side effect was judged as intentional by the majority of participants in the harm condition, but the response pattern was reversed in the benefit condition.

Many studies on moral reasoning have used fictitious scenarios involving anonymous strangers (e.g., trolley problem) so that external factors irrelevant to researcher's hypothesis can be ruled out. However, criticisms have been raised about the external validity of the experiments in which the reasoners (participants) and the agent (target of judgment) are not associated in any way.[50][51] As opposed to the previous emphasis on evaluation of acts, Pizarro and Tannenbaum stressed our inherent motivation to evaluate the moral characters of agents (e.g., whether an actor is good or bad), citing the Aristotelian virtue ethics. According to their view, learning the moral character of agents around us must have been a primary concern for primates and humans beginning from their early stages of evolution, because the ability to decide whom to cooperate with in a group was crucial to survival.[50][52] Furthermore, observed acts are no longer interpreted separately from the context, as reasoners are now viewed as simultaneously engaging in two tasks: evaluation (inference) of moral character of agent and evaluation of her moral act. The person-centered approach to moral judgment seems to be consistent with results from some of the previous studies that involved implicit character judgment. For instance, in Alicke's (1992)[36] study, participants may have immediately judged the moral character of the driver who sped home to hide cocaine as negative, and such inference led the participants to assess the causality surrounding the incident in a nuanced way (e.g., a person as immoral as him could have been speeding as well).[52]

In order to account for laypeople's understanding and use of causal relations between psychological variables, Sloman, Fernbach, and Ewing proposed a causal model of intentionality judgment based on Bayesian network.[53] Their model formally postulates that character of agent is a cause for the agent's desire for outcome and belief that action will result in consequence, desire and belief are causes for intention toward action, and the agent's action is caused by both that intention and the skill to produce consequence. Combining computational modeling with the ideas from theory of mind research, this model can provide predictions for inferences in bottom-up direction (from action to intentionality, desire, and character) as well as in top-down direction (from character, desire, and intentionality to action).
社会的認知において

行動学的、神経科学的研究からの経験的な結果に基づいて、社会心理学者や認知心理学者は、道徳的推論のより正確な記述的(規範的ではなく)理論の開発を試 みた。つまり、何が道徳的とみなされるべきかよりも、現実世界の個人がどのように道徳的判断、推論、決定、行動を行うかに研究の重点が置かれた。

二重過程理論と社会的直観主義
主な記事 二重過程理論(道徳心理学)と社会的直観主義
道徳的推論の発達理論は、道徳的推論の認知的側面の成熟を優先していると批判された[13]。コールバーグの観点からは、特定の事例について道徳的判断を 下すために演繹的推論や抽象的な道徳原理を使用することがより効率的であるため、道徳的推論においてより高度であると見なされる。 [13][14] 例えば、高度な推論者は、「個人を目的として扱い、決して単に手段として扱わない」というカント的原則と、誘拐犯が人質の身代金を要求している状況とを対 義的に推論し、誘拐犯は道徳的原則に違反しており、非難されるべきであると結論づけることができる。このプロセスにおいて、理性者は合理的であり、どのよ うに判断や決定に至るかを意識的にコントロールしていると仮定される[13]。

しかし、このような見方とは対照的に、ジョシュア・グリーンと同僚たちは、素人の道徳的判断は、合理的なルールの適用とは対照的に、直感や感情に大きく影 響されると主張した。2000年代初頭に行われたfMRI研究[15][16]では、被験者に3種類の意思決定シナリオが示された。1種類は感情的反応を 引き起こす道徳的ジレンマを含むもの(道徳的-個人的条件)、2種類目は感情的反応を引き起こさない道徳的ジレンマを含むもの(道徳的-非道徳的条件)、 3種類目は道徳的内容を含まないもの(非道徳的条件)であった。後帯状回や角回などの脳領域は、感情経験と相関することが知られているが、道徳的-個人的 条件では活性化を示したが、道徳的-非道徳的条件では示さなかった。一方、右中前頭回や両側頭頂葉など、ワーキングメモリとの相関が知られている領域は、 道徳的-人格的条件では道徳的-非人格的条件よりも活性が低かった。さらに、道徳的-非道徳的シナリオに対する参加者の神経活動は、非道徳的な意思決定シ ナリオに対する参加者の活動と類似していた。

別の研究[14]では、「個人的/非個人的」次元の異なるトロッコ問題の変種を用い、人々の容認性判断を調査した(シナリオ1および2)。シナリオ全体を 通じて、参加者は5人を救うために1人を犠牲にするという選択肢を提示された。しかし、シナリオによって、犠牲には、トロッコを妨害するために歩道橋から 人を突き落とすこと(歩道橋のジレンマ条件;個人的)や、トロッコを方向転換させるために単にスイッチを投げること(トロッコのジレンマ条件;非人間的) が含まれた。犠牲が許されると判断した参加者の割合は大きく異なった: 11%(歩道橋のジレンマ)対89%(トロッコのジレンマ)であった。この差は、犠牲者と物理的な接触をせずに単にスイッチを投げるのではなく、犠牲者に 個人的な力を加えなければならないことから呼び起こされる感情的な反応に起因している。トロッコのジレンマにおける犠牲は許されるが、歩道橋のジレンマに おける犠牲は許されないと判断した参加者に焦点を当てると、彼らの大多数は、その判断の違いについてもっともらしい正当化理由を提示することができなかっ た[14]。この件について、何人かの哲学者がジョシュア・グリーンらに対して批判的な回答を書いている[17][18][19][20]。

これらの結果に基づいて、社会心理学者は道徳の二重過程理論を提唱した。彼らは、私たちの感情的直観と熟慮的推論は質的に異なるだけでなく、道徳的判断や 決定を下す際に競合することを示唆した。感情的な道徳的判断を下す際には、自動的、無意識的、即時的な反応がまず直感によって生み出される。その後、より 注意深く、熟慮された、形式的な推論が続き、直感によって先に生み出された反応と一致するか矛盾するかのいずれかの反応を生み出す[13][5] [21]。しかし、道徳的な推論に関する以前の合理的な見解とは対照的に、合理的なプロセスよりも感情的なプロセスの優位性が提案された[5][21]。 ハイドは、記憶、証拠の重み付け、推論における私たちの意識的な検索では直接アクセスできない道徳性の側面を強調した。彼は道徳的判断を美的判断に似てい ると表現しており、そこではある出来事や物体を知覚したときに即座に賛否が生じる[5]。それゆえ、いったん生じた状況や人物に対する直感的な反応は、そ の後に続く理性的な検討によって簡単に覆されることはない。この理論では、多くの場合、人は直観的なプロセスと合理的なプロセスの間の矛盾を、後者を用い て前者を事後的に正当化することで解決していると説明した。ヘイトは、「感情的な犬と理性的な尻尾」という比喩を用いて[5]、このような私たちの推論の 性質を、人の知覚から政治に至るまでの文脈に適用した。

直観の影響の顕著な例として、嫌悪感が挙げられる。Haidtの道徳的基盤理論によると、政治的リベラル派は道徳的判断を下す際に2つの次元(危害/ケ ア、公正/互恵性)の評価に依存するが、保守派はさらに3つの次元(イングループ/忠誠、権威/尊敬、純粋性/神聖性)を利用する[21][22]。この うち、純粋性/神聖性の次元に基づく道徳的評価と理性者の嫌悪感の経験との関連性が研究で明らかにされている。すなわち、嫌悪感に対する感受性が高い人ほ ど、同性婚や中絶などの政治的問題に対して保守的である傾向が強かった[23]。さらに、研究者が研究室を清潔に保ち、消毒薬で手を洗うことを参加者に思 い出させると(それによって純粋性/神聖性の次元がプライミングされた)、参加者の態度は対照条件よりも保守的であった[24]。

アウグスト・ブラシもまた、道徳的直観と推論に関するジョナサン・ハイドの理論に反論している[26][27]。彼は、道徳的直観が人間の行動様式におい て重要な役割を果たしていることに同意している。しかし、Blasiは、Haidtや他の認知科学者が主張する以上に、人々は道徳的推論を使用しているこ とを示唆している。ブラジは道徳的機能の基礎として道徳的推論と内省を提唱している。推論と内省は個人の成長と社会の進歩において重要な役割を果たす [28]。

これらの二重過程/直観主義モデルに対する代替案が提案されており、いくつかの理論家は道徳的判断と道徳的推論が領域一般的認知過程、例えばメンタルモデル、[29] 社会的学習[30][31][32]またはカテゴリー化過程[33]を含むことを提案している。

動機づけされた推論
主な記事 動機づけされた推論
Dittoと同僚[35]は日常的な状況における道徳的推論者を一般裁判官よりも一般弁護士になぞらえた;人々は個々の証拠の評価から道徳的結論へ(ボト ムアップ)ではなく、好ましい道徳的結論から証拠の評価へ(トップダウン)という方向で推論する。前者は、彼女の決定において正確で、公平で、公平である ことを動機とする裁判官の思考プロセスに似ており、後者は、部分的で選択的な論拠を用いて紛争に勝つことを目標とする弁護士の思考プロセスに似ている [21][35]。

クンダは、人間の推論を理解するための一般的な枠組みとして動機付 き推論を提案した[34]。クンダは、生理学的覚醒、感情、選好(動機付けと大切 にしている信念の本質を構成する)が、記憶検索や信念構築などの一般的な認 知過程に広く影響を及ぼすことを強調した。重要なのは、記憶検索、仮説形成、評価におけるバイアスが確証バイアスをもたらし、推論者が自分の信念や結論を 批判的に評価することを難しくしていることである。確証バイアスが推論の原動力となるような自己統制の欠如によって、個人や集団は推論を操作し、信念と混 同すると述べるのは妥当である。この手口は、メディア、政府、過激派グループ、カルトなどが使う。情報を握っている人たちは、自分たちのアジェンダを広め る特定の変数を除外し、特定の文脈を省いて、個人、集団、集団全体をコントロールするために、ある意見を合理的な形に押し込めることがある。これによっ て、フリンジ的な内容の代替的な特定の文脈を使用することができ、彼らの推論におけるいかなる形の信頼性からもさらに逸脱することができる。適切で、正直 で、論理的な評価を形成するための論理的展望のために、現実の証拠の代わりに架空の物語を残す。

道徳的な領域に当てはめると、好きな人に好意を抱こうとする強い動機 が、私たちに信念を思い出させ、その人に好意を抱くように事実を解釈 させる。Alicke(1992、研究1)[36]では、参加者は制限速度を超えて運転し、 事故を引き起こした行為者について責任判断を行った。スピード違反の動機が道徳的なもの(両親の記念日に贈るプレゼントを隠すため)であると説明された場 合、参加者は、動機が非道徳的なもの(コカインの小瓶を隠すため)であった場合よりも、その行為者にあまり責任を割り当てなかった。事故の原因帰属は、厳 密には客観的で事実的な出来事の理解の領域に属するかもしれないが、それにもかかわらず、代理人の知覚された意図(これは、参加者が代理人を賞賛したり非 難したりする動機を決定したと推定される)に大きく影響された。

Simon、Stenstrom、Readによる別の論文(2015年、研究3と4)[37]では、より包括的なパラダイムを用いて、事実推論、代理人に 対する感情的態度、意思決定の結果に対する動機など、参加者の道徳的出来事の解釈の様々な側面を測定している。参加者は、学業上の不正行為とされる事件を 読み、評決を下さなければならない司法官としてロールプレイするよう求められた。デビーという学生が試験でカンニングをしたと告発されたが、参加者が望ま しい方向に推論できるように、事件の全体的な状況は曖昧にされた。そして研究者たちは、この事件で大学側(彼女はカンニングをしたと結論づける)かデビー (彼女はカンニングをしていない)のどちらかを支持しようとする参加者の動機を操作しようと試みた。ある条件では、シナリオで、過去のカンニング事件を通 じて、誠実な学生の努力が報われず、大学の評判が落ちたことを強調し(研究4、大学支持条件)、別の条件では、シナリオで、デビーの兄が数ヶ月前に悲惨な 事故で亡くなったことを述べ、参加者のデビーを支持し、同情する動機を引き出した(研究3、デビー支持条件)。行動とコンピュータ・シミュレーションの結 果、操作された動機によって、推論-事実推論、感情的態度、道徳的判断が全体的に変化することが示された。すなわち、大学/デビーに有利な動機が引き出さ れたとき、参加者の事件の全体的理解と解釈は、大学/デビーに有利な方向にシフトした。これらの推論プロセスにおいて、状況の曖昧さは推論者が好ましい結 論に到達するために重要であることが示された[34][37][38]。

より広い観点から、ホリオークとパウエルは道徳的領域における動機づけ推論をコヒーレンスに基づく推論の枠組みによって予測される推論の特別なパターンと して解釈した[39]。この認知の一般的な枠組みは哲学者のポール・タガードによって最初に理論化され、多くの複雑で高次の認知機能が概念、信念、感情な どの心理的表現間のコヒーレンス(または制約を満たすこと)を計算することによって可能になると主張している。 [コヒーレンスベースの推論フレームワークは、一貫性のある(共起するもの)心理的表現と一貫性のない(共起しないもの)心理的表現の間に対称的なリンク を引き、それらを制約として使用し、それによって両立しない動機、観察、行動、信念、態度、および道徳的義務の間の葛藤を表現する自然な方法を提供する。 [37][39]重要なことは、Thagardのフレームワークは、道徳的・非道徳的な事実や信念、また「ホットな」認知と「コールドな」認知の両方に関 連する変数を使用して推論プロセスをモデル化するための計算基礎を提供するという点で非常に包括的であった[39][40][41]。

因果性と意図性
フリッツ・ハイダー(意図的行動のモデル)[42]やハロルド・ケリー(帰属理論)[43]を含む心理学者によって社会的認知の古典的な理論が提供されて いた。これらの理論は、その行動を取り巻く内的要因(行為者の意図と能力)と外的要因(環境)の因果的知識に基づいて、素人が他人の行動をどのように理解 するかを強調した。つまり、人々は行為者の気質や精神状態(性格、意図、願望、信念、能力;内的原因)、環境(外的原因)、そして結果として生じる行動 (結果)の間に因果関係があると仮定する。その後の研究で心理学者たちは、行為や行為者に対する道徳的判断は、こうした因果関係の理解や行為者の精神状態 に関する知識と決定的に結びついていることを発見した。

バートラム・マレとジョシュア・ノベは、「意図性」という言葉の一般人の理解や使用(民間概念)と行為との関係を調査するために調査研究を行った [44]。彼のデータは、人々が行為の意図性をいくつかの心理的構成要素、すなわち結果に対する欲求、期待される結果についての信念、行為意図(欲求と信 念の組み合わせ)、結果をもたらす技能、その行為を行う際の行為意識から考えていることを示唆した。クッシュマンは、シナリオの内容を操作する要因計画を 用いて、有害な行為に関するエージェントの信念と欲求が、不正、許容、罰、非難の判断に有意に影響することを示した。しかし、その行動が実際に否定的な結 果をもたらすかどうかは、非難と罰の判断に影響するだけで、悪意と許 容性の判断には影響しなかった[45][46]。別の研究でも、心の理論と道徳的判断の相互作用に関 する神経科学的証拠が示されている[47]。

別の一連の研究によって、ノベは逆方向の有意な効果を示した: 意図性判断は行為者と行為に対する理性者の道徳的評 価に大きく影響される。しかし、そのプログラムは副次的な効果として環境に利益や害をもたらすことも予想され、それに対して彼は「気にしない」と答える。 この副作用は、害を与える条件では大多数の参加者が意図的なものと判断したが、利益を与える条件では逆の反応パターンとなった。

道徳的推論に関する研究の多くは、研究者の仮説とは無関係な外的要因を排除できるように、匿名の他人を含む架空のシナリオ(例えば、トロッコ問題)を用い ている。しかし、推論者(参加者)と行為者(判断対象)が何ら関連していない実験の外的妥当性については批判が提起されている[50][51]。行為の評 価に重点が置かれていた従来の実験とは対照的に、ピサロとタネンバウムは、アリストテレス的な徳倫理学を引用して、行為者の道徳的性格(例えば、行為者が 善人か悪人か)を評価しようとする人間の固有の動機を強調した。彼らの見解によれば、集団の中で誰と協力するかを決定する能力は生存にとって極めて重要で あったため、周囲の行為者の道徳的性格を学習することは霊長類や人間にとって進化の初期段階から主要な関心事であったに違いない[50][52]。さら に、観察された行為はもはや文脈から切り離して解釈されることはなく、推論者は現在、行為者の道徳的性格の評価(推論)と行為者の道徳的行為の評価という 2つのタスクに同時に従事していると見なされている。道徳的判断に対するパーソンセンタード・アプローチは、暗黙の人格判断に関する先行研究の結果とも一 致しているように思われる。例えば、Alicke(1992)[36]の研究では、参加者はコカインを隠すために家まで急発進した運転者の道徳的性格を否 定的であると即座に判断した可能性があり、そのような推論によって参加者は事件を取り巻く因果関係をニュアンス的に評価するようになった(例えば、彼と同 じくらい不道徳な人物が同様にスピード違反をしていた可能性がある)[52]。

スロマン、ファーンバック、ユーイングは、心理学的変数間の因果 関係の素人の理解と利用を説明するために、ベイジアンネットワークに基 づいた意図性判断の因果モデルを提案した[53]。彼らのモデルは、 エージェントの性格が結果に対するエージェントの欲求と行動が結 果をもたらすという信念の原因であり、欲求と信念が行動に対する意 思の原因であり、エージェントの行動はその意図と結果を生み出す 技能の両方によって引き起こされると公式に仮定している。計算論的モデリングと心の理論研究のアイデアを組み合わせることで、このモデルは、ボトムアップ 方向(行動から意図性、欲求、性格へ)の推論だけでなく、トップダウン方向(性格、欲求、意図性から行動へ)の推論も予測することができる。
Gender difference
At one time psychologists believed that men and women have different moral values and reasoning. This was based on the idea that men and women often think differently and would react to moral dilemmas in different ways. Some researchers hypothesized that women would favor care reasoning, meaning that they would consider issues of need and sacrifice, while men would be more inclined to favor fairness and rights, which is known as justice reasoning.[54] However, some also knew that men and women simply face different moral dilemmas on a day-to-day basis and that might be the reason for the perceived difference in their moral reasoning.[54] With these two ideas in mind, researchers decided to do their experiments based on moral dilemmas that both men and women face regularly. To reduce situational differences and discern how both genders use reason in their moral judgments, they therefore ran the tests on parenting situations, since both genders can be involved in child rearing.[54] The research showed that women and men use the same form of moral reasoning as one another and the only difference is the moral dilemmas they find themselves in on a day-to-day basis.[54] When it came to moral decisions both men and women would be faced with, they often chose the same solution as being the moral choice. At least this research shows that a division in terms of morality does not actually exist, and that reasoning between genders is the same in moral decisions.
ジェンダーの違い
かつて心理学者は、男性と女性では道徳的価値観や理性が異なると考えていた。これは、男性と女性では考え方が異なることが多く、道徳的ジレンマに対して異 なる反応を示すという考えに基づいていた。一部の研究者は、女性はケア推論、つまり必要性や犠牲の問題を考慮することを好むが、男性は正義推論として知ら れる公平性や権利を好む傾向が強いという仮説を立てた[54]。しかし、一部の研究者は、男女が単に日常的に異なる道徳的ジレンマに直面しており、それが 道徳的推論において認識される違いの理由かもしれないということも知っていた[54]。これら2つの考えを念頭に置いて、研究者は男女の両方が定期的に直 面する道徳的ジレンマに基づいて実験を行うことにした。状況的な差異を減らし、男女のジェンダーの両方が道徳的判断においてどのように理性を使うかを見極 めるために、研究者たちは男女ともに子育てに関わる可能性があるため、子育ての場面でテストを行った[54]。研究の結果、女性も男性も互いに同じ形の道 徳的理性を使い、唯一の違いは日常的に直面する道徳的ジレンマであることがわかった[54]。男女ともに道徳的判断に直面すると、道徳的な選択として同じ 解決策を選ぶことが多かった。少なくともこの研究は、道徳的な観点からの区分は実際には存在せず、道徳的な決定においてジェンダー間の推論は同じであるこ とを示している。
https://en.wikipedia.org/wiki/Moral_reasoning



























リ ンク

文 献

そ の他の情報


Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099

Mitzub'ixi Quq Chi'j