はじめによんでください

バックファイアー効果

Backfire effects

池田光穂

☆ 信念の持続(概念的保守主義としても知られている)とは、その信念を完全に否定する新たな情報が入っても、その信念を持ち続けることである。 合理性は概念の柔軟性を伴うため、信念の持続は、人間が時に非合理的な行動をとるという見解と一致している。哲学者F.C.S.シラーは、信念の持続は「自然界の根本的な『法則』に数えられるに値する」と主張している。 他者がその信念を否定する証拠を提示しようとした結果、信念が強固になることを「バックファイアー効果」と呼ぶ。 バックファイアー効果が発生する可能性のある心理的メカニズムは存在するが、このテーマに関する証拠は結果はまちまちであり、実際にはバックファイアー効 果が生じることは非常にまれである。バックファイアー効果に関する科学的文献の2020年のレビューでは、理論的にはバックファイアー効果を観察するのに 有利な条件であっても、その存在を再現できないケースが広く見られたことが明らかになった。再現性が欠けているため、 2020年時点ではほとんどの研究者は、バックファイア効果はより広い人口レベルでは発生しそうにない、あるいは非常に特殊な状況でのみ発生するか、ある いは存在しないと考えている[8]。ほとんどの人の場合、修正や事実確認がネガティブな影響を与える可能性は極めて低く、バックファイア効果が一貫して観 察されている特定のグループはない。

★ バックファイアー効果(逆効果) 他者がその誤りを証明する証拠を提示しようとした結果、その誤った考え方がより強固になることをバックファイアー効果という(ブーメラン効果と比較)。   例えば、予防接種の安全性に関する情報を提供した結果、予防接種に対する抵抗感が増大した場合などがこれに該当する。バックファイアー効果の種類には、次 のようなものがある。「慣れ」によるバックファイアー効果(神話がより身近なものになることによる)、「過剰」による バックファイアー効果(多くの論拠を提示することによる)、「世界観」によるバックファイアー効果(誰かの世界観を脅かすような証拠を提示することによ る)。誤った情報を否定する手法には、神話ではなく核心となる事実を強調することや、これから提示する情報は偽りであるとの明確な警告を発するこ と、誤った情報の否定によって生じたギャップを埋めるための代替的な説明を提供することなど、さまざまなものがある誤情報の暴露によって生じたギャップを 埋めるための代替的な説明を提供する[21]。しかし、より最近の研究では、バックファイアー効果が生じる可能性はかつて考えられていたほどではないとい う証拠が示された。

バックファイアー効果が生じる可能性のある心理的メカニズムは存在するが、このトピックに関する証拠はまちまちであり、実際にはバックファイアー効果が生 じることは非常にまれである。バックファイアー効果に関する科学文献の2020年のレビューでは、理論的にはバックファイアー効果を観 察するのに有利な条件であっても、その存在を再現できないケースが広く見られたことが明らかになった。再現性が欠けているため、2020年時点で は、ほとんどの研究者は、バックファイアー効果はより広い人口レベルでは発生しにくい、あるいは非常に特定の状況でのみ発生するか、あるいは発生しないと 考えている。 2020年のレビューでは、バックファイア効果を再現する試みは、理論的にはその存在を観察するのに有利な条件であっても、広く失敗に終わっていることが わかった。再現性の欠如により、2020年時点では、ほとんどの研究者は、バックファイア効果はより広い人口レベルでは発生しそうにない、あるいは 非常に特定の状況でのみ発生し、あるいは存在しないと考えている。存在しない。バックファイア効果の発生を最初に提唱した研究者の一人である ブレンダン・ナイハンは、2021年に、誤情報の持続は他の要因による可能性が高いと書いている。 ほとんどの人の場合、訂正やファクトチェックがネガティブな影響を与える可能性は極めて低く、バックファイア効果が一貫して観察されている特定のグループ はない事実に基づく訂正を提示することは、多くの状況において肯定的な効果をもたらすことが実証されている。例えば、9/11陰謀説を信 じる人々に実際の専門家や目撃者の発言を伝える場合について研究されている。批判がバックファイアー効果となる可能性が最も高いのは、批判が誰か の世界観やアイデンティティに疑問を投げかける場合である可能性がある。このことから、批判を行う際にはそのような挑戦を避けることが効果的なアプローチ である可能性があることが示唆される。 多くの場合、メディアやブロガーがバックファイアー効果について議論する際、特定のサブグループを対象とした研究から一般化しすぎ、バックファイアー効果 が全人口やあらゆる是正の試みにも当てはまると誤って結論づけてしまうことがある[8][9]。

Belief perseverance

Belief perseverance (also known as conceptual conservatism[1]) is maintaining a belief despite new information that firmly contradicts it.[2]

Since rationality involves conceptual flexibility,[3][4] belief perseverance is consistent with the view that human beings act at times in an irrational manner. Philosopher F.C.S. Schiller holds that belief perseverance "deserves to rank among the fundamental 'laws' of nature".[5]

If beliefs are strengthened after others attempt to present evidence debunking them, this is known as a backfire effect.[6] There are psychological mechanisms by which backfire effects could potentially occur, but the evidence on this topic is mixed, and backfire effects are very rare in practice.[7][8][9] A 2020 review of the scientific literature on backfire effects found that there have been widespread failures to replicate their existence, even under conditions that would be theoretically favorable to observing them.[8] Due to the lack of reproducibility, as of 2020 most researchers believe that backfire effects are either unlikely to occur on the broader population level, or they only occur in very specific circumstances, or they do not exist.[8] For most people, corrections and fact-checking are very unlikely to have a negative impact, and there is no specific group of people in which backfire effects have been consistently observed.[8]
信念の持続

信念の持続(概念的保守主義[1]としても知られている)とは、その信 念を完全に否定する新たな情報が入っても、その信念を持ち続けることである[2]。

合理性は概念の柔軟性を伴うため[3][4]、信念の持続は、人間が時に非合理的な行動をとるという見解と一致している。哲学者F.C.S.シラーは、信 念の持続は「自然界の根本的な『法則』に数えられるに値する」と主張している[5]。

他者がその信念を否定する証拠を提示しようとした結果、信念が強固になることを「バックファイアー効果」と呼ぶ[6]。バックファイアー効果が発生する可 能性のある心理的メカニズムは 存在するが、このテーマに関する証拠は 結果はまちまちであり、実際にはバックファイアー効果が生じることは非常にまれである[7][8][9]。バックファイアー効果に関する科学的文献の 2020年のレビューでは、理論的 にはバックファイアー効果を観察するのに有利な条件であっても、その存在を再現できないケースが広く見られたことが明らかになった[8]。再現性が欠けて いるため、 2020年時点では ほとんどの研究者は、バックファイア効果はより広い人口レベルでは発生しそうにない、あるいは非常に特殊な状況でのみ発生するか、あるいは存在しないと考 えている[8]。ほとんどの人の場合、修正や事実確認がネガティブな影響を与える可 能性は極めて低く、バックファイア効果が一貫して観察されている特定のグループはない[8]。
Evidence from experimental psychology

According to Lee Ross and Craig A. Anderson, "beliefs are remarkably resilient in the face of empirical challenges that seem logically devastating".[10]

The first study of belief perseverance was carried out by Festinger, Riecken, and Schachter.[11] These psychiatrists spent time with members of a doomsday cult who believed the world would end on December 21, 1954.[11] Despite the failure of the forecast, most believers continued to adhere to their faith.[11][12][13] In When Prophecy Fails: A Social and Psychological Study of a Modern Group That Predicted the Destruction of the World (1956) and A Theory of Cognitive Dissonance (1957), Festinger proposed that human beings strive for internal psychological consistency to function mentally in the real world.[11] A person who experiences internal inconsistency tends to become psychologically uncomfortable and is motivated to reduce the cognitive dissonance.[11][12][14] They tend to make changes to justify the stressful behavior, either by adding new parts to the cognition causing the psychological dissonance (rationalization) or by avoiding circumstances and contradictory information likely to increase the magnitude of the cognitive dissonance (confirmation bias).[11][12][14]

When asked to reappraise probability estimates in light of new information, subjects displayed a marked tendency to give insufficient weight to the new evidence. They refused to acknowledge the inaccurate prediction as a reflection of the overall validity of their faith. In some cases, subjects reported having a stronger faith in their religion than before.[15]

In a separate study, mathematically capable teenagers and adults were given seven arithmetical problems and asked to estimate approximate solutions using manual estimating. Then, using a calculator rigged to provide increasingly erroneous figures, they were asked for accurate answers (e.g., yielding 252 × 1.2 = 452.4, when it is actually 302.4). About half of the participants went through all seven tasks while commenting on their estimating abilities or tactics, never letting go of the belief that calculators are infallible. They simply refused to admit that their previous assumptions about calculators could have been incorrect.[16]

Lee Ross and Craig A. Anderson led some subjects to the false belief that there existed a positive correlation between a firefighter's stated preference for taking risks and their occupational performance. Other subjects were told that the correlation was negative. The participants were then thoroughly debriefed and informed that there was no link between risk taking and performance. These authors found that post-debriefing interviews pointed to significant levels of belief perseverance.[17]

In another study, subjects spent about four hours following instructions of a hands-on instructional manual.  At a certain point, the manual introduced a formula which led them to believe that spheres were 50 percent larger than they are. Subjects were then given an actual sphere and asked to determine its volume; first by using the formula, and then by filling the sphere with water, transferring the water to a box, and directly measuring the volume of the water in the box. In the last experiment in this series, all 19 subjects held a Ph.D. degree in a natural science, were employed as researchers or professors at two major universities, and carried out the comparison between the two volume measurements a second time with a larger sphere. All but one of these scientists clung to the spurious formula despite their empirical observations.[18]
実験心理学による証拠

リー・ロスとクレイグ・A・アンダーソンによると、「信念は、論理的に致命的なように思える実証的な挑戦に対しても驚くほど回復力がある」[10]。

信念の持続力に関する最初の研究は、フェスティンガー、リーケン、シャクターによって行われた[11]。これらの精神科医は、 1954年12月21日に世界が終わると信じていた終末論カルトの信者たちと時間を過ごした[11]。予言は外れたが、信者の大半は自分たちの信仰を貫き 通した[11][12][13]。『予言はなぜ外れるのか: 『予言の失敗:世界の破滅を予言した現代集団の社会心理学的研究』(1956年)および『認知的不協和の理論』(1957年)において、フェスティンガー は、人間は現実世界で精神的に機能するために、心理的な一貫性を追求すると提唱した[11]。内部矛盾を経験する人は心理的に不快になり、認知的不協和を 軽減しようとする傾向がある[11][12][14]。彼らは、心理的不協和を引き起こす認知に新しい要素を追加する(合理化)か、認知的不協和を増幅す る可能性のある状況や矛盾する情報を避ける(確認バイアス)ことで、ストレスフルな行動を正当化しようとする傾向がある[11][12][14]。

新しい情報に基づいて確率の推定を再評価するように求められると、被験者は新しい証拠に十分な重みを与えない傾向が顕著に現れた。彼らは、不正確な予測を 信仰の全体的な妥当性を反映したものとして認めることを拒否した。場合によっては、被験者は以前よりも宗教への信仰が強まったと報告した[15]。

別の研究では、数学が得意なティーンエイジャーと成人に7つの算数問題を出し、手計算で概算の解答を求めさせた。その後、次第に誤った数字が出るように細 工された電卓を使って、正確な答えを求められた(例えば、252×1.2=452.4という答えを求められるが、実際には302.4である)。参加者の約 半数は、7つの課題すべてに答えながら、自分の推計能力や戦術についてコメントし、電卓は絶対に間違わないという信念を捨てようとしなかった。彼らは、単 に、それまでの電卓に対する思い込みが間違っていた可能性を認めることを拒んだのだ[16]。

Lee RossとCraig A. Andersonは、被験者たちに、消防士のリスクを冒すことへの好みと職業上のパフォーマンスには正の相関関係がある、という誤った信念を抱かせた。他 の被験者たちには、その相関関係は負であると伝えた。その後、被験者たちは徹底的に報告を受け、リスクを冒すこととパフォーマンスには何の関係もないこと を知らされた。これらの著者は、事後インタビューにより、被験者の信念の持続性がかなり高いことが分かった[17]。

別の研究では、被験者は約4時間、実践的な取扱説明書の指示に従った。 ある時点で、この説明書には、被験者に球体の大きさが実際の50%大きいと信じ込ませる公式が紹介されていた。その後、被験者には実際の球体が与えられ、 その体積を計算するように指示された。まず、計算式を使って体積を計算し、次に球体に水を入れて箱に移し、箱に入った水の体積を直接測定するという手順で ある。この実験シリーズの最後の実験では、19人の被験者は全員自然科学の博士号を取得しており、2つの主要大学で研究員または教授として勤務していた。 そして、より大きな球体を用いて、2回目の体積測定の比較を行った。これらの科学者のうち1人を除いて、経験則による観察にもかかわらず、全員が誤った計 算式に固執していた[18]。
Backfire effects

If beliefs are strengthened after others attempt to present evidence debunking them, this is known as a backfire effect (compare boomerang effect).[6] For example, this would apply if providing information on the safety of vaccinations resulted in increased vaccination hesitancy.[19][20] Types of backfire effects include: Familiarity Backfire Effect (from making myths more familiar), Overkill Backfire Effect (from providing too many arguments), and Worldview Backfire Effect (from providing evidence that threatens someone's worldview).[8] There are a number of techniques to debunk misinformation, such as emphasizing the core facts and not the myth, or providing explicit warnings that the upcoming information is false, and providing alternative explanations to fill the gaps left by debunking the misinformation.[21] However, more recent studies provided evidence that the backfire effects are not as likely as once thought.[22]

There are psychological mechanisms by which backfire effects could potentially occur, but the evidence on this topic is mixed, and backfire effects are very rare in practice.[7][8][9] A 2020 review of the scientific literature on backfire effects found that there have been widespread failures to replicate their existence, even under conditions that would be theoretically favorable to observing them.[8] Due to the lack of reproducibility, as of 2020 most researchers believe that backfire effects are either unlikely to occur on the broader population level, or they only occur in very specific circumstances, or they do not exist.[8] Brendan Nyhan, one of the researchers who initially proposed the occurrence of backfire effects, wrote in 2021 that the persistence of misinformation is most likely due to other factors.[9]

For most people, corrections and fact-checking are very unlikely to have a negative impact, and there is no specific group of people in which backfire effects have been consistently observed.[8] Presenting people with factual corrections has been demonstrated to have a positive effect in many circumstances.[8][23][24] For example, this has been studied in the case of informing believers in 9/11 conspiracy theories about statements by actual experts and witnesses.[23] One possibility is that criticism is most likely to backfire if it challenges someone's worldview or identity. This suggests that an effective approach may be to provide criticism while avoiding such challenges.[24]

In many cases, when backfire effects have been discussed by the media or by bloggers, they have been over-generalized from studies on specific subgroups to incorrectly conclude that backfire effects apply to the entire population and to all attempts at correction.[8][9
バックファイアー効果(バックファイアー効果)

他者がその誤りを証明する証拠を提示しようとした結果、その誤った考え方がより強固になることをバックファイアー効果という(ブーメラン効果と比較)。 [6] 例えば、予防接種の安全性に関する情報を提供した結果、予防接種に対する抵抗感が増大した場合などがこれに該当する。[19][20] バックファイアー効果の種類には、次のようなものがある。「慣れ」によるバックファイアー効果(神話がより身近なものになることによる)、「過剰」による バックファイアー効果(多くの論拠を提示することによる)、「世界観」によるバックファイアー効果(誰かの世界観を脅かすような証拠を提示することによ る)[8]。誤った情報を否定する手法には、神話ではなく核心となる事実を強調することや、これから提示する情報は偽りであるとの明確な警告を発するこ と、誤った情報の否定によって生じたギャップを埋めるための代替的な説明を提供することなど、さまざまなものがある 誤情報の暴露によって生じたギャップを埋めるための代替的な説明を提供する[21]。しかし、より最近の研究では、バックファイアー効果が生じる可能性は かつて考えられていたほどではないという証拠が示された[22]。

バックファイアー効果が生じる可能性のある心理的メカニズムは存在するが、このトピックに関する証拠はまちまちであり、実際にはバックファイアー効果が生 じることは非常にまれである[7][8][9]。バックファイアー効果に関する科学文献の2020年のレビューでは、理論的にはバックファイアー効果を観 察するのに有利な条件であっても、その存在を再現できないケースが広く見られたことが明らかになった[8]。再現性が欠けているため、2020年時点で は、ほとんどの研究者は、バックファイアー効果はより広い人口レベルでは発生しにくい、あるいは非常に特定の状況でのみ発生するか、あるいは発生しないと 考えている。 2020年のレビューでは、バックファイア効果を再現する試みは、理論的にはその存在を観察するのに有利な条件であっても、広く失敗に終わっていることが わかった[8]。再現性の欠如により、2020年時点では、ほとんどの研究者は、バックファイア効果はより広い人口レベルでは発生しそうにない、あるいは 非常に特定の状況でのみ発生し、あるいは存在しないと考えている[8]。存在しない[8]。バックファイア効果の発生を最初に提唱した研究者の一人である ブレンダン・ナイハンは、2021年に、誤情報の持続は他の要因による可能性が高いと書いている[9]。

ほとんどの人の場合、訂正やファクトチェックがネガティブな影響を与える可能性は極めて低く、バックファイア効果が一貫して観察されている特定のグループ はない[ 8] 事実に基づく訂正を提示することは、多くの状況において肯定的な効果をもたらすことが実証されている[8][23][24]。例えば、9/11陰謀説を信 じる人々に実際の専門家や目撃者の発言を伝える場合について研究されている[23]。批判がバックファイアー効果となる可能性が最も高いのは、批判が誰か の世界観やアイデンティティに疑問を投げかける場合である可能性がある。このことから、批判を行う際にはそのような挑戦を避けることが効果的なアプローチ である可能性があることが示唆される[24]。

多くの場合、メディアやブロガーがバックファイアー効果について議論する際、特定のサブグループを対象とした研究から一般化しすぎ、バックファイアー効果 が全人口やあらゆる是正の試みにも当てはまると誤って結論づけてしまうことがある[8][9]。
Even when we deal with ideologically neutral conceptions of reality, when these conceptions have been recently acquired, when they came to us from unfamiliar sources, when they were assimilated for spurious reasons, when their abandonment entails little tangible risks or costs, and when they are sharply contradicted by subsequent events, we are, at least for a time, disinclined to doubt such conceptions on the verbal level and unlikely to let go of them in practice. –Moti Nissani[1]
た とえ、私たちがイデオロギー的に中立的な現実概念を扱っている場合でも、その概念が最近になって獲得されたものである場合、見慣れない情報源から得られた ものである場合、偽りの理由で同化されている場合、その概念を放棄することで目に見えるリスクやコストがほとんど生じない場合、その後の出来事によってそ の概念が明確に否定されている場合、少なくとも一時的には、私たちは口頭レベルではそのような概念を疑う気になれず、実際的にもそれを手放すことは難し い。 –モティ・ニッサーニ[1]
In cultural innovations

Physicist Max Planck wrote that "the new scientific truth does not triumph by convincing its opponents and making them see the light, but rather because its opponents eventually die, and a new generation grows up that is familiar with it".[25] For example, the heliocentric theory of the great Greek astronomer, Aristarchus of Samos, had to be rediscovered about 1,800 years later, and even then undergo a major struggle before astronomers took its veracity for granted.[26]

Belief persistence is frequently accompanied by intrapersonal cognitive processes. "When the decisive facts did at length obtrude themselves upon my notice," wrote the chemist Joseph Priestley, "it was very slowly, and with great hesitation, that I yielded to the evidence of my senses."[27]
文化の革新において

物理学者マックス・プランクは、「新しい科学的真理は、反対派を説得して彼らに理解させることによって勝利するのでなく、むしろ反対派がやがて死に絶え、 新しい世代がそれを理解して育つことによって勝利する」と書いている[25]。例えば、偉大なギリシャの天文学者サモスのアリスタルコスの 偉大なギリシャの天文学者サモスのアリスタルコスの太陽中心説は、約1800年後に再発見されなければならず、天文学者たちがその真実性を当然のこととし て受け入れるまでには、大きな葛藤を乗り越える必要があった[26]。

信念の持続には、しばしば個人内の認知プロセスが伴う。「決定的な事実がようやく私の注意を惹きつけたとき、」化学者のジョセフ・プリーストリーは書いている。「それは非常にゆっくりと、そして非常にためらいながら、私は自分の感覚の証拠に屈服した。」[27]
In education

Students often "cling to ideas that form part of their world view even when confronted by information that does not coincide with this view."[28] For example, students may spend months studying the solar system and do well on related tests, but still believe that moon phases are produced by Earth's shadow. What they learned was not able to intrude on the beliefs they held prior to that knowledge.[29]
教育において

学生は「自分の世界観の一部を構成する考えに固執し、その考えと一致しない情報に出会っても、その考えに固執する」[28]ことが多い。例えば、学生は数 か月かけて太陽系の勉強をし、関連テストで良い成績を収めるが、それでも月の満ち欠けは地球の影によって生じるものだと信じている。彼らが学んだことは、 その知識を得る前に抱いていた信念に食い込むことができなかったのだ[29]。
Causes

The causes of belief perseverance remain unclear. Experiments in the 2010s suggest that neurochemical processes in the brain underlie the strong attentional bias of reward learning. Similar processes could underlie belief perseverance.[30]

Peter Marris suggests that the process of abandoning a conviction is similar to the working out of grief. "The impulse to defend the predictability of life is a fundamental and universal principle of human psychology." Human beings possess "a deep-rooted and insistent need for continuity".[31]

Philosopher of science Thomas Kuhn points to the resemblance between conceptual change and Gestalt perceptual shifts (e.g., the difficulty encountered in seeing the hag as a young lady). Hence, the difficulty of switching from one conviction to another could be traced to the difficulty of rearranging one's perceptual or cognitive field.[32]
原因

信念の持続性の原因は依然として不明である。2010年代に行われた実験では、報酬学習における強い注意バイアスは脳内の神経化学的プロセスが根底にあることが示唆されている。同様のプロセスが信念の持続性の根底にある可能性がある[30]。

ピーター・マリスは、信念を放棄するプロセスは悲しみを克服するプロセスに似ていると示唆している。「人生の予測可能性を守ろうとする衝動は、人間の心理における基本的かつ普遍的な原則である」。人間は「根強く、持続的な必要性を求める」[31]。

科学哲学者トーマス・クーンは、概念の変化とゲシュタルト知覚のシフト(例えば、老婆を若い女性として認識する困難さ)の類似性を指摘している。したがっ て、ある信念から別の信念に切り替えることの難しさは、知覚や認知の分野を再構成することの難しさに起因している可能性がある[32]。
Asch conformity experiments – Study of if and how individuals yielded to or defied a majority group
Cognitive dissonance – Stress from contradictory beliefs
Cognitive inertia – Lack of motivation to mentally tackle a problem or issue
Confirmation bias – Bias confirming existing attitudes
Conservatism (belief revision) – Cognitive bias
Denialism – Person's choice to deny psychologically uncomfortable truth
Idée fixe – Personal fixation
Paradigm shift – Fundamental change in ideas and practices within a scientific discipline
Stanley Milgram – American social psychologist
Semmelweis reflex – Cognitive bias
Status quo bias – Cognitive bias
True-believer syndrome – Continued belief in a debunked theory
Anussava - Do not go upon what has been acquired by repeated hearing.
アッシュの適合実験 - 多数派に屈服するか、あるいはそれに抵抗するか、その理由と方法を研究する
認知的不協和 - 矛盾する信念によるストレス
認知的惰性 - 問題や課題に精神的に取り組む意欲の欠如
確証バイアス - 既存の態度を裏付ける偏り
保守主義(信念の修正) - 認知バイアス
否認主義 - 心理的に不快な真実を否定する人の選択 真実
固定観念
パラダイムシフト
スタンリー・ミルグラム
セムレヴィス反射
現状維持バイアス
トゥルー・ビリーバー症候群
アヌッサヴァ
繰り返し耳にしたことで得た情報だけを鵜呑みにしない
https://en.wikipedia.org/wiki/Belief_perseverance



リ ンク

文 献

そ の他の情報


Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099

Mitzub'ixi Quq Chi'j