2011年11月5日土曜日

トランスサイエンス

もうダマされないための「科学」講義(光文社新書)というタイトルの本を読んだ。なかなか面白い本であった。その中で、なるほどと思った箇所がいくつもあった。その中の一つを紹介する。

価値判断の多面性や政治的・法的問題との関わりの深さ

原子力に限りませんが、リスクの問題は、常に世の中の価値観や利害関係、政治的・経済的・法的な問題との関わりが深いという意味でもトランスサイエンス的です。
その一例として、人々がリスクの程度をどのような要因(因子)に基づいてどのように認識するかを示す「リスク認知」というものがあります。もともとリスク認知は心理学の分野で研究されてきたもので、しばしば科学的に算定された「客観的リスク」に対立する「主観的リスク」と見なされ、前者に基づいて「矯正」されるべきバイアスとして語られることも少なくありません。しかしそれは、リスクというもののトランスサイエンス的性格を見誤った偏狭な見方です。
たとえば、リスクにさらされているのが自分たちだけで、リスクの裏返しである便益は自分たちにはないと認められる場合には、そうでない場合よりもリスクは大きく捉えられる傾向があります。これは社会におけるリスクと便益の分配の「公平性」という正義の問題であり、単なる個人的・主観的な「バイアス」などではありません。
リスクにさらされるのが自発的な意思に基づくのか、そうでないのかも、リスクの捉え方に違いをもたらします。非自発的・強制的であるほうが、リスクは大きく捉えられる。これは「自己決定権」の問題であり、やはり社会正義に属する事柄です。
またいずれの場合も、人々にリスクの「大きさ」として認識されているのは、「損害の発生確率」× 「損害の重大さ」として表される科学的なリスクの大きさではなく、公平性や自発性などトランスサイエンス的な要素についての判断を加えたリスクの「受け入れがたさ」でしょう。
そもそも科学的なリスクの大きさにしても、たとえば「生涯のがん死確率が100mSVの被ばくで0.5 (1000人中5)増加する」ことを、「たかだか0.5%」として受け入れるか、「0.5%も増加」として受け入れがたいと見なすかは、個人の価値判断に依るでしょう。
このように人間は多面的にリスクを認識しているのであって、科学的なリスクの見方は、重要ではあっても、さまざまにある見方の一つにすぎないのです。このことを軽視して、科学的な見方ばかりをゴリ押しすることは、リスクコミュニケーションではしばしば失策を招くことになります。
3.11以降繰り返されている「福島第1原発事故による放射線リスクは、レントゲンやCTスキャン、放射線治療による被ばくのリスクよりも小さい」といったリスクの比較はその典型例です。この場合、後者の医療放射線による被ばくには、疾病の早期発見や治療などの便益があるし、線量や照射部位もコントロールされています。受けるかどうかは本人の意思に任されています。
これに対し事故による放射性被ばくには何の便益もないし、コントロールも当事者の了解も一切なくばらまかれています。このため、たとえ科学的なリスクの大きさとしては小さかったとしても、リスクの受け入れがたさは事故による被ばくのほうが大きくなります。この違いを無視して「○○よりリスクは小さい」と説明することは、リスクを軽視し、その受け入れを強制する発言のように受け取られ、強い反発を招くことになります。
このため、たとえば米国疾病予防管理センター(CDC)のトレーニング教材『危機・緊急時のリスクコミュニケーション(Crisis&EmeygencyRz'shCommunication)』でも、安易なリスク比較は慎むべきとされています。

リスク問題を簡単に数字だけで、割り切ろうとするのは真の科学ではない。いわゆる科学者が「レントゲン検査であびる数値より小さいですよ」と言って安心させようとするが、これは逆効果になると思う。科学という言葉はきわめてあいまいであると思う。そういうことをあらためて考えさせられた本であった。
解説:「トランスサイエンス」とは1972年にアメリカの核物理学者アルヴィン・ワインバーグが提唱した概念で「科学に問うことはできるが、科学では答えを出せない問題群」を扱う領域だとされている。
「バイアス:とは他のさまざまな影響による偏向。偏りを言う。(bias

0 件のコメント:

コメントを投稿