思いっきり差別的だけど効果からすると合理的

第一にデモで問題になるのは「男性である」という決め付け、第二に採用の際に「若い、容姿端麗」な女性を優遇していること、第三にデモ隊の男性は異性愛者であると決めつけていること。いろいろとアレだけど、実際にデモ行為で過激かしやすいのは男性だろうし、社会的規範の下で公衆の面前で女性に手をあげるというのもやりづらいのだろうし、それが若い女性ならなおさらなんだろう。

人工知能Vol. 29 No. 2「 「人工知能」表紙問題における議論と論点の整理」の「『人工知能』誌の表紙デザイン 意見・議論に接して ─視覚表象研究の視点から─」と「人工知能はどのように擬人化されるべきなのか? ─人の擬人化傾向に関わる知見と応用─ 」で別々に言われていたことだけど、観察調査によって得たポジティブなイメージ・表現を利用しようとしたとき、そのポジティブなイメージ・表現には歴史的な経緯で育まれた差別(あるいは差別の残滓)が肯定的に反映されている可能性がある。

なので、観察事実に基づき実際的かつ合理的な方法は、ジェンダー問題を初めとする各種差別問題の文脈からするとやってはいけない方法になり得る。つまり、差別をなくすためにわれわれの社会は非合理・不適切なやり方を受け入れなくてはいけなくなるということ。人工知能Vol. 29 No. 2「 「人工知能」表紙問題における議論と論点の整理」の感想の最初に「率直な感想はおもしろいけど、だいぶ面倒くさいな」と書いたのはこれが理由。

自然科学や医療、工学(しかも、トランスサイエンスでない部分)においては観察事実に基づき実際的かつ合理的な方法を突き詰めていくのは問題ないし、どんどんとそうするべきだけど、我々人間の考え方や行動によって結果が変わる事柄については、観察事実に基づき実際的かつ合理的な方法の選択が必ずしも良いことではない。Big Dataを利用して、観察が難しかったことが観察できるようになりつつある現在は、この点に気をつけないと20世紀に徐々に解決が進んできた差別問題が一気に揺り戻していく可能性がある。

たぶん、各種差別問題研究者は、Big Dataによって強化される「観察事実に基づき実際的かつ合理的な方法」の選択に対して準備し始める必要がありそうだし、社会的事柄についてBig Dataを扱う計算機科学者や統計学者は各種差別問題研究者と連絡できるようにしておかないといけなくなりそう。まあ、すでに計量ジェンダー学とか計量歴史学とかありそうだよね。

追記:

はてなブックマークコメントで教えていただいた。2007年のエントリー。

ただし今回は、別ブログで予告した通り「蔑視による差別行為」と「偏見による差別行為」の区別についての説明が主題。この区別はスティーヴン・レヴィット&スティーヴ・ダブナーの『ヤバい経済学』では「選好による差別 taste-based discrimination」「情報による差別 information-based discrimination」として紹介されているけれど、なぜそんな区別が必要なのか全然説明されていないので、まずはその辺りから。なお、「情報による差別」はわたしの経験だと「統計的差別 statistical discrimination」と呼ばれることの方が多いので、経済学の文献をあたるときはそちらで探すと吉。

以下を読むと私がこのエントリーで懸念している話よりも範囲を限定した概念のように感じる。集団に対するネガティブな経験だけでなく、ポジティブな経験も差別に基づく物の見方に由来するものであれば、そのまま採択してはいけないというのがこのエントリーで懸念している点。