識別・分類技術:検閲に使うかヘイトスピーチの抑制に使うか

日本文学研究における引用についていろいろ知ることができる。勉強になる。
hibi.hatenadiary.jp

本文でなく、終わりの余談のところにちょっと補足したい。

最後にいいたいのは、この立命館大の研究は、フィルタリングの自動化の研究ですよね?(読めていないので、間違っていたら、指摘してください)
これは、言い方を変えると、機械による自動検閲(につながる)装置の開発です。

「有害」な情報から未成年者を守るというような目的があるのはわかります。

しかし、検閲による情報の規制が、私たちの社会の風通しを悪くしたり、知りたいことを知れなくなったり、議論の分かれる問題について、その問題となる原因の資料そのものへのアクセスを遮断することにつながる、という自覚を、この手の研究開発をしている人々には持ってほしいと思います。

技術として可能性を追求するのはいいけれど、それを社会に適応したとき、社会の中で振るってしまう力、効果などについて、思いをいたしてほしい。
【pixiv論文】日本文学研究者が引用について語ってみる - 日比嘉高研究室より)

フィルタリングをするためには、ある文書がある性質を満たすことをプログラムで識別しないといけない(今回の事例の場合は「性的表現」を含む文書かそうじゃないかを識別しようとしている)。この識別した上で、ある特定の性質を満たす文書を閲覧者に見せないようにするのがフィルタリングと呼ばれる技術。

一方で、5/24のTBSラジオ Session 22のメインセッション「ヘイトスピーチ対策法の成立から1年。その効果と影響、そして課題とは?」にて、パーソナリティの荻上チキ氏が、ネット上のヘイトスピーチを防ぐために、文書中のヘイトスピーチによく使われる言葉が含まれていたらメールを送る際やSNSに投稿する際に「それはヘイトスピーチになってしまいますが本当に送ってよいですか」という確認メッセージをだせばよいというような主旨の発言をしていた。
www.tbsradio.jp

このようなヘイトスピーチをしてしまうことを思いとどめる仕組みをつくるためには、その文書が「ヘイトスピーチになり得る文書」であるという性質を識別しないといけない。この識別した上で警告文を出すようにすると当該の仕組みを構築することができる。

検閲に使うフィルタリングとヘイトスピーチをしてしまうことを思いとどめる仕組みは、本質的に同じ文書の識別・分類技術を使っており、文書の識別・分類技術の精度を上げると、検閲およびヘイトスピーチ思いとどめ機能の性能が上がる。この二つの使い方は同じ技術の悪い使い方と良い使い方になっている。

技術についての「あるある」なのだけど、ある技術はある観点から見た良い使い方と悪い使い方の両方に使える場合が多い。自分が取り扱っている技術がある観点から見て、悪い使い方をすることができ、それによってある程度の被害が発生するということを考え、可能な限りそれを防ぐように取り組むのは技術者倫理の一つであり、技術者は技術者倫理を守るように努力しなければならない。

ある技術を社会に適用したとき、社会の中で振るってしまう力、効果などについて考えるのは技術者の責任だとしても、それを実際に社会に適用するかどうかという点については、技術者だけでなく非技術者も一緒になって取り組むべきというのが、東日本大震災による福島第一原発事故後で注目を浴びたトランスサイエンス(この場合はトランステクノロジーというべきかも)の話だと思っている。