Googleで情報を検索したり、Facebookのニュースフィードを閲覧したりと、私たちが日々触れるテクノロジーの多くがアルゴリズムによって支えられていることは周知の事実です。しかし、あまり知られていないのは、例えばローンを申請したり、特別なマーケティングオファーを受け取ったりする際にも、アルゴリズムが重要な役割を果たしているということです。
アルゴリズムは今日、私たちの生活のあらゆるところに浸透し、私たちの見るもの、信じるもの、そしてますますその影響は大きくなり、私たちの未来を形作っています。これは良いことなのでしょうか?米国連邦取引委員会(FTC)は、他の多くの機関と同様に、あまり確信を持っていません。
FTCの主任技術者であるアシュカン・ソルタニ氏は、「消費者は、意識しているかどうかに関わらず、日々アルゴリズムと関わっています」と述べた。「これまでのところ、これらのアルゴリズムがどのように機能し、どのようなインセンティブが背後にあるのか、どのようなデータが使用され、どのように構造化されているのかについては、ほとんど解明されていません。」
数週間前、FTCの消費者保護局は、こうした理解を深めるための新たな部署を設立しました。この部署は「技術調査局」と呼ばれ、アルゴリズムの透明性は、外部調査の支援やFTC独自の調査実施を通じて、重点的に取り組む課題の一つです。
目的は、これらのアルゴリズムがどのように機能するか(その根底にある前提やその結果を導くロジック)をより深く理解し、差別やその他の有害な結果を招かないようにすることです。
「アルゴリズム」という言葉は、コンピュータプログラミングや数学にあまり詳しくない人にとっては難しそうに聞こえるかもしれない。しかし実際には、「『アルゴリズム』の良い同義語は、単に『レシピ』です」と、ミシガン大学情報学部のクリスチャン・サンドヴィグ教授は述べている。「それは、あるタスクを達成するための手順に過ぎません。」
懸念が生じるのは、私たちの生活のさまざまな側面を導くアルゴリズムが、私たちが望まない結果を生み出す時です。その例は数多く存在します。例えば、信用、住宅、労働、雇用における差別や、不公平な価格設定など、かなり明確な例もあります。
典型的な例となるが、ハーバード大学が2013年に実施したある調査では、トレヴォン・ジョーンズのような「黒人っぽい」名前でグーグル検索すると、その人物に逮捕歴があることを示唆する公的記録検索サービスの広告が表示される可能性が高くなることがわかった。
Google社はこの件に関するコメント要請に応じなかった。
他の例はより微妙です。
「問題の一つは、アルゴリズムが私たちが接するメディアや情報にますます介入するようになっていることです。これは政治などにも影響を及ぼす可能性があります」と、メリーランド大学ジャーナリズム学部のニック・ディアコポロス教授は述べています。「例えば、Facebookのニュースフィードに表示されるハードニュースの量を増やすだけで、投票に行く人が増える可能性があることは分かっています。」
ディアコプロス氏は、メディアのアルゴリズムが検閲の可能性を判断するためにもますます利用されるようになってきていると指摘した。例えば、自動化されたシステムがモデレーターによるオンラインコメントのフィルタリングや選別を支援し、有効なコメントと全く公開すべきでないコメントを区別するといったケースがある。
さらに、Automated InsightsやNarrative Scienceといった企業は、「構造化データ入力のみに基づいて」大規模なニュース記事を制作していると、彼は述べた。例えばAutomated Insightsは最近、AP通信向けに四半期ごとに3,000本の収益記事を制作・公開しており、すべてデータから自動生成されていると発表した。

ジャーナリストにとって悪夢の典型例であるだけでなく、このシナリオは多くの正確性の問題も伴います。「Googleで簡単に検索すれば、Automated Insightsの何千もの収益報告にも様々な誤りがあり、訂正が掲載されていることがわかります」とディアコポロス氏は言います。「もしこれらが市場を動かすほどの誤りだったとしたらどうでしょうか? 誤りの原因はどこにあるのでしょうか? データでしょうか、それともアルゴリズムでしょうか?」
アルゴリズムは、テクノロジーのユーザーを、通常とは異なる考え方や行動に導くことさえあります。
「例えば、Facebookの自分の投稿の一つに「いいね!」が全くつかないことに気づいたとします」とサンドヴィグ氏は説明した。Facebookのアルゴリズムがその投稿を友人のニュースフィードからフィルタリングしただけという説明が妥当だろうが、「友人がそのトピックについて投稿してほしくないからだと勘違いする人もいて、二度とそのトピックについて投稿しなくなることが分かりました」と彼は述べた。
言い換えれば、作成者にとっては非常に単純なフィルターのように見えるものが、あっという間に人々の行動も変えるほど大きなものへと成長してしまう可能性があるのだ。
それで、このすべてに対して何ができるでしょうか?
FTC のような透明性を高める取り組みは 1 つのアプローチです。
「一つの可能性としては、企業が自社の主要なアルゴリズムに関する透明性レポートを発行し、エラー率、データ品質、データ利用、新たなバイアスなどをベンチマークする必要があるだろう」とディアコプロス氏は述べた。
もうひとつの可能性としては、エンドユーザーが利用するテクノロジーの基盤となるアルゴリズムについてより多くの情報をエンドユーザーに提供する新しいユーザーインターフェースが開発される可能性があると彼は示唆した。
特に選挙がアルゴリズムによって大規模に操作されないようにするためには、規制も必要になるかもしれない、と彼は述べた。
「政府の関与は非常に重要です」とサンドヴィグ氏も同意した。「コンピューターの有無にかかわらず、違法行為は起こり得ます。政府はいずれにせよ、それに対処できる必要があります。これは政府の権力拡大ではなく、遅きに失した問題なのです。」
しかしサンドヴィグ氏は、透明性の向上が必ずしも大きな効果をもたらすとは考えていない。結局のところ、たとえアルゴリズムが明示的に示され、検査可能であったとしても、それがもたらす潜在的な影響を明らかにすることはごくわずかかもしれない。特に、アルゴリズムが複雑であったり、検査も不可能な大規模なデータセットに対して演算を実行したりする場合にはなおさらだ。
サンドヴィグ氏が好む解決策は、透明性ではなく、監査、つまりアルゴリズム自体ではなくアルゴリズムの結果を体系的にテストしてその結果の性質を評価することに重点を置いています。
「分野によっては、プロセスや意図を把握することはできないが、結果はわかる」と彼は語った。
たとえば、住宅分野では、融資決定の背後で機能しているアルゴリズムを完全に理解するのは難しいかもしれません。すべての人種の人々がすべての地域で住宅ローンを組んでいるかどうかなど、結果を調べる方がはるかに簡単で診断的になります。
ここで生じる潜在的な問題に対する最善のアプローチを見つけるのは、明らかにまだ初期段階です。しかし、最終的にどのような戦略が採用されるにせよ、今重要なのは社会的な影響を意識することだと、FTCのソルタニ氏は述べました。
「多くの場合、ソフトウェアに任せてしまう傾向があります」と彼は述べた。「しかし、ソフトウェアが偏見や差別を助長する程度に、規範的な価値観は依然として危機に瀕しています。」