人が求めたことをアルゴリズムが行っても、それは驚くべきことではありません。なぜなら、アルゴリズムはそのようにプログラムされているからです。
この記事で言及した問題はいずれも、機械学習アルゴリズム自体に起因するものではありません。アルゴリズムと人間社会との関わり方や、そこから生じる意図しない結果が問題となります。そのため、新しいアルゴリズムを開発する際は、倫理的意義を中核に据えることが極めて重要です。
その方法の1つとして、「問題はそれ自体で解決すべき対象ではなく、根本的な原因を示唆するヒントである」と考える公衆衛生分野のガバナンスモデルの活用があります。また、アルゴリズムが過去のパターンを誇張せずに、新しいデータや良質なデータに迅速に順応できるようにするという方法もあります。これは、最新の検索履歴にすばやく順応しておすすめを提示するSpotifyやAmazonのAIが日々行っていることです。
最後に、より倫理的なAIの開発に関係するあらゆる取り組みを成功させるためには、個々の問題とその解決策を特定するための研究が不可欠です。アルゴリズムは個人や社会に悪影響を与えるものではない、ということを示す資料を提示し、幹部の関心を集める必要があります。データプライバシーやサイバーセキュリティが部門レベルの問題から取締役会レベルの重要アジェンダとなったように、AIを利用するすべての企業は、早急に「責任あるAI」のガバナンスに関する検討の優先度を上げなければなりません。