
アップルのカルロス・ゲストリンは、AIリーダーはデータをどのように利用するかについて非常に慎重に考えるべきだと警告している。
トム・クレイジット著

機械学習の台頭は、現代のテクノロジーにおける最も刺激的な発展の 1 つですが、Carlos Guestrin 氏によると、コンピューティングの最も古い原則の 1 つが今でも適用されているということです。それは、「ガベージ イン、ガベージ アウト」です。
Appleの機械学習およびAI担当シニアディレクターであり、ワシントン大学のAmazon機械学習教授でもあるゲストリン氏は、GeekWire Cloud Tech Summitの参加者に対し、機械学習技術のすべての開発者は、モデルをトレーニングする際の仮定と、そのモデルのトレーニングに使用するデータについて真剣に考え、幅広い人間の経験を反映させる必要があることを思い出させた。
この日最も好評だった講演の1つで、ゲストリン氏は、機械学習技術の最近の進歩が社会の現実の問題を解決するためにどのように使われているかを強調し、過去の技術の進歩がいかにして包括性を実現できなかったかについて論じた。
「あなたが使うデータは抽象的なものではありません。ユーザーエクスペリエンスを決定的に決定づけるものなのです」と彼は語った。
2012年にワシントン大学に着任したゲストリン氏は、シアトルでスタートアップ企業Turiを設立し、高度な機械学習技術を独学で学ぶ時間、エネルギー、資金のない開発者に提供してきました。Turiは2016年にAppleに買収され、ゲストリン氏は現在もワシントン大学のコンピュータサイエンス学部に所属しています。
ゲストリン教授は、20世紀半ば以降の機械学習技術の変遷を概観しながら、参加者に詳細な講義を行いました。人工知能研究の障害となっていた多くの根本的な問題は、NVIDIAなどの企業が提供する専用チップによって膨大な計算能力がもたらされたことや、開発者がAIの作成方法を学ばなくてもAIを利用できるようにした事前学習済みモデルの台頭などにより、解決されてきました。
クラウドサービスによって、地球上のどこからでも、そのコンピューティングパワーに、自力で同じコンピューティングパワーを複製するよりもはるかに低いコストでアクセスできるようになったとゲストリン氏は述べた。これはクラウド上だけに限った話ではない。ゲストリン氏は、AIがより身近になりつつある例として、iOSに組み込まれた画像検出アルゴリズムであるAppleのVisionフレームワークを挙げた。これは、開発者なら誰でも独自のアプリケーションで利用できるものだ。
しかし、これらのテクノロジーがより幅広い層の人々に利用できるようになるにつれて、良い面と悪い面の両方が生まれる可能性があります。女性や有色人種が機械学習技術を使い始めるにつれて、彼らはこれまで世界を支配してきた白人男性よりもはるかに人間の多様性を理解したアプリケーションを構築するようになるでしょう。
ゲストリン氏は、初期の写真の露光に使用された化学薬品やプロセスは、もともと白人を「完璧な」画像として開発されていたと説明した。白人を「理想的な」画像としてデザインされたため、他の肌の色を持つ人々の初期の写真は見栄えが悪かったのだ。これは時とともに変化したが、機械学習はまだ初期段階にあり、その実践者が同じ過ちを回避しなければ、露出オーバーの写真よりもはるかに悪い結果を招く可能性がある。
「そのデータが、私たちが目指す文化や価値観をどのように反映しているかを考える必要がある」とゲストリン氏は語り、講演を見た人々に多くの考えを残した。
2018 GeekWire Cloud Tech Summit での Guestrin 氏の講演全文は上記のビデオでご覧ください。