研究者紹介 コンピュータサイエンス専攻

【協力講座】知能センシング講座[D3センター]

教授中島 悠太

Nakashima Yuta

コンピュータサイエンス専攻

【協力講座】知能センシング講座[D3センター]

2012年 大阪大学 大学院工学研究科 博士後期過程修了(博士(工学))
2012年 奈良先端科学技術大学院大学 情報科学研究科 助教
2015年 カーネギーメロン大学 訪問研究員
2017年 大阪大学 データビリティフロンティア機構 准教授

研究テーマ

ビジョンと言語

人は多くの情報を視覚から獲得していると言われており、さらにその情報を日本語や英語などの言語に対応させて、自分が見たものを記録したり、伝えたりすることができます。ビジョンと言語は、コンピュータを使って人がもつこの機能を実現しようとする研究領域で、コンピュータビジョン・パターン認識、自然言語処理、機械学習の共通部分に位置します。画像や映像と自然言語の両方に関わる様々なタスクを取り扱っており、例えば、画像の説明文を生成したり、画像・映像についての質問に回答したりできる深層学習モデルを作り出しています。

絵画の説明文生成。外部知識を組み込むことで、美術館の展示物のような説明文を生成できる。

深層学習とバイアス

深層学習は、今やコンピュータビジョン、パターン認識、自然言語処理などの多くの研究分野にとって必須のツールとなっています。一方で、例えば人種や性別で不平等な出力を生成するなどの問題も明らかになってきました。これは、深層学習モデルがバイアスを持つためで、データセットに潜む表層的相関や交絡因子(ここでは、実際にはあまり関係ないのにモデルの出力に影響を与える要素)といったものが関わってきます。我々のグループでは、モデルが持つバイアスを見つけ出して解消すること目指して研究を進めています。

画像キャプショニングモデルによる説明文のバイアス低減の例。元のキャプション(baseline)はスケートボードを見て人物を"boy"と記述している。提案手法(LIBRA)はこれを"girl"に修正する。

説明可能なAI

深層学習はデータのどこを見たらうまく問題を解けるか(予測できるか)をデータ自体から学習します。その結果、様々なタスクの性能を驚くほど向上させましたが、モデルの複雑さから今度はデータのどこを見ているのか分からないという、深層学習のブラックボック性の問題が出てきました。医療などのリスクが大きい応用では、いくら性能が良くても見過ごすことができない問題です。説明可能なAIは、深層学習のブラックボックス性を解決することを目指した研究領域です。我々のグループでは、データを説明するための「概念」や「言語」をデータ自体から学習を通して自動的に獲得するという新しい説明可能なAIを研究しています。

データセットからの「概念」獲得(下)。サメの口やヒレが魚の種類を記述するための概念として取り出されている。新しい画像は、これらの概念の組み合わせで表現される(上)。

連絡先

E-mail: n-yuta@ids.

TEL: S*6070

4桁の番号は同キャンパス内からの内線番号です。
外線からは、S: 06-6879-xxxxS*: 06-6105-xxxxT: 06-6850-xxxx となります。
メールアドレスは、末尾が省略されていますので、送信前に osaka-u.ac.jp を付加してください。