AIQ株式会社

R&D

CASE STUDY : 01
大手報道系メディア

大量写真のトリミング&
色調補正自動処理モデル

某大手メディアにて今までヒトが対応していたトリミング&補正作業をAIが学習。
大量の報道写真を掲載するまでにかかっていた労力を大幅に短縮。

大量写真のトリミング

BACKGROUND

開発のイメージ

自動トリミング

自動トリミング

使用技術

  • 実際の報道写真を元に学習させたオリジナルの自動補正モデル
  • Yolo3,Mask R-CNNなどの物体認識によるトリミングの実現
  • SNSのバズり度から最適なトリミングを推測

自動色調補正

自動色調補正

使用技術

  • Mask R-CNN + GrabCutによる前景/背景分離
  • 教師データ自動生成(実際の写真をもとに学習させたオリジナルの補正モデル)

INTERVIEW

開発者インタビュー

「少ない教師データ」「処理経緯が不明」の
難敵を打ち破るノウハウと文化

PROFILE

AIQ株式会社 エンジニア部 コアテクノロジー担当部長深水 拓郎

大手電機メーカー系Sierを経験後、大手ソフトウェアベンダーにて米国でのR&D/技術評価や、国内メーカーのウェアラブルデバイス向けにIoT、モバイルアプリ、クラウド開発などの開発からプロジェクト管理までを経験しました。現在はエンジニアリングのチーフとして新しい領域にチャレンジしつつ、海外のMaker Faireに参加するなどMaker活動を行っています。

Q.本開発における技術的なポイントは?

本来AIで学習させる際は、「①画像」「②処理方法」「③成果物」のデータがあるとベストです。どんな処理をしたかという経緯が非常に重要であるといえます。しかし、本案件では、「①色調補正する前の画像」と「③人間が色調補正した後の画像」は提供いただけたものの、 一番大事な「②処理方法」のデータが抜け落ちていました。

Q.データが足りないということはAI開発でよくあることだと思うのですが、
今回はどうやって対応したのですか?

そのため今回は、次の二段階の方法で開発を行いました。
Phase1:この画像はどのような加工がされたのか?を予測するモデルを作る
Phase2:上記結果を基に補正のデータを作る

Phase1の加工予測モデルについては、論文にしか出ていないAIモデルや、社内で実験的に開発したモデルを試したり、担当しているメンバーで検討を重ねていきました。その結果、少し泥臭いですが、最新のAIモデルだけでなく、一次関数のように固定のパラメーターを使い、技術をかけ合わせることで最終的な結果を導き出すことができました。

Q.ニーズも多い画像認識・物体認識・顔認識の領域でのAIQの強みとは?

本案件もそうですが、「少ない教師データ」から最終結果を導き出すことができることです。なぜ可能になるかというと、日頃から教師データを作り込んで、“ニュアンス”を感じ取り、実践を重ねていくことを大事にしているからです。
例えば、犬とキリンの判別は簡単ですが、犬の中でもどの犬種なのかといった細かい内容を判別するのは容易ではありません。差が小さいだけでなく、人間の目で見ると明らかに違う場合も、AIで見ると同じ判定をされるケースも少なくありません。このような“ニュアンス”について、自分たちで写真を撮ってAIを作る。そして失敗したときは、「なぜうまく行かなかったのか?」「どうして失敗しているのか?」を観察し、ひたすら試してみることを続けているからこそ、少ない教師データでも満足のいく結果につなげることができると考えています。それがAIQの強みです。