【講演】AIの取り組みをしている企業が注意しなければならないこと

AIの案件における注意事項

みなさんこんにちは! 神崎なつめです。

先日、日立とGoogleの講演会に参加しました。

普段は技術者系の社員の勉強会なので、一般人は入れないそうですが……。

今回は社員づてで、一部一般の人も参加できるようでした。

技術に詳しい子も連れていきましたが、技術者向けなこともあり「ギークすぎる!」という感想をいただいています。

ということで、AIの実施事例と学びを聞いていたのですが、事例のメカニズムについては、神崎はもっとわかりません……(笑)

正直、参加していた人のほとんどがわかっていなかった印象です。

そこで、彼ら技術者がAIを使った取り組みをして、学んだこと・反省したことのみ紹介したいと思います。

AIを使って何かしようとしている人の参考になれば幸いです。



日立の案件を通しての学び

①お客さんの「AIを作って何かしたい」には注意

なんとなく、流行っているからAIを使いたいという考えの人が多く、明確なビジョンを持っていないため、大変だそうです。

AIを扱っている会社の人なら、割と多くの人が知っていることみたいですね。

②「データはいっぱいあります」「顧客側で準備します」には要注意

AIはかなりデータが重視されます。

そのため、顧客側で用意された場合には、大抵使えません。

大抵データを取るのが素人だからですね。

③「現状と同精度でいい」には要注意

人の作業を計算機に置き換えた場合、期待精度が一桁上がります。

だから、大変な仕事になるようですね。

④ベンダ/ユーザそれぞれの権利を明確化した契約が重要

トラブルになるので、権利を明確化した契約は大切です。

特に、学習モデルの所有権はベンダ側で死守すべきだそうです。

⑤人間優秀なセンサの集合体

やはり、AIといっても、まだまだ人間に勝てない領域がたくさん残っています。

課題は多くあるようですね。

Googleの案件を通しての学び

①データの精査が重要

データを構築・設計する前に、データの精査を行わなければなりません。

AIはデータがモノを言います。

②事前に基準設定を行う

懸賞に当たっては、事前に基準設定をしなければならないです。

検証をしながら基準を設定していくのではいけません。

③安全面のルールも定義

当然ですが、安全面の確保も重要です。

しっかりとルールの定義を作っておく必要があります。

④End-to-endが絶対にいいとは限らない

End-to-endが絶対にいいとは限らないので、使うなら補助するモデルとして使うようにしましょう。

別モデルも構築すべきです。

⑤モデルのモニタリングでイレギュラーに注意

例えば、人の流れをデータにとる場合、イベントがあるなどのイレギュラーが起こると、データの分母と違ってしまいます。

誤ったデータが入ってしまうので、このようなイレギュラーは入れてはいけない。

外すようにしましょう。

まとめ

神崎としては、「Googleやっぱ強いなあ」という一言に限ります。

興味がある方は是非調べてみてください(笑)



コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です