hi, hikaru

『駅すぱあと』でお馴染みヴァル研究所で、テクニカルエバンジェリストとして働いている丸山が綴るブログです。

リリースほやほやのDeepLensを早速触ってきた #reInvent

こんにちは。 現地時間29日に行われたkeynoteでは多くの新サービス、アップデートの報告がありました。 その新サービスの一つ、DeepLensのワークショップに参加してきたのでそちらをレポートしたいと思います。

f:id:hiiiiiiihikaru:20171130220413j:plain

DeepLensとは

まとめる元気がないので、クラスメソッドさんの分かりやすい記事をご覧ください。

dev.classmethod.jp

大人気のワークショップ

ワークショップ会場付近は混乱に陥っていて、予約されているけど無事に入れるのか心配になるほどでしたが、なんとか入室できました。 なぜこのワークショップがそれほどまで人気だったかと言うと、受講した人全員にもれなくDeepLensが配布されるからです。 な、なんて豪華なワークショップなのでしょう。

ワークショップの内容

ホットドッグかそうでないかを判定するアプリを作成していきます。

まず、awsのコンソールからDeepLensの設定をぽちぽち行い、最後にDeepLensをデプロイします。

シンプルな物体検出のテンプレートを指定しました。以下の画像はDeepLensのアウトプットです。適当な物体が認識できているのが分かります。

f:id:hiiiiiiihikaru:20171130234534j:plain

ワークショップの前半は、前のスライドを見ながらでしたが、後半はGithubの資料を見ながら各自進めるスタイルでした。 英語のリスニングが苦手なのでワークショップの内容が理解できるのか心配だったんですけど、資料ベースなら自分のペースで読めるし、あとで見返せるので良いですね。

https://github.com/aws-samples/reinvent-2017-deeplens-workshop/blob/master/lab%20session%203/DeepLens-Lab-3.ipynb

https://github.com/aws-samples/reinvent-2017-deeplens-workshop/blob/master/lab-session-4/Deeplens-final-lab-4.ipynb

f:id:hiiiiiiihikaru:20171130223646j:plain

DeepLens, S3, Lambda, SageMaker と、触れるサービスが多かったです。

そして残念ながら、時間切れでホットドックを検出するところまで行き着くことができませんでした。

DeepLensの授与

一足先にいただいちゃいました!

まずはワークショップの続きをやりたいと思います。 ホットドッグも買わないと!

終わりに

ワークショップの内容をコンプリートできなかったのは残念でしたが、発表されたばかりの新サービスに触ることができたのが非常に嬉しかったです。実機もいただいたので、日本に帰ったらみんなでワイワイ触りたいと思います。