リリースほやほやのDeepLensを早速触ってきた #reInvent
こんにちは。 現地時間29日に行われたkeynoteでは多くの新サービス、アップデートの報告がありました。 その新サービスの一つ、DeepLensのワークショップに参加してきたのでそちらをレポートしたいと思います。
DeepLensとは
まとめる元気がないので、クラスメソッドさんの分かりやすい記事をご覧ください。
大人気のワークショップ
ワークショップ会場付近は混乱に陥っていて、予約されているけど無事に入れるのか心配になるほどでしたが、なんとか入室できました。 なぜこのワークショップがそれほどまで人気だったかと言うと、受講した人全員にもれなくDeepLensが配布されるからです。 な、なんて豪華なワークショップなのでしょう。
ワークショップの内容
ホットドッグかそうでないかを判定するアプリを作成していきます。
まず、awsのコンソールからDeepLensの設定をぽちぽち行い、最後にDeepLensをデプロイします。
シンプルな物体検出のテンプレートを指定しました。以下の画像はDeepLensのアウトプットです。適当な物体が認識できているのが分かります。
ワークショップの前半は、前のスライドを見ながらでしたが、後半はGithubの資料を見ながら各自進めるスタイルでした。 英語のリスニングが苦手なのでワークショップの内容が理解できるのか心配だったんですけど、資料ベースなら自分のペースで読めるし、あとで見返せるので良いですね。
ホットドッグが届きました pic.twitter.com/GkqV6y0z0N
— Masanori Yamaguchi (@kinunori) 2017年11月29日
DeepLens, S3, Lambda, SageMaker と、触れるサービスが多かったです。
そして残念ながら、時間切れでホットドックを検出するところまで行き着くことができませんでした。
DeepLensの授与
一足先にいただいちゃいました!
GET!! #reInvent pic.twitter.com/uw1e4xbKmZ
— 丸山ひかる (@maruyamahiakru) 2017年11月30日
まずはワークショップの続きをやりたいと思います。 ホットドッグも買わないと!
終わりに
ワークショップの内容をコンプリートできなかったのは残念でしたが、発表されたばかりの新サービスに触ることができたのが非常に嬉しかったです。実機もいただいたので、日本に帰ったらみんなでワイワイ触りたいと思います。