Google for Mobile 2016 に行ってきた
このようなブログを書いていますが、これでもエンジニアの端くれでして、なんの縁か参加することにしました。
Google I/O 2014 や Google I/O Extended 2015 にも実は参加していたりします。
英語は喋れないが聞くことはできるので聞き専 & SNS(ノイズ)発信者として色んな知識吸収を目的に努めてます。
参加セッション
Keynote に関しては多く語りません。
だいたいDEVELOP トラックにいました。
理由としては自分の興味関心とシンクロしていただけです。
以下に記載するものは正しいタイトルではありません。
Vision & Speech API と GoPiGo を使った Bot の作り方
- Vision API - 機械学習による画像認識, OCR | Google Cloud Platform
- Speech API - 機械学習による音声認識 API | Google Cloud Platform
- GoPiGo - Dexter Industries
上記のような API や Raspberry Pi を使って笑顔認識や音声認識を入力とした Bot というよりも日本的に言うとロボットのデモがありました。
Python で 50 行程度で書いたとおっしゃっていたので製品購入や API を使う際の障壁(お金を徴収されるのではないかという不安)が解決すれば簡単にできそうです。
最近の Android での Layout 設計
最近、開発された Layout の紹介がありました。
Flexbox Layout はタグクラウドのように表示できる Layout。
Constraint Layout は制約を利用して各ビューの配置ができる Layout。
2つともまだまだ開発途中のようなので今後の改善に期待してみるといいかもしれません。
モバイルで顔・バーコード・文字認識が可能になる API
- googlesamples/android-vision: Sample code for the Android Mobile Vision API.
- Mobile Vision | Google Developers
個人的に最も聞いてみたかった内容です。
本来なら最新のマテリアルデザインなどに興味がいくと思いますが、大学時代にコンピュータビジョンをかじっていた身としては気になるタイトルでした。
顔認識を使うと笑顔検出も簡単にできるし、バーコードであればポイントカードのバーコードを読み取って保存しておけるアプリを簡単に作れる、文字認識であれば URL の読み取りをして Web ページを開いたり、身の回りにある文字をかざすだけで Google 検索できるアプリとかも作れちゃいます。
生活が便利になる期待が持てる API だなと思いました。
おわりに
詳しい?ことは @tanjoin のツイートで垂れ流してるかと思います。また機会があれば参加したいイベントでした。それにしても曇っていたので湿気がすごくて暑かったですね。ほんとはもっと快適な環境になりそうな気がしますが、今回は仕方なかったというこで。もし今度参加できるのであれば他の分野にも興味を持ちたいと思います。