いや リアルタイムグーグルレンズじゃ無くて

グーグルレンズにリアルタイム日本語解析機能が付くのがPixel3からで
それリアルタイム解析は日本未発売のPixel2に搭載されていたPixelVisualCoreというグーグル独自のSoC(システムオンチップ)とクラウド側のAIテンサーフローでのディープラーニングとの連携で実現してあり
そこが進化して静止画回析からカメラを向けるだけでマルチリンガル環境でできるようになったのがPixel3からでしょう

Pixel2と3のPVCが同じもので2に最新のアンドロイド入れてもカメラの性能差で無理なんじゃないのだってそうでないと3が売れないし

それにPixel2や他機種での英語環境でのグーグルレンズのリアルタイム解析は写真の対象に印つけてクラウド側に送って英語での解析結果しか返ってこなかったけど
Pixel3は端末側もクラウド側もマルチリンガルでリアリタイム動画処理するのが他機種にはできない先行ポイントでしょう
いわゆる人工知能の黎明期の目と言えるもの
そこにロマンがあるんじゃん
HDRでiPhoneより暗所撮影性能に優れたなんてのは実質オマケだと思うなあ

ましてや他社の最新端末にクラウドのテンサーフローと連携するPVCチップを簡単に乗せるはずが無いし
2012年の猫認識以来ディープラーニング認識AIテンサーフロープラットフォームは
人工知能研究開発に開発者向けに然るべき料金で貸し出し
何より認識クラウドコンピューティングの要はソフトだからそりゃ最新のソフトは自社最新端末でプロプライエタリなものにフラッグシップでもリファレンスでもいいけどw提供するでしょう
だからグーグルアシスタントと違ってハードソフトでハードのSoCへのコスト低と実現への依存度が下がってからしか
レンズリアルタイム解析は他社端末やiPhoneとかに展開出来ない
でも目なんだから例えばグーグルアシスタントエージェントの構成要素になっていくはず

既存のIT進化論と違うなあと思うのは
リアルタイム解析それも実質リアリタイム動画での集合知解析、ディープとマシーンラーニングのジャンル言語を跨いだ認識と集合化は膨大なマシンパワー必要でAWSみたいに他社に貸してる場合じゃないって事

でその辺が日本語でも見られて日々どのぐらいそして ストリートビューの進化系やお散歩効果のポケモンを超える社会性意義のあるゲームとか
マイAPIで バーチャルインスタエージェントが一夜にしてフォローワー10万エージェントでレンズコインをマネタイズ とかになるかどうかお試しあれ でしょう