米Amazon Web Servicesは、開発者やデータサイエンティストが自社の機械学習モデルを容易に構築、学習、展開、管理できる、フルマネージドサービス「Amazon SageMaker」の東京リージョンでの提供を、6月1日に開始した。
 「Amazon SageMaker」は、機械学習プロセスの各段階の手間のかかる作業と推測で行う作業を取り除くフルマネージドサービスで、フルマネージド機械学習ノートブック環境によってAmazon Simple Storage Service(Amazon S3)に保存しているデータの検証、視覚化が容易になるとともに、一般的なライブラリやフレームワーク、インターフェースを使用して変換できる。

 もっともよく使用されるディープラーニングアルゴリズムが含まれているので、標準的な実装と比較して最大10倍高速な実装が可能になるよう、最適化されており、好きなアルゴリズムを選択し、データソースを指定すれば、「Amazon SageMaker」が必要なドライバとフレームワークをインストールして構成してくれる。

 さらに、TensorFlowやApache MXNetとのネイティブ対応のほか、PythonベースのChainerにも対応する。また、Amazon Elastic Container Registry(ECR)上のコンテナにアップロードして、必要なフレームワークやアルゴリズムを指定することもできる。

 モデルを簡単に学習させることも可能で、Amazon Elastic Compute Cloud(Amazon EC2)インスタンスの種類と数量を選択し、データの場所を指定するだけで、「Amazon SageMaker」が自動的に分散コンピュートクラスタをセットアップして学習を行い、Amazon S3に結果を出力するとともに、終了後はクラスタを解体してくれる。

 高スループット・低遅延の予測を実現しており、複数のアベイラビリティゾーンにまたがってAmazon EC2インスタンスが自動的に拡張されるアプリケーションのためのインスタンスのローンチ、モデルの展開、セキュアなHTTPSエンドポイントの設定を自動で行うほか、A/Bテストのネイティブサポートも提供する。

 学習モデルを一度稼働した後は、ヘルスチェック、セキュリティパッチの適用、その他ルーティンメンテナンスを自動で実施してくれるので、機械学習インフラストラクチャの管理にかかる手間を削減できる。
https://codezine.jp/article/detail/10875