What is Modular?
Modular Accelerated Xecution(MAX)プラットフォームは、比類のないパフォーマンス、プログラム性、ポータビリティを備えたAIエンジニアに権限を与えるために設計された、革新的なAIソフトウェアスタックです。Modular Inc.によって開発されたMAXは、AIインフラストラクチャに対する画期的なアプローチを表し、低レイテンシ、高スループット、リアルタイムAIインファレンスパイプラインの展開を効率化する包括的なツールとライブラリのセットを提供します。
主な機能:
Mojoによる完全なプログラム性: MAXは、Pythonの容易さ、Rustの安全性、Cのパフォーマンスを組み合わせたプログラミング言語であるMojo上に構築されています。このユニークなブレンドは、AIハードウェアの完全な可能性を引き出し、AIエンジニアがかつてないほど容易かつ効率的にAIモデルを拡張して最適化することを可能にします。
比類のないパフォーマンス: プラットフォームの中核コンポーネントであるMAXエンジンは、AIパイプライン向けの最新のレイテンシとスループットを提供します。これには生成モデルも含まれており、AIパイプラインの迅速な生産化とクラウドインフラストラクチャでの大幅なコスト削減が可能です。
シームレスなポータビリティ: MAXは、AIモデルとパイプラインをあらゆるハードウェアターゲットに容易に移行できるようにします。この柔軟性は、パフォーマンス対コストの比率を最大化し、ベンダーロックインを排除し、ハードウェアの選択肢に自由と効率をもたらします。
MAXエンジン: モデル推論ランタイムとAPIライブラリであるMAXエンジンは、あらゆるハードウェア上で優れたパフォーマンスでAIパイプラインを実行します。簡単なPythonまたはC APIを提供し、TensorFlow、PyTorch、またはONNXなどの既存の推論呼び出しからの迅速な移行を可能にし、さまざまなCPUアーキテクチャで最大5倍高速な実行を提供します。
MAXサービング: MAXエンジン向けのこのモデルサービングライブラリは、既存のサービングシステムとの完全な相互運用性と、Kubernetesなどのコンテナインフラストラクチャ内のシームレスな展開を提供します。NVIDIA Triton Inference Serverなどのシステムのドロップイン置き換えとして機能し、統合と展開の容易さを向上させます。
ユースケース:
迅速なパフォーマンスの向上: MAXはAIモデルのパフォーマンスを急速に向上させます。現在の推論呼び出しをMAXエンジンに置き換えることで、ユーザーは最小限のコード変更で大幅な速度向上を実現できます。
モデルを拡張して最適化する: MAXエンジンを導入することで、ユーザーはMojoを使用してモデルをさらに最適化できます。これには、カスタムopsの記述やMojoでのモデル全体の構築、推論用のMAXグラフAPIの利用が含まれます。
フルスタックの最適化: 推論を超えて、MAXはAIパイプライン全体の最適化を可能にします。ユーザーは、データの前処理/後処理コードとアプリケーションコードをMojoに移行でき、MAXツールとライブラリが継続的に追加され、AIスタック全体の開発が加速します。
MAXの理由:
AIエキスパートによる構築: Modularチームには、TensorFlow、PyTorch、ONNX、XLAなどの基礎的なAIインフラストラクチャに貢献してきた、世界をリードするAIエキスパートが含まれています。
再発明されたAIインフラストラクチャ: MAXはAIスタックの「最初の原則」に基づく再構築を表し、既存のソリューションの複雑さを、新鮮で効率的なアプローチで解決します。
機能するインフラストラクチャ: MAXは既存のワークフローにシームレスに統合するように設計されており、最先端のテクノロジーを活用するためにモデルの書き換えやハードウェアの専門知識は必要ありません。
MAXは単なるプラットフォームではありません。AIを開発して展開する方法のパラダイムシフトであり、AIエンジニアや組織に将来性のある高性能ソリューションを提供します。MAXにより、AIハードウェアの可能性が完全に引き出され、次世代のAIイノベーションへの道が切り開かれます。





