RXやRAファミリのAI推論を10倍以上高速化 CMSISライブラリに対応したe-AI Translator V2.2.0をリリース
「組み込みシステムでAIを活用する際に推論速度が高速なら、従来のプログラムにAI機能を追加できるのに」こんなお悩みをよく伺います。 このような課題の解決に適応したe-AIトランスレータ V2.2.0を3月31日にリリースしました。 “TensorFlow Lite”によって8bit量子化されたAIの学習済みモデルに対し、RX、RAファミリが内蔵するDSPやARM CMSISライブラリを活用することで、従来比10倍以上の速度での推論が可能です。