リアルタイムBGMシステム(8)

今までの開発環境(Web、Python)では、処理が重くモバイル端末の発熱問題もあったためApple エコシステムで作動するネイティブアプリケーションにプログラムを移行している。筆者にとって初めてのSwift環境での開発となりかなり手こずっている。以下に添付しているデモ動画は、Swiftで物体検出(Yolo v8)を行うだけのシンプルな動画になる。これだけシンプルなアプリでもかなり実装に時間がかかってしまった。

Appleの機械学習フレームワークCore MLとiPhone 16 ProのAIプロセッサNeural Engineの力かわからないが、Web、Pythonとは比べものにならない程処理速度が早いのは驚きだ。とても魅力的な一方で実装レベルはWeb、Pythonと比べものにならない程難しい。シンプルなアプリ設計の実装だと、シンプルで美しい簡潔なコードで記述できる印象だが、複雑な設計になると、一気に難易度が上がる印象がある。筆者のプログラミングスキル不足なだけだが。

しかし処理能力はとても魅力的なので、今後はSwift環境での開発をメインに変更して開発していきたい。アプリのリリースまでどれくらい時間がかかるか分からないが楽しみにしてほしい。

参考:筆者が今までweb、Pythonで実装したアプリ記事

Leave a Reply

メールアドレスが公開されることはありません。 が付いている欄は必須項目です