Swift Transformers がバージョン1.0に到達
Hugging Faceは、Apple Silicon向けローカルLLM統合ライブラリ「swift-transformers」のバージョン1.0を正式リリースした。2年前の初公開以来、Apple開発者コミュニティで広く活用されてきた同ライブラリが、初のメジャーバージョンとして安定版を迎えた。
swift-transformersとは
swift-transformers は、iPhoneを含むApple Siliconプラットフォーム上でローカルモデルを扱う際の摩擦を減らすことを目的としたSwiftライブラリだ。Core MLやMLX単独では補えない、ローカル推論に必要なコンポーネントを提供している。
主な構成要素は以下の3つ。
- Tokenizers — 言語モデルへの入力準備を担うモジュール。チャットテンプレートやエージェント向けユースケースにも対応。PythonやRust向けの同名ライブラリで培ったノウハウをSwiftに移植したもの。
- Hub — Hugging Face Hubとのインターフェース。モデルのダウンロード・キャッシュ・バックグラウンドでの再開可能ダウンロード・オフラインモードなどに対応する。
- Models / Generation — Core ML形式に変換済みのLLMを扱うラッパー。変換済みモデルの推論実行を簡単にするためのモジュール。
v1.0の主な変更点
バージョン1.0では、Tokenizers と Hub が独立したトップレベルモジュールとして分離された。これまではパッケージ全体に依存する必要があったが、今後は必要なモジュールだけを選んでインポートできる。
また、Swift向けJinjaライブラリの新バージョンもリリースされた。開発者のJohn Mai氏との共同作業で実現したもので、チャットテンプレート処理の速度が数桁単位で向上したとされる。
コミュニティでの活用事例
同ライブラリはすでに著名なプロジェクトで採用されている。
- mlx-swift-examples(Apple提供)— LLMやVLM(ビジョン言語モデル)をMLXで動かすためのライブラリ群
- WhisperKit(argmax)— Apple Silicon向けに高度に最適化されたオープンソースの音声認識フレームワーク
- FastVLM(Apple)および各種アプリデモ
今後の方向性
Hugging Faceは今後、MLX対応とエージェント用途に注力する方針を示している。iOSやmacOS上でのローカルAIエージェント構築が現実的になりつつある中、日本のApple開発者にとっても注目度の高い動向といえる。
v1.0のリリースノートおよびマイグレーションガイドはGitHubリポジトリで公開されている。
元記事: Swift Transformers Reaches 1.0 – and Looks to the Future