Mac業界の最新動向はもちろん、読者の皆様にいち早くお伝えしたい重要な情報、
日々の取材活動や編集作業を通して感じた雑感などを読みやすいスタイルで提供します。

Mac Fan メールマガジン

掲載日:

“話すだけ”でミニアプリが作れるAIデバイス「Rabbit r1」。新機能を徹底レビュー

著者: 大谷和利

“話すだけ”でミニアプリが作れるAIデバイス「Rabbit r1」。新機能を徹底レビュー

AIネイティブデバイスの「Rabbit r1」のrabbitOSが、Ver. 2へとアップデートが行われた。

同社のJesse Lyu(ジェシー・リュー)CEOのインタビュー内でも予告されていたように、アップデートによってUIが一新されるとともにAIとの会話によるバイブコーディング、および出来上がったミニアプリを実行する機能が追加された。

本記事では、新UIの紹介とともに、creationsと呼ばれるバイブコーディング機能を実際に使ってミニアプリを開発・実行し、その使い心地を検証していく。

カードベースでタッチ操作が可能となったUI

まず、Rabbit r1にはスクリーンショット機能がないため、画面イメージが必要な場合には、以前から自作の撮影スタンドを3Dプリントして使っていた。しかし、そのスタンドはiPhone 14 Pro Maxに合わせて設計したものだったので、今回は、それを現在の愛機であるiPhone Airに合わせて改変したものを利用することにした。

いきなりライター目線での要望だが、次のメジャーアップデートでは、ぜひスクリーンショット機能も実装してもらえるとありがたい。

スクリーンショット機能がないRabbit r1のための画面撮影スタンドをアップデートし、iPhone Airのカメラ位置と画角に合うようにした。なお画面撮影では、実際の色味と異なる発色になっているところがあるが、実際のRabbit r1の画面表示はピクセルが目に見えないほど滑らかで色鮮やかだ。

本題に入って、rabbitOS 2では最初の起動時に、操作方法を説明する画面が表示されるようになった。

また、これまでAIに対するボイスコマンドで呼び出していた録音機能なども含め、基本機能(カメラ、マジックギャラリー[写真アルバム]、タイマー、翻訳、リマインダー、アラーム)をカードベースのタッチインターフェイスによって起動できるようになっている。

AIとの会話で処理を完結するという元々のRabbit r1の理念からすると後退したようにも思えるが、従来どおりに声による呼び出しも可能だ。そのため、初心者にとっては、どのような基本機能を使えるかが一目でわかり、より使いやすくなったといえるだろう。

rabbitOS 2では、最初に使う際に操作方法のチュートリアルが表示されるようになった。基本的には、ボタンをプッシュしてAIと会話し、2回のプッシュでカメラ起動、スワイプとタッチで機能選択を行う。
r-cade(ホーム画面に表示されるキャラクターの着せ替えツール)は引き継がれ、これを含む基本機能はカードベースのメニューからタッチ操作で選択できる仕組みになった。中でも、AIとの会話でアプリを作って実行できるcreations機能はrabbitOS 2の目玉機能といえる。




「必要なアプリは作ればよい」という発想

Rabbit r1には、いわゆるスマートフォンのアプリストアのようなサービスは用意されていない。たとえば、天気が知りたいとすると、AIに質問して回答を得れば済むので、専用アプリは不要という考えなのだ。しかし、そうはいっても、よく使う機能であればワンタッチで呼び出せるに越したことはなく、そうするとその機能をパッケージ化したアプリが必要になってくる。

ある意味で、この矛盾を解決する手段が、ユーザが自分の必要な機能をAIとの会話によってミニアプリにまとめられる「creations機能」だといえる。

ちなみに、Rabbit r1の基本機能や通常のAI機能は無料で使えるが、creations機能と、その元になっているAIエージェントの「intern機能」は、クレジット制になっている。intern機能では、ユーザの指示に応じてAIがリアルタイムで仕様を詰め、途中でプレビューを確認しながら修正を加えていけるのが特徴だ。

すべてのユーザには3回分のクレジットが無償提供されるが、その後は、3タスクあたり29.99ドルで購入するか、ひと月ごとにリセットされる30タスクが与えられるサブスクリプションプランに69.99ドル/月で加入する必要がある。

他のユーザが作成したアプリの閲覧、利用も

生成されたアプリはJavaScriptベースで、自動的にホスティングも行われ、Rabbit r1自体にインストールしたり、コンピュータ上のポータルであるrabbitholeからURLやQRコード経由で共有することも可能となっている。

また、Rabbit r1のcreationsを選択してpublicタブを選ぶと、他のユーザが公開しているミニアプリのリストが表示され、そこから必要なものをインストールしてmanageタブから利用することが可能だ。現在、ゲームやネット動画のビューワー、ビデオ撮影、地図、ワークアウトトラッカーなどのミニアプリが公開されている。

creationsのpublicタブを選択すると他のユーザがバイブコーディングしたミニアプリをインストールして実行できる。たとえば、ネットで公開されている世界のテレビ番組やニュース、インタラクティブに拡大・縮小できるフラクタル図形のマンデルブロ集合、チェスなどのミニアプリを無料で利用することが可能だ。




AIと会話して実際にミニアプリを作ってみる!

そこで、筆者も、「天候に応じた適切な服装を、ユニクロのサイトからピックアップして提案するミニアプリ」を作ってみることにした。以下に、その際のAIとの会話を記録した動画があるので、聞いてみてほしい。

都市を指定すると、ネット上から天気や気温を取得し、気温に応じて半袖、長袖、上着の有無などを判断するように指示しているが、AIが、必要と思われる情報を逐次質問して、ミニアプリの仕様を詰めていく過程がよくわかるはずだ。

「天候に応じた適切な服装を、ユニクロのサイトからピックアップして提案するミニアプリ」をバイブコーディングするための、Rabbit r1のAIと筆者との会話

バイブコーディングの入門機としての意義

AIが、ミニアプリのコーディングに必要な情報を集め終わると、rabbithole上で実際のコーディングが開始された。そして、数分から十数分程度でミニアプリができあがる。

自分のcreationは自動的にRabbit r1にインストールされて実行可能となるので、開いてみると、都市名の入力フィールド、性別の選択メニュー、大人か子どもの選択メニューが表示されていた。そして、最下段のボタンをタップすると、適切と思われる服がイメージ付きで提案された。

しばらくしてrabbitholeで確認すると、整理された会話の内容に基づいてAIがコーディングを行い、ミニアプリが生成されていることがわかる。
同時に、Rabbit r1側でもそのミニアプリが実行可能となる。実際に都市名などを適宜設定してみると、気温5度でところどころ曇りの札幌市と、気温21度で晴れの沖縄市では、提案される服が異なっていた。

このミニアプリではボタン名が「天気を確認」になっているなど、細かい不備がある。しかし、creations機能で生成されたミニアプリのコードを変更する機能は用意されていない。もし修正する場合には、再度、creations機能を使って作り直すことになる。

これを回避するには、途中でプレビューしながら生成プロセス中にコードの改善が行えるintern機能を使う方法があり、Rabbit r1コミュニティでも、クレジット消費を抑えるやり方として紹介されている。しかし、最終的な成果物を後から修正する方法は提供されておらず、ミニアプリを段階的に改良していくには向いていない。

たとえば、Swift Playgroundsと外部の生成AIサービスを利用すれば、Appleの環境でもバイブコーディングによるアプリ開発からデバッグまでが可能である。

しかし、Rabbit r1のcreationsは「話す → コード生成 → 実行&配布」までがワンセットで完結している点で、ユーザ体験が大きく異なる。Rabbit r1のユーザならば、バイブコーディングの面白みを手軽に味えるという意味で、まず無料クレジットの範囲内で試してみる価値は大いにあるといえるだろう。

著者プロフィール

大谷和利

大谷和利

1958年東京都生まれ。テクノロジーライター、私設アップル・エバンジェリスト、神保町AssistOn(www.assiston.co.jp)取締役。スティーブ・ジョブズ、ビル・ゲイツへのインタビューを含むコンピュータ専門誌への執筆をはじめ、企業のデザイン部門の取材、製品企画のコンサルティングを行っている。

この著者の記事一覧

×
×