2025年11月5日〜7日にかけて虎ノ門ヒルズフォーラムで開催された「Claris カンファレンス 2025」。キーノートセッションに登壇したClarisのロニー・リオスさんに、Clarisプラットフォームが事業継続性に果たす役割や新たなAI連携機能、Clarisの考えるAIとの向き合い方、新たな時代へのアプローチについて話を聞きました。

ロニー・リオス さん
Appleリテール部門においてビジネスクライアントへの技術支援や社内システム開発に携わり、2013年よりClarisのプロダクトマネージャーに就任。25年を超えるコンサルティングおよびデータベース開発の経験を背景に、先進技術、AI連携、アプリ設計に関する深い専門知識でClarisプラットフォーム全体のイノベーションを牽引。
高まるClarisプラットフォームとAI連携への期待
──今年も「Clarisカンファレンス 2025」が始まりましたが、イベント初日を振り返っての感想をお聞かせください。
一言で言えば「最高です」。このコミュニティがどれだけ温かくて活気があるかという話を、以前からずっと聞いていました。昨年初めて来日した際にもその温かさを実感できましたが、今年はさらに皆さんの“ワクワク”を肌で感じています。
また、FileMakerの新機能、特にAI連携について会場全体の期待感がいっそう高まっていると感じます。昨年のカンファレンスではAI関連のセッションは2つ程度だったかと思いますが、今年はAI関連セッションの数が大幅に増えています。
アプリを作りたいデベロッパーにとっても、ビジネス側での活用を考えている皆さんにとっても、「どのようにAIを使うか」を真剣に考え始めていることが伝わってきます。
──オープニングキーノートでは、ライアン・マッキャンCEOに続き、ロニーさんからもAIの新機能の紹介がありました。会場の皆さんからの反響はいかがでしたか。
とても多くのポジティブな反応をいただきました。セッション後には直接声をかけてくださる方も多く、「ClarisのAI投資の方針」や「AIをどう捉え、どう提供しようとしているのか」という点に深く共感していただけたように感じています。
なかでも、いかにプライバシーを守り、安全性を確保しつつ、現場で本当に役立つ「実践的なAI」にするのか。そして、それがFileMakerらしいやり方で実現されているかという点を、しっかりと見てくださったと受け止めています。


業務システムを止めず、データを最短で復元する
──FileMaker 2025の新機能で、特に印象に残ったのが「事業を継続するためのセキュリティ対応」です。日本でもいま、セキュリティと事業継続性(BCP)は大きなテーマになっていますが、今回そのあたりを大きな柱として打ち出された狙いを、改めて教えていただけますか。
私たちは日頃からお客様とお話しするなかで、FileMakerがクラウドやオンプレミスのプラットフォームとして、お客様の「業務の中核」を支えていることを強く意識しています。
現代において業務システムが止まるということは、単に「時間のロス」ではなく、「ビジネスの機会損失」や「お金の損失」につながります。だからこそ、多くのお客様がシステム障害やサイバー攻撃、災害からの復旧やダウンタイムの短縮について、真剣に考えておられます。
私たちClarisとしては、お客様ができるだけ早く業務を再開し、プラットフォームを使い続けられるようにすることが、もっとも大切だと考えています。そのために、システムを止めないための「スタンバイサーバ」や、迅速にデータを復旧させるための「リモートバックアップ」などの機能を強化してきました。
これは日本だけのテーマではなく、世界共通の課題です。お客様やパートナーの皆さんからの要望やアドバイスを踏まえながら、ミッションクリティカルな業務を支えるプラットフォームとして、安定性と復旧性を高める取り組みを続けていきます。
──法的な規制が強い産業や公的なセクターにおいては、高い「信頼」が求められますね。
もちろんです。特に日本では、FileMakerのお客様の約25%が医療関係だと把握しています。キーノートでもライアンCEOから、札幌市消防局様における救急搬送のDX化の事例を紹介しました。
また、交通インフラの分野でも小田急電鉄様などに積極的に採用いただいており、特にコロナ禍以降は、社会インフラを支えるシステムとしてのFileMakerの重要性はとても大きくなっています。
──セキュリティ機能も、さらに強化されていましたね。
近年はIAP(Identity-Aware Proxy)などを用いてゼロトラストネットワークを構築する企業も増えています。つまり、安全なネットワークは存在しないという前提で、必要な人だけが限られたデバイスで、許可されたアプリのみ実行できるという考え方です。FileMakerプラットフォームでは、このような考え方に対応しつつ、外部の認証サービスと連携したシステムを構築することも可能です。

[URL]https://www.claris.com/ja/customers/stories/sapporo119
ローカルAIの可能性とMacという選択肢
──AI関連では、オンプレミスの「Claris FileMaker Server」でローカルLLMを単独で実行・管理できる新機能の先行プレビューが印象的でした。
ここ数年、私たちはAIをどのようにプロダクトに組み込むべきかを検討しながら、お客様やパートナーと継続的にフィードバックサイクルを回してきました。その中で一貫して出てきたメッセージが、「AIは使いたい。ただし、何よりもデータの保護とプライバシー・安全性が確保されていなければならない」という点です。
実際に、約2年前からAIに関するさまざまな検証を行ってきましたが、業務上の重要なデータを扱う以上、お客様が「このデータは守られている」と納得できる形でAIを導入する必要があります。その答えのひとつが「ローカルで動くAI」でした。
ローカルであれば、データがどこに行き、どのように扱われるのかを完全にコントロールできます。さらに、お客様にとってプライバシーと安全性を担保するということは、「どのような選択肢を持てるか」を意味します。
たとえば、目的によってクラウドのAIモデルを選ぶこともあれば、完全にローカルで運用することもあるでしょう。重要なのは、ローカルであれクラウドであれ、「データが外部に勝手に漏れないように自分たちで制御できること」です。そのコントロールが保証されて初めて、安心してAIを業務に導入していただけると考えています。
──もしローカルでAIモデルを利用するとなると、最低限どのくらいのスペックのサーバが必要になるのでしょうか。
私たちはマルチプラットフォームの会社ですので、AIサーバもさまざまなプラットフォームで運用できるようにしています。その中でもMacはローカルAIのプラットフォームとして非常に柔軟性が高く、素早く、そして驚くほど簡単に環境を構築できるという印象を持っています。
実際に、FileMaker ServerをインストールしてローカルAIサーバを立てる作業は短時間で行えます。米国での開発者会議の場で、「(ロニーの)プレゼンを聞いている間に、実際にインストールしてもう動かせるようになった」という声をいただいたときは、最高の褒め言葉だと感じました。
ハードウェアの要求性能はOSにより異なりますが、Macでは「Gemma 3」の12Bクラスの比較的小規模なAIモデルの運用やチューニングであれば、32GB以上のメモリを推奨しています。それよりも大きなAIモデルを快適に使うには、64〜96GB以上のメモリが必要になる場合があります。
──以前のライアンCEOの予告どおりMCP(Model Context Protocol)サーバへの対応も紹介されましたが、提供開始時期の見通しはいかがでしょうか。
MCPについては、私たちも非常に楽しみにしている領域ですのでなるべく早い時期に提供を開始したいです。FileMakerが各企業のビジネスインテリジェンスの中核にあるとすれば、そこからさらに多くの外部サービスやデータとつながる余地が生まれるからです。
MCPを通じて、すでに社内で蓄積されているビジネスデータやビジネスロジックに、AIという新しい命を吹き込めるのではないかと期待しています。
──たとえば、MCPをどのように活用してほしいと考えていますか。
私が特にワクワクしているのは、「ハイパーパーソナライゼーション」と呼ばれる領域です。AIによってカスタマイズのレベルが一段変わることで、これまでできなかったような“個別最適”が可能になると期待できるからです。
たとえば、私にはダッシュボードの画面をこのように見たいという好みがありますが、同僚であっても同じ画面を「見にくい」と感じるかもしれません。その場合、同じデータでも、それぞれ異なる見せ方が必要になってきます。
現在でもFileMakerでは業種ごとにテーラーメイドなソリューションを提供していますが、ここにAIを組み込むことで、より個人の好みや状況に合わせて情報の表示やコミュニケーションのスタイルを最適化できます。このユーザー体験の向上こそが、「ハイパーパーソナライズされたソリューション」の方向性だと考えています。
“Clarisらしい”安全なAI活用の姿とは
──データベースをAIで活用すると聞くと、安全性やハルシネーションの対策も気になります。
技術的な観点からお答えすると、私たちは自然言語で問い合わせをするときに、テーブルスキーマ(テーブル構造を定義した設計図)を「文脈」としてAIモデルに渡すようにしています。
つまり、テーブルやフィールドの構造情報を使って、「どのようなデータ構造の上で問い合わせが行われているか」をAIモデルに理解させることで、デタラメな答えを生成しにくくする工夫をしています。
さらに、実際に送信するのは「すべてのデータ」ではなく、「スキーマ情報」が中心です。スキーマとごく一部の情報だけを送り、その制約の中でモデルが答えを組み立てるようにしているので、ハルシネーションの可能性はかなり抑えられているはずです。
データの扱い方にはかなり注意を払っていますので、その点は引き続き丁寧にお伝えしていきたいと思います。
──日本語特有の難しさ、たとえば「〜しないわけではない」のような二重否定を、単なる否定と誤って解釈してしまうことはありませんか。
自然言語の質問にそのまま答えさせるだけでは、日本語特有の表現が原因で、微妙にニュアンスの違う結果を返してしまう可能性はあります。
そのため、日本語の取り扱いや評価のしかたも含めて、モデルの振る舞いをきちんと設計していく必要があると考えています。
──最後に、日本の開発者やパートナー企業、そしてユーザ企業の方々に向けて、メッセージをいただけますか。
今日のインタビューでいただいた質問や、コミュニティの皆さんからの日頃の質問を振り返ってみると、ひとつの共通したテーマが見えてきます。それは、「AIが約束していること」と「実際に現場で起きていること」の間に、かなりギャップがあるということです。
「AIによって未来がすべて魔法のように変わるのではないか」と期待する声がある一方で、「AIのせいで開発者の仕事がなくなるのではないか」と不安に感じている方もいます。私たちは、そのどちらにも偏りすぎない「実践的な使い方」が大事だと考えています。
今は本当に、FileMakerのデベロッパーにとってワクワクする時代が始まっています。プラットフォームそのものも進化していますし、AIや周辺サービスとの連携によって、皆さんがお客様に提供できるソリューションの幅は、これからさらに広がっていくはずです。
そのために、有益なかたちでソリューション提供を支えていくことが私たちの責任ですし、そこにこれからも注力していきます。

著者プロフィール
栗原亮(Arkhē)
合同会社アルケー代表。1975年東京都日野市生まれ、日本大学大学院文学研究科修士課程修了(哲学)。 出版社勤務を経て、2002年よりフリーランスの編集者兼ライターとして活動を開始。 主にApple社のMac、iPhone、iPadに関する記事を各メディアで執筆。 本誌『Mac Fan』でも「MacBook裏メニュー」「Macの媚薬」などを連載中。







![アプリ完成間近! 歩数連動・誕生日メッセージ・タイマー機能など“こだわり”を凝縮/松澤ネキがアプリ開発に挑戦![仕上げ編]【Claris FileMaker 選手権 2025】](https://macfan.book.mynavi.jp/wp-content/uploads/2025/10/IMG_1097-256x192.jpg)