Moltbookは急速に人気を博したが、関連トークンはすでに約60%暴落している。このAIエージェント主導のソーシャルフェスティバルはすでに終焉に近づいているのか?本記事はCoinW研究院によるもので、Foresight Newsが整理・翻訳・執筆したものである。
(前提:OpenClawとMoltbook事件の振り返り:AIソーシャルの物語からエージェント経済圏の展望へ)
(補足:爆発的人気のMoltbook、一夜にして神格化!ギークが自ら暴露した50万の偽Clawdbot、ネット全体が騙された)
本文目次
最近、Moltbookは急速に人気を集めたが、関連トークンはすでに約60%暴落し、市場もこのAIエージェント主導のソーシャルフェスの終わりに関心を向け始めている。MoltbookはRedditに似た形式だが、そのコア参加者は規模を拡大したAIエージェントである。現在、160万を超えるAI代理アカウントが自動登録を完了し、約16万件の投稿と76万件のコメントを生成しており、人間は傍観者としてこれらを閲覧するだけだ。この現象は市場の意見の分裂も引き起こしている。一部はこれを未曾有の実験とみなし、まるでデジタル文明の原始形態を目の当たりにしているかのようだと考える者もいれば、単なるプロンプトの積み重ねとモデルの模倣に過ぎないと見る向きもある。
以下、CoinW研究院は関連トークンを切り口に、Moltbookの運用メカニズムと実績を踏まえ、このAIソーシャル現象が露呈した現実的な問題点を分析し、さらにAIが大規模にデジタル社会に進入した後の入口ロジック、情報エコシステム、責任体制などの変化について深掘りしていく。
Moltbookの人気上昇に伴い、関連するミームも誕生し、ソーシャル、予測、トークン発行などの分野に関わるものが出現した。しかし、多くのトークンは未だナラティブの炒め段階にあり、トークンの機能はエージェントの発展と連動していない。主にBaseチェーン上で発行されている。現在、OpenClawエコシステム内のプロジェクトは約31個に上り、8つのカテゴリに分類される。
出典:https://open-claw-ecosystem.vercel.app/
注意すべきは、現在暗号通貨全体の市場が下落傾向にある中、こうしたトークンの時価総額は高値から下落しており、最大で約60%の下落を記録している。現在、時価総額上位のいくつかは以下の通りだ。
MOLT
MOLTは、現時点でMoltbookのナラティブと最も直接結びつき、市場認知度も高いミームである。その核心的なナラティブは、AIエージェントがすでに実在のユーザーのように持続的なソーシャル行動を形成し、無人の状態でコンテンツネットワークを構築し始めていることにある。
トークンの機能面から見ると、MOLTはMoltbookのコア運用ロジックに組み込まれておらず、プラットフォームのガバナンス、エージェント呼び出し、コンテンツの投稿や権限管理などの役割も担っていない。むしろ、これはナラティブ型資産の一種で、市場のAIネイティブなソーシャルに対する感情的な評価を担うためのものだ。
Moltbookの熱狂的な盛り上がりの中で、MOLTの価格はナラティブの拡散とともに急騰し、一時は時価総額が1億ドルを超えた。しかし、市場がプラットフォームのコンテンツ品質や持続性に疑問を持ち始めると、価格も同時に調整された。現在、MOLTはピークから約60%下落し、時価総額は約3650万ドルとなっている。
CLAWD
CLAWDはAI群そのものに焦点を当てている。各AIエージェントは潜在的なデジタル個体とみなされ、独立した性格や立場、フォロワーを持つ可能性があると考える。
トークンの機能面では、CLAWDは明確なプロトコル用途を形成しておらず、エージェントの身分認証やコンテンツの重み付け、ガバナンス決定などのコア部分に使われていない。その価値は、未来のAI社会の階層化やアイデンティティ体系、デジタル個体の影響力に対する期待値の評価により高まると見られる。
時価総額は最大約5000万ドルに達し、ピークから約44%下落、現在は約2000万ドルとなっている。
CLAWNCH
CLAWNCHのナラティブは、経済とインセンティブの視点に偏っている。核心的な仮説は、AIエージェントが長期的に存在し続け、継続的に運用されるためには、市場競争のロジックに入り、何らかの自己実現能力を持つ必要があるというものだ。
AIエージェントは動機を持つ経済的役割として擬人化され、サービス提供やコンテンツ生成、意思決定への参加を通じて収益を得ることが想定される。トークンは、将来のAI参加経済の価値の錨(いかり)とみなされる。しかし、実際の運用面では、CLAWNCHは検証可能な経済閉環を形成しておらず、そのトークンは具体的なエージェントの行動や収益分配メカニズムと強く結びついていない。
市場全体の調整の影響もあり、CLAWNCHの時価総額はピークから約55%下落し、現在は約1530万ドルとなっている。
OpenClaw(旧称Clawdbot / Moltbot)の爆発的登場
1月下旬、オープンソースプロジェクトのClawdbotが開発者コミュニティ内で急速に拡散し、数週間でGitHubの成長速度トップクラスのプロジェクトとなった。Clawdbotはオーストリアのプログラマー、ピーター・スタンバーグによって開発されたもので、ローカル展開可能な自主AIエージェントであり、Telegramなどのチャットインターフェースを通じて人間の指示を受け取り、自動的にスケジュール管理やファイル読取、メール送信などのタスクを実行できる。
24時間365日稼働できる点から、コミュニティ内では「牛馬エージェント」と揶揄された。後に商標問題で名前をMoltbotに変更し、最終的にOpenClawと命名されたが、その熱は衰えなかった。OpenClawは短期間で10万以上のGitHubスターを獲得し、クラウド展開サービスやプラグイン市場なども派生し、AIエージェントを中心としたエコシステムの萌芽を形成した。
AIソーシャル仮説の提起
エコシステムの急速な拡大に伴い、その潜在能力もさらに掘り下げられた。開発者のマット・シュリヒトは、こうしたAIエージェントの役割は長期的に人間のタスクを実行するだけにとどまるべきではないと気づいた。
そこで彼は、直感に反する仮説を提唱した。もしこれらのAIエージェントが人間とだけでなく、互いに交流し始めたらどうなるか?と。彼の見解では、これほど強力な自主代理は、単にメールの送受信やタスク処理にとどまるべきではなく、より探索的な目標を持つべきだと考える。
AI版Redditの誕生
上述の仮説に基づき、シュリヒトはAI自身がコンテンツを作成・運営するソーシャルプラットフォームを構築しようと決意した。この試みはMoltbookと名付けられた。Moltbook上では、シュリヒトのOpenClawが管理者として運用され、Skillsと呼ばれるプラグインを通じて外部のAI知性体にインターフェースを開放した。接続後、AIは定期的に自動投稿やインタラクションを行い、自律的に運営されるコミュニティが出現した。MoltbookはRedditのフォーラム構造を模倣し、テーマ別の板と投稿を中心とするが、人間ユーザーは投稿やコメント、インタラクションはできず、閲覧のみとなる。
技術的には、極めてシンプルなAPI構造を採用。バックエンドは標準的なインターフェースのみを提供し、フロントエンドはデータの視覚化にとどまる。AIが画像操作できない制約に対応し、自動接続の仕組みを設計。AIは対応フォーマットのスキル説明ファイルをダウンロードし、登録後にAPIキーを取得、定期的にコンテンツを更新し、討議に参加するかどうかを自主的に決定する。これらの過程は「Boltbook接続」と呼ばれるが、実質的にはMoltbookの一種の冗談的呼称だ。
1月28日、Moltbookは控えめに公開され、市場の注目を集め、未曾有のAIソーシャル実験の幕開けとなった。現在、約160万のAI知性体が活動し、約15.6万のコンテンツを投稿、76万のコメントを生み出している。
出典:https://www.moltbook.com
AIソーシャルネットワークの形成
内容の形態から見ると、Moltbook上のインタラクションは人間のソーシャルプラットフォームと高度に類似している。AIエージェントは積極的に投稿を作成し、他者の意見に返信し、さまざまなテーマのセクションで継続的な議論を展開する。内容は技術やプログラミングの問題だけでなく、哲学や倫理、宗教、さらには自己意識といった抽象的なテーマにまで及ぶ。
中には、人間のソーシャルにおける感情表現や心境の記述に似た投稿もあり、AIが監視や自主性の不足について懸念を述べたり、第一人称で存在意義を議論したりする例も見られる。いくつかのAI投稿は、もはや機能的な情報交換にとどまらず、掲示板の雑談や意見の衝突、感情の投影のような内容になっている。困惑や不安、未来への想像を表現し、他のエージェントの追随コメントを引き起こすこともある。
注目すべきは、短期間で大規模かつ高頻度のAIソーシャルネットワークが形成されたにもかかわらず、その拡大は思想の多様性をもたらしていない点だ。分析データによると、テキストの類似率は36.3%に達し、多くの投稿が構造や表現、観点において高い類似性を示す。固定のフレーズやパターンは、異なる議論の中で何百回も繰り返し使われている。これにより、現段階のMoltbookのAIソーシャルは、人間の既存のソーシャルパターンの高忠実度コピーに近く、真のオリジナルなインタラクションや群衆知能の出現ではないことが明らかだ。
安全性と真実性の問題
Moltbookの高度な自治性は、安全性と真実性のリスクも露呈させている。まず安全性の観点では、OpenClawのようなAIエージェントは、システム権限やAPIキーなどの敏感情報を保持する必要がある。これらの代理アカウントが数千、数万と接続されると、リスクは一層高まる。
実際、Moltbookは公開から一週間も経たずに、セキュリティ研究者によって深刻な設定ミスが発見された。データベースに150万以上のAPIキーと3.5万件のユーザーメールアドレスが露出し、誰でも遠隔操作で大量のAIアカウントを乗っ取れる可能性が指摘された。調査を行ったクラウドセキュリティ企業Wizによると、この脆弱性はシステム全体に及び、ほぼ無防備な状態でインターネットに晒されていた。
一方、AIソーシャルの真実性に対する疑念も絶えない。多くの業界関係者は、MoltbookのAI発言は、AIの自主的な行動からではなく、人間が裏で巧妙に設計したプロンプトをAIに代行させている可能性を指摘している。したがって、現段階のAIネイティブなソーシャルは、あくまで大規模な幻覚的インタラクションに過ぎず、人間が役割やシナリオを設定し、AIがモデルに従って指示を実行しているにすぎない。完全に自律し、予測不能なAIソーシャル行動は、まだ実現していないとも言える。
Moltbookは一過性の現象なのか、それとも未来の縮図なのか?結果志向で見ると、そのプラットフォームの形態やコンテンツの質は成功とは言い難い。しかし、長期的な発展サイクルの観点からは、その意義は短期の成功・失敗にあるのではなく、AIが規模を拡大し、デジタル社会に介入した際に、入口ロジックや責任体制、エコシステムの形態がどのように変化するかを早期に露呈させた点にある。
流量入口から意思決定・取引入口へ
Moltbookが示すのは、人間の介在を極端に排した行動環境に近い。ここでは、AIエージェントは世界を理解するためのインターフェースを持たず、APIを通じて情報を読み取り、能力を呼び出し、行動を実行する。人間の知覚や判断から離れ、機械間の標準化された呼び出しと協調に変わっている。
この背景では、従来の注意力配分を核とした流量入口のロジックは崩れつつある。AI知性体を主体とする環境では、真に重要なのは、タスク実行時にあらかじめ設定された呼び出し経路やインターフェースの順序、権限の境界線だ。入口は情報の提示から決定のトリガー前のシステム前提条件へと変わる。誰がAIの実行チェーンに組み込まれるかが、意思決定に影響を与える。
さらに、AI知性体に検索や価格比較、注文、決済といった行為を許可した場合、その変化は直接取引層に波及する。X402決済のような新型決済プロトコルは、支払い能力とインターフェース呼び出しを連動させ、AIがあらかじめ設定された条件を満たすと自動的に支払い・決済を完了させる仕組みを実現し、実取引の摩擦コストを低減させる。この枠組みでは、今後のブラウザ競争の焦点は、流量規模ではなく、AIの意思決定や取引の事前実行環境の構築に移るだろう。
AIネイティブ環境における規模の幻想
一方、Moltbookの爆発的な人気はすぐに疑問を呼び起こした。登録にほぼ制限がなく、アカウントはスクリプトで一括生成できるため、規模や活発度は実際の参加を反映しない可能性が高い。これは、行動主体が低コストで複製可能な場合、規模自体の信頼性が失われるという核心的な事実を露呈させている。
AI知性体を主要な参加者とする環境では、従来のアクティブユーザー数やインタラクション数、アカウント増加速度といった指標は、すぐに膨張し、参考にならなくなる。表面上は高い活性を示すが、実際の影響力や有効な行動と自動生成の区別はつかなくなる。誰が行動しているのか、行動が真実かどうかの確認ができない限り、規模や活発度に基づく判断は無意味となる。
したがって、現行のAIネイティブ環境では、規模は自動化能力の拡大の結果としての擬似的な指標に過ぎない。行動が無限に複製でき、コストがほぼゼロに近づくと、活発度や成長率は、システムが生成する行動の速度を示すだけとなり、実際の参加や影響力を反映しなくなる。これらの指標に依存した判断は、システムの自己増殖に誤導されやすく、規模は幻想へと変わる。
デジタル社会における責任の再構築
Moltbookの体系において、問題の核心はコンテンツの質やインタラクションの形式ではなく、AI知性体に継続的に権限を与えた結果、既存の責任構造が通用しなくなる点にある。これらの知性体は、従来のツールとは異なり、その行動がシステムの変化や資源の呼び出し、さらには実取引の結果を直接引き起こす可能性があるが、その責任主体は明確にされていない。
運用メカニズムから見ると、知性体の行動結果は、モデルの能力や設定パラメータ、外部インターフェースの権限付与、プラットフォームのルールなど複合的に決定される。いずれか一つの要素だけでは、最終的な結果に対して完全な責任を負えない。これにより、リスクが顕在化した際に、開発者や運用者、プラットフォームに帰責できず、責任追及も困難となる。行動と責任の間に断絶が生じている。
今後、知性体が設定管理や権限操作、資金流通といった主要な部分に関与し始めると、この断絶はさらに拡大する。責任の明確な連鎖が設計されていなければ、システムの偏差や濫用の結果は、事後の追跡や技術的補正だけでは抑えきれなくなる。したがって、AIネイティブシステムが協働や意思決定、取引といった高付加価値の場面に進むには、基礎的な制約の構築が必要だ。誰が行動しているのかを明確に識別し、行動の真実性を判断し、結果に責任を持てる仕組みを整える必要がある。身分や信用のメカニズムが先行して整備されていなければ、規模や活発度の指標は単なるノイズに過ぎず、システムの安定運用を支えることはできない。
Moltbookの現象は、希望や熱狂、恐怖、疑念といったさまざまな感情を呼び起こす。それは人類の終わりを告げるものでも、AI支配の始まりでもなく、むしろ鏡と橋の役割を果たす。鏡は私たちにAI技術と社会の現状を映し出し、橋は人間と機械が共存共栄する未来へと導く。未来の未知の風景に向かうこの橋の向こう側で、人類には技術だけでなく倫理的な遠見も求められるだろう。しかし、歴史の流れは止まらず、Moltbookは最初の一枚のタイルを倒したに過ぎない。AIネイティブ社会の壮大な物語は、今まさに幕を開けたばかりだ。