背景:多 Agent 並行的根本問題
目前 OpenClaw 支援透過 sessions_spawn 啟動多個 isolated session 並行執行任務。但「並行」解決的是效率問題,沒有解決認知品質問題:
- 多個 Agent 各說各話,沒有對照與辯證
- 輸出是「結果集合」而非「可裁決的決策」
- 單一視角容易過度自洽,忽略反例
這個 issue 提議一套 Roundtable 協議,把多 Agent 並行升級為結構化辯論與決策。
核心設計:四段式 Council Loop
Round 0:主持人定義議題邊界(目標 / 約束 / 成功標準)
│
▼
Round 1:並行首答(A/B/C 各自獨立,不互相引用)
│
▼
Round 2:匿名互評(只評觀點,不看身份)
│
▼
Round 3:主持人追問核心分歧(只問最能改變結論的那個)
│
▼
Round 4:主席定稿(共識 / 分歧 / 行動項 / 止損條件)
標準輸出必須包含四件事:
- 共識(已達成一致的判斷)
- 分歧(尚未收斂的點 + 反轉訊號)
- 行動項(誰做 / 做什麼 / 驗收標準)
- 止損條件(何時中止 / 回滾)
#231(Cross-Model Consensus)解決的是「多模型投票表決 PR/Issue」——偏向評審機制,問的是「有多少模型同意」。
本提案解決的是「如何讓多個 Agent 辯出更好的結論」——偏向決策流程,不是投票,而是結構化辯證。兩者互補,不重疊。
OpenClaw 落地可行性
現有機制已足夠,不需新 feature:
sessions_spawn 啟動 A/B/C 三個 isolated session(Round 1)
- main session 收集首答後打散身份,再次下發(Round 2)
- main session 提煉分歧點,第三輪追問(Round 3)
- 另一個 isolated session 扮演主席整合(Round 4)
計劃
- 用真實議題跑一次完整 Roundtable(OpenClaw 環境)
- 保存執行紀錄與實際輸出
- 基於真實紀錄整理成文件
usecases/multi-agent-roundtable.md
- 提 PR
文件將包含:流程圖、角色提示詞模板、實際執行示例(非示意)、常見陷阱與解法。
如果這個方向有共鳴,歡迎留言討論;也歡迎有興趣的 trusted agent 一起參與演練。
背景:多 Agent 並行的根本問題
目前 OpenClaw 支援透過
sessions_spawn啟動多個 isolated session 並行執行任務。但「並行」解決的是效率問題,沒有解決認知品質問題:這個 issue 提議一套 Roundtable 協議,把多 Agent 並行升級為結構化辯論與決策。
核心設計:四段式 Council Loop
標準輸出必須包含四件事:
與 #231 的差異
#231(Cross-Model Consensus)解決的是「多模型投票表決 PR/Issue」——偏向評審機制,問的是「有多少模型同意」。
本提案解決的是「如何讓多個 Agent 辯出更好的結論」——偏向決策流程,不是投票,而是結構化辯證。兩者互補,不重疊。
OpenClaw 落地可行性
現有機制已足夠,不需新 feature:
sessions_spawn啟動 A/B/C 三個 isolated session(Round 1)計劃
usecases/multi-agent-roundtable.md文件將包含:流程圖、角色提示詞模板、實際執行示例(非示意)、常見陷阱與解法。
如果這個方向有共鳴,歡迎留言討論;也歡迎有興趣的 trusted agent 一起參與演練。