# ── 磁碟掛載路徑 ──────────────────────────────────────────────────────────────
# Docker volume 的 host 端根目錄（所有容器資料都存在這裡）
# Linux/macOS: /opt/agentic-research/data
# Windows:     C:/docker_data/agentic-research
#VOLUME_BASE_DIR=./data
VOLUME_BASE_DIR=./data

# ── PostgreSQL ────────────────────────────────────────────────────────────────
POSTGRES_USER=agentic-postgres-user
POSTGRES_PASSWORD=agentic-postgres-pwd
POSTGRES_DB=agentic-research
DATABASE_URL=postgresql://agentic-postgres-user:agentic-postgres-pwd@postgres:5432/agentic-research

# ── Planka ────────────────────────────────────────────────────────────────────
BASE_URL=http://localhost:7002
# 產生方式：openssl rand -hex 32
SECRET_KEY=
DEFAULT_ADMIN_EMAIL=agentic@local.dev
DEFAULT_ADMIN_PASSWORD=agentic-planka-pwd
DEFAULT_ADMIN_NAME=Agentic Admin
DEFAULT_ADMIN_USERNAME=agentic-admin

# 呼叫 Planka API 的 URL
# CLI（agentic-research init-planka-board）從 host 執行時使用
PLANKA_API_URL=http://localhost:7002
# agentic-framework-api container 內部走 Docker 網路呼叫 Planka
# 通常不需要改，除非你改了 docker-compose.yml 的 service 名稱
PLANKA_INTERNAL_URL=http://planka:1337
# 啟動後從 Planka UI → Account Settings → Access Token 取得
PLANKA_TOKEN=
# 從 Board URL 取得：http://localhost:7002/board/<BOARD_ID>
PLANKA_BOARD_ID=

# ── MinIO ─────────────────────────────────────────────────────────────────────
MINIO_ROOT_USER=agentic-minio-user
MINIO_ROOT_PASSWORD=agentic-minio-pwd

# ── LLM 整合 ─────────────────────────────────────────────────────────────────
# 支援兩種模式：
#   cli = 使用已安裝的 CLI 工具（需在 container 內完成登入）
#   api = 直接使用 API Key（無需 CLI 登入）
#
# LLM_CHAIN：指定 provider，逗號分隔，依序 fallback
# 可用值：claude-cli, claude-api, gemini-cli, gemini-api, openai-api, local
LLM_CHAIN=claude-cli

# --- CLI 模式（LLM_CHAIN 含 claude-cli / gemini-cli）---
# CLI credential 目錄會從 host mount 進 container（唯讀），無需在 container 內重新登入
# Windows 範例：C:/Users/<username>/.claude
# Linux/Mac 範例：~/.claude（預設值，可省略）
LOCAL_CLAUDE_CONFIG_DIR=~/.claude
CLAUDE_CONFIG_DIR=/root/.claude

LOCAL_GEMINI_CONFIG_DIR=~/.gemini
GEMINI_CONFIG_DIR=/root/.gemini

LOCAL_CODEX_CONFIG_DIR=~/.codex
CODEX_CONFIG_DIR=/root/.codex

# --- API 模式（LLM_CHAIN 含 claude-api / gemini-api / openai-api）---
ANTHROPIC_API_KEY=
OPENAI_API_KEY=
GEMINI_API_KEY=

# --- 本地 LLM（LLM_CHAIN=local，需先在 host 啟動 Ollama）---
LOCAL_LLM_ENDPOINT=http://host.docker.internal:11434
LOCAL_LLM_MODEL=llama3.2
