Skip to content

配置说明

Omelette 通过环境变量配置。复制 .env.example.env 并修改。

应用

变量说明默认
APP_ENVdevelopment / production / testingdevelopment
APP_DEBUG调试模式true
APP_HOST后端监听地址0.0.0.0
APP_PORT后端端口8000

数据库

变量说明默认
DATABASE_URLSQLite 连接串sqlite:///./data/omelette.db

数据存储

变量说明
DATA_DIRPDF、OCR、ChromaDB 根目录
PDF_DIRPDF 存储(默认 {DATA_DIR}/pdfs)
OCR_OUTPUT_DIROCR 输出(默认 {DATA_DIR}/ocr_output)
CHROMA_DB_DIRChromaDB 路径(默认 {DATA_DIR}/chroma_db)

LLM 提供商

LLM_PROVIDER 可选:openaianthropicaliyunvolcengineollamamock

OpenAI

变量说明
OPENAI_API_KEYOpenAI API Key
OPENAI_MODEL模型名(默认 gpt-4o-mini)

Anthropic

变量说明
ANTHROPIC_API_KEYAnthropic API Key
ANTHROPIC_MODEL模型名(默认 claude-sonnet-4-20250514)

阿里云百炼

变量说明
ALIYUN_API_KEY阿里云 API Key
ALIYUN_BASE_URLOpenAI 兼容端点
ALIYUN_MODEL模型名(如 qwen3.5-plus)

火山引擎豆包

变量说明
VOLCENGINE_API_KEY火山引擎 API Key
VOLCENGINE_BASE_URLOpenAI 兼容端点
VOLCENGINE_MODEL模型名

Ollama(本地)

变量说明
OLLAMA_BASE_URLOllama 服务地址(默认 http://localhost:11434
OLLAMA_MODEL模型名(默认 llama3)

Mock

使用 LLM_PROVIDER=mock 可在无 API Key 下测试,无需额外变量。

嵌入

变量说明默认
EMBEDDING_PROVIDERlocal / api / mocklocal
EMBEDDING_MODEL模型名(local 用 HuggingFace;api 用 OpenAI 兼容)BAAI/bge-m3
  • local:使用 sentence-transformers,自动检测 GPU
  • api:使用 OpenAI 兼容嵌入 API
  • mock:确定性 mock,用于测试

GPU

变量说明默认
CUDA_VISIBLE_DEVICESOCR/嵌入使用的 GPU ID(逗号分隔)0,3

代理

变量说明
HTTP_PROXYHTTP 代理 URL
HTTPS_PROXYHTTPS 代理 URL

外部 API

变量说明
SEMANTIC_SCHOLAR_API_KEY可选,提高 Semantic Scholar 限速
UNPAYWALL_EMAILUnpaywall PDF 查询所需

前端设置

LLM 提供商、模型、温度、API Key 等可在 Web 界面的 设置 页面(/settings)配置。这些设置会覆盖环境变量,按用户存储在数据库中,用于在不修改 .env 的情况下进行个性化配置。

Released under the MIT License.