Docker 一键部署,接入您自己的 LLM,开始生成测试
docker compose up -d
没有 Docker?也可以直接下载 CLI:
curl -fsSL https://heapstack.pro/install.sh | sh
编辑 .env 文件,填入您的 LLM API 配置:
LLM_API_URL=https://your-llm-api.com/v1
LLM_API_KEY=sk-xxx
支持 DeepSeek、通义千问、OpenAI、Azure OpenAI、本地 Ollama 等。推荐 DeepSeek,性价比最高。
Docker 方式已自动启动,跳过此步。
手动方式:
set -a && source .env && set +a
java -jar heapstack-server.jar
进入您的 Java 项目目录,执行:
cd /path/to/your/java/project
hs login --api-url=http://localhost:9080
hs init
hs gen --auto
测试代码生成在 xxx-hs/src/test/java/ 下。直接 mvn test 就能跑。
就这么简单。hs gen --auto 会自动扫描项目、发现值得测的方法、逐条路径生成测试并验证。
任何 OpenAI 兼容 API:DeepSeek、通义千问、OpenAI、Azure OpenAI、本地 Ollama/vLLM 等。
Java 8 到 Java 21。
JUnit 3、JUnit 4、JUnit 5 全支持。
当前仅支持 Maven 项目。多模块 Maven 项目会自动识别。
完全本地运行,不连接外部服务。代码不出内网,LLM 也由您自行配置。金融、政务、医疗都能用。