博客文章 Steve Hanov's Blog 《How I run multiple $10K MRR companies on a $20/month tech stack》介绍,他运行多个月收入1万美元公司的技术栈以极简和高性价比为核心,每月总成本控制在20美元左右。在极低成本下实现高可用的创业项目,避免过早引入复杂架构和巨额云账单。
PS:其实没有计算一次性购买 GPU 的费用,以及开发工具 GitHub Copilot 的月费。
以下是其技术栈的详细总结:
| 类型 | 选型 | 价格 | 说明 |
|---|---|---|---|
| 服务器 | Linode / DigitalOcean | $5–$10/月 | 选用廉价可靠的虚拟私有服务器。单台服务器(1GB RAM)足以支撑初期业务,并通过swap文件扩展内存。 |
| 后端语言 | Go | 免费 | 静态编译为单一二进制文件,部署简单(直接scp到服务器),性能高、内存占用低,且易于LLM理解和维护。 |
| 本地AI推理 | VLLM(RTX 3090 GPU) | 一次性投资约$900 | 利用本地GPU进行批量AI任务(如文档分析),配合Ollama快速测试模型,Transformer Lab进行微调。 |
| LLM服务 | OpenRouter | 按请求付费(未透露) | 统一接入Claude、ChatGPT等前沿模型,提供OpenAI兼容接口,并支持自动故障转移(如某服务宕机时切换至其他模型)。 |
| 开发工具 | GitHub Copilot(VS Code) | 约$60/月 | 按请求计费而非按token,可长时间运行复杂代码重构任务而成本固定(约$0.04/请求),性价比高于专用AI IDE。 |
| 数据库 | SQLite | 免费 | 单文件数据库,启用WAL(Write-Ahead Logging)后支持高并发读写,性能优于远程PostgreSQL,适合初创业务。 |
| 部署方式 | scp(安全复制) | 免费 | 将Go编译的二进制文件直接复制到VPS运行,无需容器化或复杂CI/CD,简化运维。 |
| 前端建议 | htmx | 免费 | 博客评论中推荐使用htmx实现轻量级前端交互,避免重型框架。 |
PS:需要执行 AI 任务的时候,线上服务调用作者本地机器进行 GPU 计算(可能是搞了一个 VPN)。
PS:开启 WAL 模式之后,SQLite 的并发性能会有很大提升。(SQLite WAL 模式)
自研库:
| 类型 | 库 | 说明 |
|---|---|---|
| 身份验证库 | smhanov/auth | 自研的轻量级认证库,直接集成SQLite等数据库,支持用户注册、会话管理、密码重置及第三方登录(Google、Facebook、X、SAML)。 |
| AI代理工具 | smhanov/laconic | 针对受限上下文窗口(如8K)优化的代理研究工具,通过“分页”机制管理LLM上下文,保留关键信息以处理长对话。 |
| LLM抽象层 | smhanov/llmhub | 将本地或云端的LLM统一抽象为简单的provider/endpoint/apikey组合,简化文本和图像IO的调用。 |