TOC

一种廉价技术栈方案

博客文章 Steve Hanov's Blog 《How I run multiple $10K MRR companies on a $20/month tech stack》介绍,他运行多个月收入1万美元公司的技术栈以极简和高性价比为核心,每月总成本控制在20美元左右。在极低成本下实现高可用的创业项目,避免过早引入复杂架构和巨额云账单。
PS:其实没有计算一次性购买 GPU 的费用,以及开发工具 GitHub Copilot 的月费。

以下是其技术栈的详细总结:

类型 选型 价格 说明
服务器 Linode / DigitalOcean $5–$10/月 选用廉价可靠的虚拟私有服务器。单台服务器(1GB RAM)足以支撑初期业务,并通过swap文件扩展内存。
后端语言 Go 免费 静态编译为单一二进制文件,部署简单(直接scp到服务器),性能高、内存占用低,且易于LLM理解和维护。
本地AI推理 VLLM(RTX 3090 GPU) 一次性投资约$900 利用本地GPU进行批量AI任务(如文档分析),配合Ollama快速测试模型,Transformer Lab进行微调。
LLM服务 OpenRouter 按请求付费(未透露) 统一接入Claude、ChatGPT等前沿模型,提供OpenAI兼容接口,并支持自动故障转移(如某服务宕机时切换至其他模型)。
开发工具 GitHub Copilot(VS Code) 约$60/月 按请求计费而非按token,可长时间运行复杂代码重构任务而成本固定(约$0.04/请求),性价比高于专用AI IDE。
数据库 SQLite 免费 单文件数据库,启用WAL(Write-Ahead Logging)后支持高并发读写,性能优于远程PostgreSQL,适合初创业务。
部署方式 scp(安全复制) 免费 将Go编译的二进制文件直接复制到VPS运行,无需容器化或复杂CI/CD,简化运维。
前端建议 htmx 免费 博客评论中推荐使用htmx实现轻量级前端交互,避免重型框架。

PS:需要执行 AI 任务的时候,线上服务调用作者本地机器进行 GPU 计算(可能是搞了一个 VPN)。
PS:开启 WAL 模式之后,SQLite 的并发性能会有很大提升。(SQLite WAL 模式

自研库:

类型 说明
身份验证库 smhanov/auth 自研的轻量级认证库,直接集成SQLite等数据库,支持用户注册、会话管理、密码重置及第三方登录(Google、Facebook、X、SAML)。
AI代理工具 smhanov/laconic 针对受限上下文窗口(如8K)优化的代理研究工具,通过“分页”机制管理LLM上下文,保留关键信息以处理长对话。
LLM抽象层 smhanov/llmhub 将本地或云端的LLM统一抽象为简单的provider/endpoint/apikey组合,简化文本和图像IO的调用。
如果你有魔法,你可以看到一个评论框~