crewAI 部署形态:本地、Docker、K8s 与 Serverless 化实践
crewAI 部署形态本地、Docker、K8s 与 Serverless 化实践本文基于 crewAI v1.11.0全面覆盖从本地开发到企业级部署的完整实践方案。一、部署复杂度的阶梯crewAI 项目的部署需求随规模增长呈阶梯式上升Stage 1本地开发 └── crewai run / python main.py └── 单机调试为主 Stage 2容器化 └── Docker 打包可在任何环境一致运行 └── 解决在我机器上能跑问题 Stage 3容器编排 └── Kubernetes 部署 └── 高可用、自动扩缩容、资源管理 Stage 4Serverless └── AWS Lambda / Cloud Functions └── 按需运行零维护成本最优不同业务场景选择不同的部署形态没有最好只有最合适。二、本地开发模式2.1 标准运行方式# 进入项目目录cdmy_research_crew# 确保环境变量已配置cat.env# OPENAI_API_KEYsk-...# 运行 Crewcrewai run# 带参数运行在 main.py 中读取命令行参数python src/my_research_crew/main.py--topic具身智能2.2 开发模式热重载# 使用 watchdog 监听文件变化自动重启pipinstallwatchdog# watchmedo auto-restartwatchmedo auto-restart\--patterns*.py;*.yaml\--recursive\-- python src/my_research_crew/main.py2.3 调试模式# main.py 中添加调试模式支持importargparsedefmain():parserargparse.ArgumentParser()parser.add_argument(--topic,defaultAI技术趋势)parser.add_argument(--debug,actionstore_true,help启用详细调试日志)parser.add_argument(--dry-run,actionstore_true,help验证配置但不实际执行)argsparser.parse_args()ifargs.debug:os.environ[CREWAI_LOG_LEVEL]DEBUGifargs.dry_run:print(配置验证通过不执行实际任务)crewMyResearchCrew().crew()print(fAgent 数量:{len(crew.agents)})print(fTask 数量:{len(crew.tasks)})returnresultMyResearchCrew().crew().kickoff(inputs{topic:args.topic})print(result.raw)三、Docker 容器化3.1 Dockerfile多阶段构建# Dockerfile # 多阶段构建减小最终镜像体积 # ─── 构建阶段 ─────────────────────────────────── FROM python:3.11-slim AS builder WORKDIR /build # 安装依赖使用 uv 加速 COPY --fromghcr.io/astral-sh/uv:latest /uv /usr/local/bin/uv COPY pyproject.toml uv.lock* ./ RUN uv pip install --system --no-cache crewai[tools] \ uv pip install --system --no-cache -r pyproject.toml # ─── 运行阶段 ─────────────────────────────────── FROM python:3.11-slim AS runtime # 安全使用非 root 用户 RUN useradd --create-home --shell /bin/bash crewai WORKDIR /app # 从构建阶段复制已安装的包 COPY --frombuilder /usr/local/lib/python3.11/site-packages/ /usr/local/lib/python3.11/site-packages/ COPY --frombuilder /usr/local/bin/ /usr/local/bin/ # 复制应用代码 COPY --chowncrewai:crewai . . USER crewai # 配置 ENV PYTHONUNBUFFERED1 ENV PYTHONDONTWRITEBYTECODE1 # 健康检查 HEALTHCHECK --interval30s --timeout10s --start-period5s --retries3 \ CMD python -c import crewai; print(ok) || exit 1 # 默认入口 CMD [python, src/my_research_crew/main.py]3.2 构建与运行# 构建镜像dockerbuild-tmy-research-crew:latest.dockerbuild-tmy-research-crew:v1.0.0.# 本地运行通过环境变量注入密钥dockerrun\-eOPENAI_API_KEY$OPENAI_API_KEY\-eSERPER_API_KEY$SERPER_API_KEY\-v$(pwd)/outputs:/app/outputs\my-research-crew:latest# 使用 .env 文件注入环境变量dockerrun --env-file .env my-research-crew:latest3.3 docker-compose 开发环境# docker-compose.ymlversion:3.8services:crew:build:.env_file:.envvolumes:-./outputs:/app/outputs# 输出文件持久化-./knowledge:/app/knowledge# 知识库持久化depends_on:-chromaenvironment:-CHROMA_HOSTchroma-CHROMA_PORT8000chroma:image:chromadb/chroma:latestports:-8000:8000volumes:-chroma_data:/chroma/chromalangfuse:image:langfuse/langfuse:latestports:-3000:3000environment:-DATABASE_URLpostgresql://langfuse:langfusepostgres:5432/langfuse-NEXTAUTH_SECRETmysecretdepends_on:-postgrespostgres:image:postgres:15environment:POSTGRES_USER:langfusePOSTGRES_PASSWORD:langfusePOSTGRES_DB:langfusevolumes:chroma_data:四、Kubernetes 部署4.1 Job 部署一次性任务# k8s/crew-job.yamlapiVersion:batch/v1kind:Jobmetadata:name:research-crew-joblabels:app:research-crewspec:ttlSecondsAfterFinished:3600# 完成后1小时自动清理template:spec:restartPolicy:Never# Job 失败不重试containers:-name:crewimage:my-research-crew:v1.0.0resources:requests:memory:512Micpu:250mlimits:memory:2Gi# crewAI 内存使用可能较高cpu:1000menv:-name:TOPICvalue:AI在制造业的应用envFrom:-secretRef:name:crew-secrets# 从 Kubernetes Secret 注入 API Key4.2 CronJob 部署定时任务# k8s/crew-cronjob.yamlapiVersion:batch/v1kind:CronJobmetadata:name:daily-research-crewspec:schedule:0 9 * * 1-5# 工作日每天上午9点concurrencyPolicy:Forbid# 禁止并发执行failedJobsHistoryLimit:3successfulJobsHistoryLimit:5jobTemplate:spec:template:spec:containers:-name:crewimage:my-research-crew:v1.0.0envFrom:-secretRef:name:crew-secrets4.3 Secret 管理# 创建 Kubernetes Secret不要把密钥写在 YAML 里kubectl create secret generic crew-secrets\--from-literalOPENAI_API_KEY$OPENAI_API_KEY\--from-literalSERPER_API_KEY$SERPER_API_KEY\--from-literalANTHROPIC_API_KEY$ANTHROPIC_API_KEY# 验证kubectl get secret crew-secrets4.4 水平扩缩容并行处理# k8s/crew-deployment.yaml用于高并发场景apiVersion:apps/v1kind:Deploymentmetadata:name:crew-workerspec:replicas:3# 3个并行工作实例selector:matchLabels:app:crew-workertemplate:spec:containers:-name:crewimage:my-research-crew:v1.0.0command:[python,src/my_research_crew/worker.py]# 队列消费模式envFrom:-secretRef:name:crew-secrets---# HorizontalPodAutoscaler基于 CPU 自动扩缩容apiVersion:autoscaling/v2kind:HorizontalPodAutoscalermetadata:name:crew-worker-hpaspec:scaleTargetRef:apiVersion:apps/v1kind:Deploymentname:crew-workerminReplicas:1maxReplicas:10metrics:-type:Resourceresource:name:cputarget:type:UtilizationaverageUtilization:70五、Serverless 部署5.1 AWS Lambda 适配crewAI 的主要挑战是执行时间可能超过 Lambda 的默认 15 分钟上限。解决方案是结合 crewAI Flows 的断点续传功能# lambda_handler.pyimportjsonimportboto3frommy_research_crew.crewimportMyResearchCrew# 使用 SQS 解决超时问题sqsboto3.client(sqs)RESULT_QUEUE_URLos.environ[RESULT_QUEUE_URL]defhandler(event,context):Lambda 入口函数try:topicevent.get(topic,AI趋势)# 配置较短的 max_iter 以控制执行时间crewMyResearchCrew().crew()# 为每个 Agent 设置较低的迭代上限foragentincrew.agents:agent.max_iter8resultcrew.kickoff(inputs{topic:topic})# 将结果发送到 SQSsqs.send_message(QueueUrlRESULT_QUEUE_URL,MessageBodyjson.dumps({topic:topic,result:result.raw,token_usage:{total:result.token_usage.total_tokensifresult.token_usageelse0}}))return{statusCode:200,body:json.dumps({status:submitted,message:任务已提交结果将发送到队列})}exceptExceptionase:return{statusCode:500,body:json.dumps({error:str(e)})}5.2 冷启动优化# 在模块级别初始化Lambda 容器复用时避免重复初始化importosfromcrewaiimportCrew,Agent,Taskfromcrewai_toolsimportSerperDevTool# 全局初始化只在容器初次启动时执行_crewNone_search_toolSerperDevTool()# 工具只初始化一次defget_crew()-Crew:global_crewif_crewisNone:researcherAgent(role研究员,tools[_search_tool],goal...,backstory...)taskTask(description...,agentresearcher)_crewCrew(agents[researcher],tasks[task])return_crewdefhandler(event,context):crewget_crew()# 复用已初始化的 Crewresultcrew.kickoff(inputs{topic:event[topic]})return{result:result.raw}六、部署选型决策矩阵部署形态成本维护复杂度扩展性适用场景本地运行最低最简单无开发/测试Docker 单机低低有限小规模生产Docker Compose低中中中小规模Kubernetes Job中高高生产批处理K8s CronJob中高高定时任务Lambda按需可极低低极高低频/突发任务决策建议日均任务 100 次Docker 单机或 Compose 即可日均任务 100-1000 次K8s Job/CronJob任务随机突发难以预测Lambda需要 7x24 持续监听事件K8s Deployment七、小结crewAI 的部署灵活性是它的优势之一——同样的代码从笔记本到 K8s 集群都能运行。关键是根据实际需求选择合适的部署形态从 Docker 开始即使最终要上 K8s先用 Docker 验证容器化没有问题K8s Job 是批处理的首选比 Deployment 更适合一次性任务Lambda 适合低频高并发冷启动优化是关键挑战Flows 的断点续传解决超时问题长任务必须要有状态恢复机制系列导航上一篇crewAI 可观测性体系Langfuse/Phoenix 集成与执行链路追踪下一篇crewAI AMP Suite 企业架构控制平面、多租户与 RBAC 权限模型基于 crewAI v1.11.0 官方文档撰写于 2026 年 3 月
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2438306.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!