


什么是Apache Airflow?
Apache Airflow 是一个帮助您创建和管理自动化数据处理工作流的工具。可以把它看作一个智能协调者,按正确的顺序和时间运行您的任务,并在出现问题时进行处理。
您可以使用 Python 代码定义工作流,这意味着您可以使用所有熟悉的工具。每个工作流称为 DAG,展示了任务之间的连接和依赖关系。Airflow 配备了一个可视化的网页仪表盘,您可以在其中查看工作流的运行情况、检查日志并重新启动失败的任务。
该平台支持与 AWS、Google Cloud 和 Azure 等云服务以及数百种通过现成连接的其他工具协作。您可以在自己的服务器上运行它,也可以使用像 Astronomer 这样的托管服务。
如何使用Apache Airflow
开始使用 Apache Airflow 需要按照以下步骤进行:
使用 pip 在您的计算机或服务器上安装 Airflow。您也可以使用 Docker 快速设置,所有组件均已准备就绪。
将您的第一个工作流写成 Python 文件。使用如 PythonOperator(运行 Python 函数)或 BashOperator(执行 shell 命令)等操作符定义任务。
将您的工作流文件放入 DAGs 文件夹。Airflow 会每隔几分钟自动发现并加载新的工作流。
打开浏览器访问 localhost:8080 查看您的工作流。您可以启动它,手动触发,或让它按计划运行。
通过仪表盘监控任务执行情况。如果出现失败,请查看日志,并使用重试按钮重新运行失败的任务。
通过在管理面板中设置连接,连接外部服务。这使您的工作流能够与数据库、云存储及其他工具交互。
Apache Airflow的功能
基于Python的工作流创建
带监控的可视化网页仪表盘
自动任务调度与重试
智能依赖管理
可扩展,从笔记本到云端
1500多个现成集成
支持AWS、Google Cloud、Azure
命令行工具实现自动化
内置日志记录与告警
开源且自托管
活跃的社区支持
提供企业级功能
Apache Airflow定价
Open Source
Free
- 无限工作流程和任务
- 全面访问所有功能
- 基于Python的工作流创建
- 可视化网页仪表盘
- 任务调度与监控
- 1500多个集成
- 在您的基础设施上自托管
- 通过 Slack 和论坛提供社区支持
- 完整源代码访问权限
- 无限制使用,无任何限制
Managed Services
Custom
- 全托管基础设施
- 自动更新和补丁
- 提供企业支持
- 高可用性设置
- 监控与警报
- 安全与合规功能
- 可扩展计算资源
- 多种部署选项
- 示例:Astronomer Astro、AWS MWAA、Google Cloud Composer、Azure 托管 Airflow
- 价格因供应商和使用情况而异
Apache Airflow仓库
在Github上查看| 星标 | 42,899 |
| 分支 | 15,816 |
| 仓库年龄 | 10 年 |
| 最后提交 | 7 小时 前 |
关于Apache Airflow的常见问题
分享您使用 Apache Airflow 的体验
查看用户对以下工具的评价 Apache Airflow
0 评价
暂无评价
成为第一个评价者 Apache Airflow
嵌入Apache Airflow徽章
向您的社区展示Apache Airflow在Tool Questor上的特色推荐。将这些精美的徽章添加到您的网站、文档或社交资料中,以提高可信度并带来更多流量。





