
Apache Airflow
Apache Airflow, Python kodu ve görsel panolar kullanarak veri iş akışları oluşturmak, zamanlamak ve izlemek için ücretsiz açık kaynaklı bir platformdur.




Apache Airflow nedir?
Apache Airflow, veri işleme için otomatik iş akışları oluşturmanıza ve yönetmenize yardımcı olan bir araçtır. Bunu, görevlerinizi doğru sırayla, doğru zamanda çalıştıran ve sorunlar ortaya çıktığında bunları yöneten akıllı bir koordinatör olarak düşünebilirsiniz.
İş akışlarınızı Python kodu kullanarak tanımlarsınız, bu da zaten bildiğiniz tüm araçları kullanabileceğiniz anlamına gelir. Her iş akışına DAG denir ve bu, görevlerinizin nasıl bağlandığını ve birbirine nasıl bağımlı olduğunu gösterir. Airflow, iş akışlarınızı çalışırken görebileceğiniz, günlükleri kontrol edebileceğiniz ve başarısız görevleri yeniden başlatabileceğiniz görsel bir web kontrol paneli ile birlikte gelir.
Platform, AWS, Google Cloud ve Azure gibi bulut hizmetleriyle ve hazır bağlantılar aracılığıyla yüzlerce diğer araçla çalışır. Kendi sunucularınızda çalıştırabilir veya Astronomer gibi yönetilen hizmetleri kullanabilirsiniz.
Apache Airflow nasıl kullanılır
Apache Airflow ile başlamanın adımları şunlardır:
Airflow'u bilgisayarınıza veya sunucunuza pip kullanarak kurun. Tüm bileşenlerin hazır olduğu hızlı bir kurulum için Docker da kullanabilirsiniz.
İlk iş akışınızı bir Python dosyası olarak yazın. Python fonksiyonlarını çalıştırmak için PythonOperator veya shell komutları için BashOperator gibi operatörleri kullanarak görevleri tanımlayın.
İş akışı dosyanızı DAGs klasörüne yerleştirin. Airflow, yeni iş akışlarını her birkaç dakikada bir otomatik olarak bulur ve yükler.
İş akışınızı görmek için localhost:8080 adresindeki web arayüzünü açın. İş akışını açabilir, manuel tetikleyebilir veya programlı olarak çalışmasına izin verebilirsiniz.
Görev yürütmesini panodan izleyin. Bir şeyler başarısız olursa logları kontrol edin ve başarısız görevleri tekrar çalıştırmak için yeniden dene butonunu kullanın.
Yönetim panelinde bağlantılar kurarak harici servisleri bağlayın. Bu, iş akışlarınızın veritabanları, bulut depolama ve diğer araçlarla etkileşimde bulunmasını sağlar.
Apache Airflow özellikleri
Python tabanlı iş akışı oluşturma
İzleme özellikli görsel web kontrol paneli
Otomatik görev zamanlama ve yeniden deneme
Akıllı bağımlılık yönetimi
Dizüstü bilgisayardan buluta ölçeklenebilir
1.500'den fazla hazır entegrasyon
AWS, Google Cloud, Azure ile uyumlu
Otomasyon için komut satırı araçları
Yerleşik kayıt ve uyarı sistemi
Açık kaynak ve kendi sunucunuzda barındırılabilir
Aktif topluluk desteği
Kurumsal düzeyde özellikler mevcut
Apache Airflow fiyatlandırması
Open Source
Free
- Sınırsız iş akışları ve görevler
- Tüm özelliklere tam erişim
- Python tabanlı iş akışı oluşturma
- Görsel web kontrol paneli
- Görev planlama ve izleme
- 1.500+ entegrasyon
- Kendi altyapınızda barındırılan
- Slack ve forumlar aracılığıyla topluluk desteği
- Tam kaynak kodu erişimi
- Kullanım sınırı veya kısıtlaması yoktur
Managed Services
Custom
- Tamamen yönetilen altyapı
- Otomatik güncellemeler ve yamalar
- Kurumsal destek mevcuttur
- Yüksek kullanılabilirlik kurulumu
- İzleme ve uyarı verme
- Güvenlik ve uyumluluk özellikleri
- Ölçeklenebilir hesaplama kaynakları
- Birden fazla dağıtım seçeneği
- Örnekler: Astronomer Astro, AWS MWAA, Google Cloud Composer, Azure Managed Airflow
- Fiyatlandırma sağlayıcıya ve kullanıma göre değişir
Apache Airflow kullanım durumları
Apache Airflow'den kimler yararlanabilir?
Apache Airflow Deposu
Github'da Görüntüle| Yıldızlar | 42,899 |
| Çatallar | 15,816 |
| Depo Yaşı | 10 yıl |
| Son Commit | 23 saat önce |
Apache Airflow hakkında sık sorulan sorular
Apache Airflow ile deneyiminizi paylaşın
Kullanıcıların ne dediğini görün Apache Airflow
0 İncelemeler
Henüz inceleme yok
İlk incelemeyi siz yapın Apache Airflow
Apache Airflow rozetlerini gömme
Topluluğunuza Apache Airflow'in Tool Questor'de öne çıkarıldığını gösterin. Web sitenize, belgelerinize veya sosyal profillerinize bu güzel rozetleri ekleyerek güvenilirliği artırın ve daha fazla trafik çekin.



