سلة

مهندس بيانات أول

Senior Data Engineer

سلةجدة١٥‏/٣‏/٢٠٢٦
دوام كامل
سلة

سلة

وصف الوظيفة

نحن نبحث عن مهندس بيانات أول لامتلاك وبناء وتوسيع نطاق البنية التحتية للبيانات التي تدعم نظام سلة للتجارة الإلكترونية. في هذا الدور، ستكون عضواً أساسياً في فريق البيانات، مسؤول عن ضمان أن منصة تحليلات البيانات الخاصة بنا عالية الأداء وذات مستوى هندسي وقادرة على التعامل مع مجموعات بيانات ضخمة، بما في ذلك تتبع الأحداث في الوقت الفعلي وتحليلات المنتجات. ستكون مسؤولاً عن دورة حياة خطوط أنابيب البيانات من النهاية إلى النهاية، من الاستيعاب (بحيرات البيانات وقواعد البيانات الإنتاجية وواجهات برمجة التطبيقات) إلى التحويل (dbt وفي المستودع ClickHouse) والاستهلاك (Reverse ETL وواجهات برمجة تطبيقات آمنة). هذا دور عملي لقائد تقني يعطي الأولوية لجودة البيانات وتميز CI/CD وتحسين البنية التحتية. ستعمل بشكل وثيق مع مهندسي التطبيقات ومصممي البيانات والمحللين لبناء بنية Medallion من الدرجة الأولى. هذا الدور مثالي لشخص يزدهر في التحديات التقنية ويقدر سلامة العمارة ويريد بناء عمود فقري لاتخاذ القرارات المستندة إلى البيانات في أكبر ممكن للتجارة الإلكترونية في المملكة العربية السعودية. المسؤوليات: هندسة خطوط الأنابيب: تصميم وبناء والحفاظ على خطوط أنابيب ETL/ELT قابلة للتوسع من مصادر متنوعة بما في ذلك بحيرات البيانات وأمثيلة ClickHouse الإنتاجية والملفات المسطحة ووجهات برمجة تطبيقات متعددة. البنية التحتية والتنسيق: تكوين وتحسين البنية التحتية لمستودع البيانات (ClickHouse) وطبقات التنسيق (Mage.ai). تميز الهندسة: تنفيذ وإدارة سير عمل CI/CD من "مستوى هندسي"، وإجراء مراجعات دقيقة للطلبات، وضمان إدارة المتبعيات القوية في جميع أنحاء المكدس. نمذجة البيانات والعمارة: تنفيذ بنية Medallion (Bronze/Silver/Gold) والحفاظ على نماذج بيانات عالية الأداء باستخدام dbt. الجودة والمراقبة: بناء مراقبة جودة البيانات المؤتمتة والتنبيهات؛ تصعيد مشاكل البيانات المرسلة بشكل استباقي إلى فرق الهندسة وإبقاء الأصحاب على علم بصحة خط الأنابيب. تدفقات البيانات المتقدمة: تطوير خطوط أنابيب Reverse ETL وتعريض واجهات برمجة تطبيقات بيانات آمنة لتمكين استهلاك البيانات بسلاسة في جميع أنحاء المؤسسة. التكامل الاستراتيجي: إدارة البث المستمر للأحداث وبث البيانات في الوقت الفعلي (Kafka وCDC) لدعم تحليلات المنتجات والتتبع عالي الحجم. المتطلبات: 4-7 سنوات من الخبرة في هندسة البيانات، ويفضل أن تكون في صناعة التجارة الإلكترونية أو التكنولوجيا ذات النمو السريع. خبرة على مستوى الخبير في Python و SQL (القدرة على كتابة كود عالي التحسين للمجموعات الضخمة من البيانات). خبرة عميقة مع dbt للتحويل والنمذجة. خبرة قوية مع ClickHouse (مفضل) أو مستودعات حديثة مماثلة (Snowflake أو BigQuery) وأدوات التنسيق: mage.ai (مفضل) أو أدوات مماثلة (Airflow). خبرة مثبتة في تنفيذ وإدارة سير عمل Reverse ETL لمزامنة البيانات مرة أخرى في الأدوات التشغيلية. سجل مثبت في بناء وتنشر خطوط أنابيب CI/CD من مستوى الإنتاج وسكريبتات الأتمتة. فهم قوي لعقود البيانات وبنية Medallion وأطر عمل جودة البيانات. الإضافات المفيدة: الكفاءة في اللغة العربية. مقيم في المملكة العربية السعودية (جدة أو مكة). خبرة مباشرة مع تكاملات Kafka أو CDC (Change Data Capture). خبرة في مجال التجارة الإلكترونية. تطوير API لتوزيع البيانات.

Job Description

We are looking for a Senior Data Engineer to own, build, and scale the data infrastructure that powers Salla’s e-commerce ecosystem. In this role, you will be a core member of the data team, responsible for ensuring our data analytics platform is high-performing, engineering-grade, and capable of handling massive datasets, including real-time event tracking and product analytics. You will be responsible for the end-to-end lifecycle of our data pipelines, from ingestion (Data Lakes, Production Databases, APIs) to transformation (dbt, ClickHouse Warehouse) and consumption (reverse ETL, secure APIs). This is a hands-on role for a technical leader who prioritizes data quality, CI/CD excellence, and infrastructure optimization. You will partner closely with application engineers, data modelers, and analysts to build a world-class Medallion architecture. This role is ideal for someone who thrives on technical challenges, values architectural integrity, and wants to build the backbone of data-driven decision-making at the top e-commerce enabler in Saudi Arabia. Responsibilities Pipeline Engineering: Design, build, and maintain scalable ETL/ELT pipelines from diverse sources including Data Lakes, Production ClickHouse instances, flat files, and various APIs. Infrastructure & Orchestration: Configure and optimize our Data Warehouse infrastructure (ClickHouse) and orchestration layers (Mage.ai). Engineering Excellence: Implement and manage "engineering-grade" CI/CD workflows, conduct rigorous PR reviews, and ensure robust dependency management across the stack. Data Modeling & Architecture: Implement Medallion architecture (Bronze/Silver/Gold) and maintain high-performance data models using dbt. Quality & Observability: Build automated data quality monitoring and alerting; proactively escalate upstream data issues to engineering teams and keep stakeholders informed of pipeline health. Advanced Data Flows: Develop reverse ETL (rETL) pipelines and expose secure data APIs to enable seamless data consumption across the organization. Strategic Integration: Manage event streaming and real-time data ingestion (Kafka, CDC) to support high-volume product analytics and tracking. 4–7 years of experience in Data Engineering, preferably within the e-commerce or high-growth tech industry. Expert-level Python and SQL (able to write highly optimized code for large-scale datasets). Deep experience with dbt for transformation and modeling. Strong experience with ClickHouse (preferred) or similar modern warehouses (Snowflake, BigQuery) and Orchestration tools: mage.ai (preferred) or similar tools (Airflow). Proven experience implementing and managing Reverse ETL workflows to sync data back into operational tools. Proven track record building and deploying production-grade CI/CD pipelines and automation scripts. Solid understanding of Data Contracts, Medallion architecture, and Data Quality frameworks. Nice to Have Proficiency in Arabic. Based in Saudi (Jeddah, Makkah). Direct experience with Kafka or CDC (Change Data Capture) integrations. Experience in the e-commerce domain. API development for data distribution.
مهندس بيانات أول - سلة