مهندس بيانات أول
Senior Data Engineer
سلةمكة المكرمة١٢/١١/٢٠٢٥
دوام كامل
سلة
وصف الوظيفة
نحن نبحث عن مهندس بيانات أول ماهر ذو خبرة عميقة في ClickHouse ومعالجة البيانات المتدفقة، وشغف ببناء حلول تحليلات فعلية قابلة للتوسع. في هذا الدور، ستقوم بتصميم وتطوير وتحسين خطوط أنابيب البيانات والبنية التحتية للتحليلات، مما يمكّن فرقنا من الاستفادة من رؤى فعلية تعزز تجربة العملاء وتدفع النمو التجاري. نحن ملتزمون ببناء مكان عمل شامل. هذا الدور مفتوح لجميع المرشحين المؤهلين، بما في ذلك الأفراد ذوو الإعاقات أو الاحتياجات الخاصة. يتم تشجيع المتقدمين الذين يحتاجون إلى تسهيلات معقولة أثناء عملية التوظيف أو التوظيف أو التوظيف على التقديم. سيتم توفير التسهيلات المعقولة وفقاً للقوانين واللوائح المعمول بها.
المسؤوليات الرئيسية:
● تصميم وتطوير والحفاظ على توثيق خطوط أنابيب بيانات قابلة للتوسع بشكل كبير لمعالجة البيانات الفعلية والدفعية.
● بناء وتحسين أنظمة البيانات لدعم حالات الاستخدام في التحليلات والتقارير الدقيقة منخفضة الكمون.
● تطوير والحفاظ على حلول معالجة البيانات المتدفقة وبدون خادم.
● التعاون مع الفريق عبر الوظائف لتطبيق ودعم سير عمل التحليلات من البداية إلى النهاية.
● ضمان جودة البيانات والموثوقية والأداء عبر المنصة.
● مراقبة واستكشاف أخطاء وتحسين البنية التحتية للبيانات للحفاظ على توفر عالي.
● إرشاد المهندسين الصغار والمساهمة في التحسين المستمر لممارسات الهندسة.
● مهارات حل المشاكل القوية والقدرة على الازدهار في بيئة سريعة الخطى.
● مهارات اتصال وعمل جماعي ممتازة.
المتطلبات والمؤهلات:
● 5+ سنوات من الخبرة في هندسة البيانات أو المجالات ذات الصلة.
● خبرة قوية في ClickHouse (تصميم المخطط، تحسين البيانات المدخلة، ضبط أداء الاستعلام، وإدارة المجموعات).
● خبرة مثبتة في معالجة البيانات الفعلية باستخدام Apache Kafka أو Flink أو Spark Streaming.
● فهم عميق لمعمارية الأنظمة الموزعة مع التركيز على القابلية للتوسع والموثوقية وتحمل الأخطاء.
● الكفاءة في لغة برمجة واحدة أو أكثر:
- Python: بناء خطوط أنابيب البيانات وسكريبتات الأتمتة والتكاملات.
- Go: تطوير خدمات أو أدوات بيانات عالية الأداء.
- TypeScript: المساهمة في تطبيقات أمامية أو خدمات جانبية متعلقة بالبيانات.
- Bash/Shell scripting: كتابة سكريبتات الأتمتة لعمليات البيانات.
- Rust (جيد أن يكون لديك): الاهتمام أو الخبرة في بناء أنظمة آمنة في الذاكرة وعالية الأداء.
● خبرة عملية مع منصات سحابية مثل AWS أو GCP أو Azure.
● الإلمام بأدوات الحاويات والتنسيق (Docker, Kubernetes).
Job Description
We are seeking a skilled Senior Data Engineer with deep expertise in ClickHouse and streaming data, and a passion for building scalable real-time analytics solutions. In this role, you will design, develop, and optimize our data pipelines and analytics infrastructure, empowering our teams to harness real-time insights that enhance customer experience and drive business growth. We are committed to building an inclusive workplace. This role is open to all qualified candidates, including individuals with disabilities or special needs. Applicants who require reasonable accommodations during the recruitment, hiring, or employment process are encouraged to apply. Reasonable accommodations will be provided in accordance with applicable laws and regulations. Key Responsibilities ● Design, implement, maintain and document highly scalable data pipelines for real-time and batch processing. ● Build and optimize data systems to support accurate, low-latency analytics and reporting use cases. ● Develop and maintain solutions for streaming and serverless data processing. ● Collaborate with cross-functional teams to implement and support end-to-end analytics workflows. ● Ensure data quality, reliability, and performance across the platform. ● Monitor, troubleshoot, and optimize data infrastructure to maintain high availability. ● Mentor junior engineers and contribute to the continuous improvement of engineering practices. ● Strong problem-solving skills and the ability to thrive in a fast-paced environment. ● Excellent communication and teamwork skills. 5+ years of experience in Data Engineering or related fields. Strong expertise in ClickHouse (schema design, ingestion optimization, query performance tuning, and cluster management). Proven experience with real-time data processing using Apache Kafka, Flink, or Spark Streaming. Deep understanding of distributed systems architecture with emphasis on scalability, reliability, and fault tolerance. Proficiency in one or more programming languages: Python : Building data pipelines, automation scripts, and integrations. Go : Developing high-performance data services or tools. TypeScript : Contributing to data-related front-end or service-side applications. Bash/Shell scripting: Writing automation scripts for data operations. Rust (Good to have): Interest or experience in building memory-safe, high-performance systems. Hands-on experience with cloud platforms such as AWS, GCP, or Azure. Familiarity with containerization and orchestration tools (Docker, Kubernetes).