تمارا

مهندس بيانات مشارك - برنامج البناء

Associate Data Engineer - Builders Program

تماراالرياض٧‏/٣‏/٢٠٢٦
تقديم الطلب
دوام كامل0-2 سنوات خبرة
تمارا

تمارا

وصف الوظيفة

لماذا تامارا؟ نحن فخورون بأن نكون أول يونيكورن FinTech في السعودية. مهمتنا هي مساعدة الناس على تحقيق أحلامهم من خلال بناء تطبيق مالي فائق يركز على العملاء في العالم. لا توجد خريطة طريق لذلك؛ فريقنا (التاماريون) يكتبون قصتها. فريقنا يتكون من المبتكرين والمحللين للمشاكل والمتعلمين الذين يزدهرون على الفضول والتعاون. إذا كان هذا يبدو مثلك: فضولي وطموح وجاهز للبناء، نود أن نلتقي بك. تقديم الآن والانضمام إلى الجيل القادم من البناة! حول البرنامج: في تاماراً، نعتقد أن الموهبة الاستثنائية تستحق نقطة انطلاق استثنائية. برنامجنا الرئيسي للبناة مصمم للخريجين الطموحين الذين يريدون تحمل مسؤولية حقيقية من اليوم الأول. هذا ليس برنامجًا دورانيًا للمراقبين، بل هو معجل وظائف مبني لأولئك الذين يريدون البناء والملكية ورفع المستوى مبكرًا. مصمم للخريجين الجدد والعاملين في بداية حياتهم المهنية الذين لديهم ما يصل إلى سنتين من الخبرة، يضعك البرنامج مباشرة في أدوار عالية التأثير عبر المنتج والهندسة والتصميم وما هو أبعد من ذلك. ستساهم فورًا وتنمو بوتيرة متسارعة. من المنتج إلى الهندسة والتصميم إلى التجارة، ستعالج تحديات ذات معنى تشكل كيفية تجربة ملايين الأشخاص للتكنولوجيا المالية عبر المنطقة. ستتمتع بالملكية، محاطًا بأقران عاليي المستوى، وموجهًا من قبل قادة يتوقعون التميز. حقائبنا في يناير وحزيران هما الفرصة للتحرك السريع والتفكير بشكل كبير والبدء في بناء ما يأتي - وليس يومًا ما، بل الآن. حول الدور: نحن نبحث عن خريج جديد أو مهندس منصة بيانات في بداية مهنتهم على مسار البناء. هذا الدور موجه لشخص يريد بناء الأساسات خلف التحليلات والذكاء الاصطناعي. ستساعد في تطوير وتشغيل منصة البيانات التي تجعل البيانات متاحة وآمنة وخاضعة للحوكمة وسريعة. يتضمن ذلك الأنابيب والبث الحدث، المستودعات والبحيرات، والحواجز التي تحافظ على ثقة البيانات. مع تقدم الذكاء الاصطناعي، نهتم أكثر بالأساسيات القوية من حفظ الأدوات. استخدم مساعدات الذكاء الاصطناعي للتحرك بسرعة أكبر، لكن امتلك دائمًا الصحة والموثوقية والأمان. مسؤولياتك: بناء والحفاظ على منصة البيانات - المساعدة في تطوير والحفاظ على معمارية المنصة (مستودع البيانات وبحيرة البيانات والحوكمة والحماية). - الحفاظ على موثوقية المنصة والقابلية للملاحظة والاستعداد للتوسع. بناء خطوط أنابيب قوية (ELT/ETL + معتمدة على الأحداث) - بناء البنية الأساسية المطلوبة للاستخراج والتحويل والتحميل الأمثل باستخدام SQL وتقنيات البيانات الضخمة. - تعزيز خطوط الأنابيب المجمعة بأنماط معتمدة على الأحداث حيث يكون ذلك منطقيًا (البث المباشر للبيانات وCDC والمعالجة في الوقت الفعلي والتسليم الموثوق). - تحسين أداء خطوط الأنابيب والتكلفة والموثوقية. جعل المنصة أسهل كل أسبوع - تحديد وتصميم وتنفيذ التحسينات الداخلية: أتمتة العمليات اليدوية وتحسين توصيل البيانات وإعادة تصميم المكونات للقابلية للتوسع. تمكين حالات استخدام التحليلات والذكاء الاصطناعي - بناء بدائل المنصة ومنتجات البيانات التي تدعم التحليلات ذاتية الخدمة والرؤى المدعومة بالذكاء الاصطناعي (وليس فقط لوحات المعلومات). - دعم أدوات التحليلات التي تستخدم الأنابيب لتقديم رؤى قابلة للتنفيذ حول اكتساب العملاء والكفاءة التشغيلية والمقاييس الأساسية للأعمال. الشراكة مع أصحاب المصلحة - العمل مع أصحاب المصلحة بما في ذلك فرق التنفيذية والمنتج والبيانات والتصميم لحل مشاكل البيانات التقنية ودعم احتياجات البنية الأساسية. الحفاظ على أمان البيانات عبر الحدود - المساعدة في الحفاظ على فصل البيانات وأمانها عبر الحدود الوطنية، بما في ذلك مراكز بيانات متعددة وعناصر تحكم وصول مناسبة. خبرتك (يجب أن تمتلكها): - خريج جديد أو ما يصل إلى سنتين من الخبرة ذات الصلة (التدريب الداخلي والمشاريع لا تعتبر). - أساسيات برمجة قوية في Python أو Java أو Go أو ما شابه ذلك. - أساسيات SQL قوية. - فهم مفاهيم البيانات: الأنظمة والأقسام وجودة البيانات واتفاقيات الخدمة والوعي الأساسي بالأمان/PII. - عقلية حل المشاكل والراحة في تصحيح الأنظمة من البداية إلى النهاية. - التواصل الواضح والنهج التعاوني. سيكون جيدًا أن يكون لديك: - الإلمام بمفاهيم مكدس البيانات السحابي (المستودعات وتخزين الكائنات والتنسيق والبث). - التعرض على بث الأحداث (مفاهيم Kafka مثل المواضيع والأقسام ومجموعات المستهلك) أو CDC. - الخبرة مع dbt و Airflow و Spark أو أدوات مماثلة (يعتبر العمل الدراسي أو المشاريع). - معرفة أساسية بـ Terraform/IaC و CI/CD. - الخبرة في استخدام مساعدات الذكاء الاصطناعي بشكل مسؤول للبرمجة والتصحيح والتوثيق. كيف يبدو النجاح: - تقديم خط أنابيب جاهز للإنتاج واحد على الأقل أو تحسين منصة يقلل العناء أو يحسن الموثوقية. - يمكنك تصحيح مشكلة بيانات من المصدر إلى الاستهلاك النهائي بسبب جذري واضح وإصلاح. - يمكن للفرق الاتصال بمصادر البيانات بسرعة أكبر مع توثيق أفضل وخطوات يدوية أقل. - يتحسن موثوقية المنصة وجودة البيانات بطرق قابلة للقياس (الكمون والفشل والحداثة أو التغطية).

Job Description

Why Tamara? We’re proud to be Saudi’s first FinTech unicorn. Our mission is to help people own their dreams by building the most customer-centric financial super app in the world. & There is no playbook for that; our Tamarians are writing it. Our teams are made up of innovators, problem-solvers, and learners we thrive on curiosity and collaboration. If this sounds like you: curious, driven, and ready to build, we’d love to meet you Apply now and join the next generation of Builders! About the Program: At Tamara, we believe exceptional talent deserves an exceptional launchpad. Our Flagship Builders Program is designed for ambitious graduates ready to step into real responsibility from day one. This isn’t a rotational “observer” program, it’s a career accelerator built for those who want to build, own, and raise the bar early. Designed for recent graduates and early-career talent with up to two years of experience, the program places you directly into high-impact roles across Product, Engineering, Design, and beyond. You’ll contribute immediately and grow at an accelerated pace. From Product to Engineering, Design to Commercial, you’ll tackle meaningful challenges that shape how millions experience fintech across the region. You’ll be trusted with ownership, surrounded by high-caliber peers, and mentored by leaders who expect excellence. Our January and June cohorts are your opportunity to move fast, think big, and start building what’s next - not someday, but now. About the role We’re looking for a fresh graduate or early-career Data Platform Engineer on a builder track. This role is for someone who wants to build the foundations behind analytics and AI. You will help develop and run the data platform that makes data available, secure, governed, and fast . That includes pipelines, event streaming ingestion, warehouses and lakes, and the guardrails that keep data trusted. With the advancement of AI, we care more about strong fundamentals than memorizing tools. Use AI assistants to move faster, but always own correctness, reliability, and security. Your responsibilities Build and maintain the data platform Help develop and maintain platform architecture (data warehouse, data lake, governance, protection). Keep the platform reliable, observable, and ready to scale. Build robust pipelines (ELT/ETL + event-driven) Build the infrastructure required for optimal extraction, transformation, and loading using SQL and big data technologies. Augment batch pipelines with event-driven patterns where it makes sense (streaming ingestion, CDC, near-real-time processing, and reliable delivery). Improve pipeline performance, cost, and reliability. Make the platform easier every week Identify, design, and implement internal improvements: automate manual processes, optimize data delivery, and redesign components for scalability. Enable analytics and AI use cases Build platform primitives and data products that power self-serve analytics and AI-assisted insights (not only dashboards). Support analytics tooling that uses the pipelines to deliver actionable insights into customer acquisition, operational efficiency, and key business metrics. Partner with stakeholders Work with stakeholders including Executive, Product, Data, and Design teams to resolve data technical issues and support infrastructure needs. Keep data secure across boundaries Help keep data separated and secure across national boundaries, including through multiple data centers and appropriate access controls. Your expertise (must have) Fresh graduate or of relevant experience (internships and projects count). Solid programming fundamentals in Python , Java , Go , or similar. Strong SQL fundamentals . Understanding of data concepts: schemas, partitions, data quality, SLAs, and basic security/PII awareness. A problem-solving mindset and comfort debugging systems end-to-end. Clear communication and a collaborative approach. Nice to have Familiarity with cloud data stack concepts (warehouses, object storage, orchestration, streaming). Exposure to event streaming (Kafka concepts like topics, partitions, consumer groups) or CDC. Experience with dbt, Airflow, Spark, or similar tools (coursework or projects count). Basic Terraform/IaC and CI/CD familiarity. Experience using AI assistants responsibly for coding, debugging, and documentation. What success looks like You ship at least one production-ready pipeline or platform improvement that reduces toil or improves reliability. You can debug a data issue from source to downstream consumption with clear root cause and fix. Teams can onboard to data sources faster, with better documentation and fewer manual steps. Platform reliability and data quality improve in measurable ways (latency, failures, freshness, or coverage).

المهارات المطلوبة

PythonSQLJavaGoELT/ETLData WarehouseApache KafkaAirflowdbtSpark
مهندس بيانات مشارك - برنامج البناء - تمارا