محلل بيانات مشارك - برنامج البناة
Associate Data Analyst - Builders Program
تماراالرياض٧/٣/٢٠٢٦
دوام كامل0-2 سنوات خبرةبكالوريوس
تمارا
وصف الوظيفة
لماذا تمارة؟
نحن فخورون بأننا أول يونيكورن FinTech سعودية.
مهمتنا هي مساعدة الناس على تحقيق أحلامهم من خلال بناء أكثر تطبيق مالي شامل موجه نحو العملاء في العالم. لا يوجد دليل لذلك؛ فريقنا من تمارة يكتبه. فريقنا مكون من المبتكرين وحل المشاكل والمتعلمين، نحن ننمو على الفضول والتعاون.
إذا كان هذا يبدو وكأنه أنت: فضولي وطموح وجاهز للبناء، فإننا نود أن نلتقي بك
تقدم الآن والانضمام إلى الجيل القادم من البناة!
حول البرنامج:
في تمارة، نعتقد أن المواهب الاستثنائية تستحق منصة إطلاق استثنائية.
تم تصميم برنامج البناة الرئيسي الخاص بنا للخريجين الطموحين الجاهزين لتحمل مسؤولية حقيقية من اليوم الأول. هذا ليس برنامجًا دورانيًا "مراقبًا"، إنه معجل الوظيفة المدمج لأولئك الذين يريدون البناء والامتلاك ورفع المستوى مبكرًا.
تم تصميم البرنامج للخريجين الحديثين والمواهب في بداية حياتهم الوظيفية بخبرة تصل إلى سنتين، ويضعك البرنامج مباشرة في أدوار عالية التأثير عبر المنتج والهندسة والتصميم وما وراء ذلك. ستساهم على الفور وتنمو بوتيرة معجلة.
من المنتج إلى الهندسة، من التصميم إلى التجارة، ستواجه تحديات ذات مغزى تشكل كيفية تجربة ملايين الأشخاص لـ fintech عبر المنطقة. ستحصل على الملكية الموثوقة، محاطة بأقران عالي الجودة، ومُرشد من قبل قادة يتوقعون التميز.
دفعات يناير ويونيو هي فرصتك للتحرك بسرعة والتفكير بشكل كبير والبدء في بناء ما هو قادم - ليس في يوم ما، بل الآن.
حول الدور:
نحن نبحث عن خريج جديد أو محلل بيانات في بداية حياتهم الوظيفية على مسار الهندسة التحليلية.
هذا الدور يجمع بين أفضل ما في تحليل البيانات وهندسة البيانات. ستساعد في تحويل البيانات الأولية إلى مجموعات بيانات موثوقة وجيدة النمذجة التي:
جعل التعريفات متسقة (بحيث يعني "الرقم" نفس الشيء في كل مكان)
تحسين جودة البيانات والموثوقية
تمكين التحليلات ذاتية الخدمة والرؤى المدعومة بالذكاء الاصطناعي عبر الفرق (ليس فقط لوحات التحكم)
ستساعد أيضًا في جعل بيانات تمارة جاهزة للذكاء الاصطناعي من خلال بناء مجموعات بيانات وقياسات وتوثيق محددة بوضوح يمكن استخدامها بأمان من قبل أدوات الذكاء الاصطناعي (والأشخاص) في جميع أنحاء الشركة.
مع تقدم الذكاء الاصطناعي، نقدر الأشخاص الذين لديهم أساسيات قوية وتفكير واضح. فهم هياكل البيانات والقياس والمقارنات وكيفية التحقق من النتائج يهم أكثر من حفظ الأدوات. ستتعلم كيفية استخدام الذكاء الاصطناعي بمسؤولية للتحرك بسرعة، مع امتلاك الصحة والصحة البيانات والتفسير.
ستتعاون مع نظام بيئي متنوع من المهندسين والخبراء في المنتجات والأعمال لحل المشاكل الحقيقية التي تؤثر على عملائنا ونتائج أعمالنا.
مسؤولياتك:
نموذج وتحويل البيانات للتحليل
بناء والحفاظ على مجموعات بيانات نظيفة وقابلة لإعادة الاستخدام (جداول الحقائق والأبعاد) التي تدعم الإبلاغ والتحليلات ذاتية الخدمة.
المساهمة في طبقة قياسات قابلة للتطوير: تحديد وتوثيق وموافقة على تعريفات الأعمال (على سبيل المثال، "المستخدم النشط"، "معدل الموافقة"، "معدل التخلف").
دعم التحليلات واتخاذ القرارات
الإجابة على الأسئلة المخصصة بتحليل واضح ومنهجية قابلة للشرح.
تحويل الأسئلة الشائعة إلى أصول قابلة لإعادة الاستخدام ذاتية الخدمة: لوحات التحكم وسير العمل المدعومة بالذكاء الاصطناعي (مجموعة بيانات منسقة + تعريفات يمكن لمساعد الذكاء الاصطناعي الاستعلام عنها بشكل صحيح، بالإضافة إلى تحليلات أمثلة التحقق منها).
إنشاء منتجات بيانات جاهزة للذكاء الاصطناعي (مجموعات بيانات محددة بوضوح وقياسات وتوثيق) يمكن للفرق الاستعلام عنها من خلال أدوات الذكاء الاصطناعي.
تمكين التحليلات جاهزة للذكاء الاصطناعي
عبوة مجموعات البيانات والقياسات بحيث يمكن استخدامها بشكل موثوق من قبل أدوات الذكاء الاصطناعي (حبيبة واضحة، تعريفات العمل، عقود البيانات، أمثلة).
كتابة التوثيق الصديق للذكاء الاصطناعي: قاموس المصطلحات، تعريفات القياسات، الاستعلامات الشائعة، والأخطاء.
الشراكة مع فريق الذكاء الاصطناعي والمنصة لضمان أن الجداول الحرجة قابلة للاكتشاف وممنوحة الأذونات بشكل صحيح وآمنة للاستخدام.
ضمان جودة البيانات والموثوقية
كتابة الاختبارات والفحوصات والمراقبة الأساسية لمجموعات البيانات والقياسات الحرجة الرئيسية.
استكشاف مشاكل البيانات وتحسين الموثوقية من المصدر إلى الإبلاغ.
العمل بفعالية مع الهندسة والمنتج
التعاون مع مهندسي البيانات على تغييرات المخطط وتتبع الأحداث وتحسينات خط الأنابيب.
ترجمة الأسئلة التجارية الغامضة إلى تحليلات قابلة للقياس، وتوصيل النتائج بوضوح.
استخدام أدوات الذكاء الاصطناعي بحكمة
استخدم الذكاء الاصطناعي لتسريع صياغة SQL والسقالات الكود والتوثيق.
التحقق من صحة مخرجات الذكاء الاصطناعي وتوثيق الافتراضات وحماية البيانات الحساسة.
خبرتك (يجب أن يكون لديك)
خريج جديد أو خبرة ذات صلة (يتم احتساب التدريب والمشاريع والأدوار بدوام جزئي).
أساسيات SQL قوية (الانضمام والتجميعات وميزات النوافذ الأساسية).
language لغة برمجة واحدة للتحليل (يفضل Python) بمهارات أساسية في:
معالجة البيانات (الجداول / DataFrames)
إحصائيات أساسية (التوزيعات والحدس الأخذ والأساسيات الثقة)
تفكير تحليلي قوي:
القدرة على تحديد مشكلة وتشكيل الفرضيات والتحقق من البيانات وشرح النتائج.
انتباه قوي للتفاصيل والالتزام بالنتائج الدقيقة والموثوقة.
القدرة على العمل بفعالية في بيئة موجهة نحو الفريق.
لطيف أن يكون
التعرض على مفاهيم نمذجة البيانات (نجم المخطط، أبعاد بطيئة التغير، تعريف المقاييس).
الإلمام بمكدسات التحليلات الحديثة (dbt, BigQuery, Snowflake, Looker, PowerBI, Tableau) من خلال الدورات الدراسية أو المشاريع.
خبرة في إنشاء أصول بيانات جاهزة للذكاء الاصطناعي (طبقات دلالية نظيفة وتعريفات مقاييس وعقود بيانات وتوثيق وقوائم فحص التقييم أو الفحص الصحي) بالإضافة إلى ذلك.
خبرة استخدام مساعدي الذكاء الاصطناعي بشكل مسؤول لتسريع العمل التحليلي أو تحليلات الهندسة (على سبيل المثال، صياغة SQL، وسقالات الكود، والتوثيق).
الخبرة مع التحكم في الإصدار (Git) أو ممارسات الهندسة البرمجية الأساسية.
فهم التتبع والتتبع وتحليلات المنتج (القمع والأفواج والاحتفاظ).
معرفة التعامل المسؤول مع البيانات (أساسيات PII وأدوات التحكم في الوصول والمشاركة الآمنة).
ما يبدو عليه النجاح
Job Description
Why Tamara? We’re proud to be Saudi’s first FinTech unicorn. Our mission is to help people own their dreams by building the most customer-centric financial super app in the world. & There is no playbook for that; our Tamarians are writing it. Our teams are made up of innovators, problem-solvers, and learners we thrive on curiosity and collaboration. If this sounds like you: curious, driven, and ready to build, we’d love to meet you Apply now and join the next generation of Builders! About the Program: At Tamara, we believe exceptional talent deserves an exceptional launchpad. Our Flagship Builders Program is designed for ambitious graduates ready to step into real responsibility from day one. This isn’t a rotational “observer” program, it’s a career accelerator built for those who want to build, own, and raise the bar early. Designed for recent graduates and early-career talent with up to two years of experience, the program places you directly into high-impact roles across Product, Engineering, Design, and beyond. You’ll contribute immediately and grow at an accelerated pace. From Product to Engineering, Design to Commercial, you’ll tackle meaningful challenges that shape how millions experience fintech across the region. You’ll be trusted with ownership, surrounded by high-caliber peers, and mentored by leaders who expect excellence. Our January and June cohorts are your opportunity to move fast, think big, and start building what’s next - not someday, but now. About the role: Were looking for a fresh graduate or early-career Data Analyst on an analytical engineering path. This role blends the best of data analysis and data engineering. You will help turn raw data into trustworthy, well-modeled datasets that: make definitions consistent (so "the number" means the same thing everywhere) improve data quality and reliability enable self-serve analytics and AI-assisted insights across teams (not just dashboards) You will also help make Tamara’s data AI-ready by building well-defined datasets, metrics, and documentation that can be safely used by AI tools (and people) across the company. With the advancement of AI, we value people who have strong fundamentals and clear thinking. Understanding data structures, measurement, tradeoffs, and how to validate results matters more than memorizing tools. Youll learn how to use AI responsibly to move faster, while still owning correctness, data quality, and interpretation. You will collaborate with a diverse ecosystem of engineers, product experts, and business to solve real problems that impact our customers and business outcomes. Your responsibilities Model and transform data for analysis Build and maintain clean, reusable datasets (fact and dimension tables) that power reporting and self-serve analytics. Contribute to a scalable metrics layer: define, document, and align business definitions (for example, "active user", "approval rate", "default rate"). Support analytics and decision making Answer ad-hoc questions with clear analysis and explainable methodology. Turn common questions into reusable, self-serve assets: dashboards and AI-enabled workflows (a curated dataset + definitions that an AI assistant can query correctly, plus validated example analyses). Create AI-friendly data products (well-defined datasets, metrics, and documentation) that teams can query through AI tools. Enable AI-ready analytics Package datasets and metrics so they can be reliably used by AI tools (clear grain, business definitions, data contracts, examples). Write AI-friendly documentation: glossary, metric definitions, common queries, and pitfalls. Partner with AI and platform teams to ensure critical tables are discoverable, permissioned correctly, and safe to use. Ensure data quality and reliability Write basic tests, checks, and monitoring for key datasets and critical metrics. Troubleshoot data issues and improve reliability from source to reporting. Work effectively with engineering and product Collaborate with data engineers on schema changes, event tracking, and pipeline improvements. Translate ambiguous business questions into measurable analyses, and communicate findings clearly. Use AI tools thoughtfully Use AI to accelerate SQL drafting, code scaffolding, and documentation. Validate AI outputs, document assumptions, and protect sensitive data. Your expertise (must have) Fresh graduate or of relevant experience (internships, projects, or part-time roles count). Solid SQL fundamentals (joins, aggregations, basic window functions). One programming language for analysis (preferably Python ) with basic skills in: Data manipulation (tables/dataframes) Basic statistics (distributions, sampling intuition, confidence basics) Strong analytical thinking: Ability to define a problem, form hypotheses, validate data, and explain results. Strong attention to detail and commitment to accurate, reliable outputs. Ability to work effectively in a team-oriented environment. Nice to have Exposure to data modeling concepts (star schema, slowly changing dimensions, metrics definition). Familiarity with modern analytics stacks (dbt, BigQuery, Snowflake, Looker, PowerBI, Tableau) through coursework or projects. Experience creating AI-ready data assets (clean semantic layers, metric definitions, data contracts, documentation, and evaluation or sanity-check checklists) is a plus. Experience using AI assistants responsibly to accelerate analysis or analytics engineering work (for example, SQL drafting, code scaffolding, documentation). Experience with version control (Git) or basic software engineering practices. Understanding of event tracking and product analytics (funnels, cohorts, retention). Knowledge of responsible data handling (PII basics, access controls, safe sharing). What success looks like You can independently produce a well-structured analysis with clear assumptions and validation steps. You contribute at least one reliable dataset or transformation that becomes a shared building block for analytics. Stakeholders can answer more questions with self-serve and AI-assisted exploration, with less back-and-forth. A key dataset or metric you built becomes usable through AI tools with consistent answers (validated against a source-of-truth definition). You can spot when results look off, debug quickly, and explain the root cause.
المهارات المطلوبة
SQLPythonData AnalysisData ModelingBusiness AnalyticsStatistical AnalysisdbtBigQueryData QualityDocumentation