img
نوع العقدنوع العقددوام كامل
طبيعة الوظيفةطبيعة الوظيفةبالموقع
الموقعالموقعالرياض
About the Role
We are seeking a highly experienced Senior Data Engineer to join our growing Data & Analytics team. This role is ideal for someone with deep expertise in Informatica and a strong hands-on background in Big Data platforms (Cloudera), real-time streaming technologies (Kafka/Confluent), and data processing frameworks (Spark, Python).

Key Responsibilities
  • Design, develop, and optimize ETL/ELT pipelines using Informatica Data Engineering (DE) and related tools.
  • Build and manage real-time streaming data solutions using Apache Kafka and Confluent.
  • Develop distributed data processing applications on Cloudera using Apache Spark (Python or Scala).
  • Automate and orchestrate workflows using Apache NiFi or similar tools.
  • Work collaboratively with data architects, analysts, and business stakeholders to translate data requirements into robust technical solutions.
  • Ensure adherence to data quality, security, and governance standards across all data pipelines.
  • Troubleshoot performance bottlenecks and integration issues in data workflows.
  • Provide technical leadership, code reviews, and mentorship to junior engineers.
  • Maintain comprehensive documentation including design specifications, data flows, and operational procedures.
  • Stay up to date with industry trends in big data, streaming, and Informatica technologies, and introduce best practices into the team.

Required Qualifications
  • Bachelor’s or Master’s degree in Computer Science, Information Systems, or a related field.
  • 7+ years of hands-on experience in data engineering, with strong proficiency in Informatica Data Engineering (DE) development and administration.
  • Deep knowledge of ETL design, data modeling, and large-scale data warehousing concepts.
  • Proficient in SQL and Python for data transformation and scripting.
  • Strong experience with Apache Kafka and Confluent Platform for building real-time data streaming solutions.
  • Solid understanding of Apache Spark for big data processing.
  • Practical experience working on the Cloudera Big Data platform (HDFS, Hive, Impala, etc.).
  • Proven ability to optimize performance for ETL and streaming pipelines.
  • Excellent analytical and problem-solving skills with a focus on scalability and maintainability.
  • Strong verbal and written communication skills with the ability to work across technical and non-technical teams.
  • Informatica certification is highly desirable.

Preferred Skills
  • Experience with Informatica Cloud, Informatica Data Quality (IDQ), or Master Data Management (MDM).
  • Familiarity with SingleStore DB or other in-memory databases.
  • Exposure to DevOps tools and practices (*, Git, Jenkins, CI/CD pipelines).
  • Experience working with cloud-based big data platforms (AWS, Azure, or GCP).
  • Background in Agile methodologies and experience working in cross-functional teams.

Why Join Us?
  • Work on cutting-edge big data and real-time analytics projects.
  • Collaborate with industry experts and forward-thinking teams.
  • Competitive compensation and benefits package.
  • Opportunity to lead and mentor in a high-impact role.

Term: 1 Year Contract, possible extension.

متطلبات الوظيفة

  • تتطلب ٢-٥ سنوات خبرة

وظائف مشابهة

مهندس بيانات

📣 إعلان

لوسيديا

دوام كامل
انضم إلى لوسيديا كمهندس بيانات وكن جزءًا أساسيًا في تشكيل بنيتنا التحتية للبيانات.

بصفتك مهندس بيانات، ستقوم بتصميم وتطوير وإدارة خطوط بيانات قابلة للتوسع تدعم فرق التحليلات والتعلم الآلي لدينا. ستحرص على أن تكون بياناتنا متاحة وموثوقة ومنظمة لتلبية احتياجاتنا التحليلية المتزايدة.

المسؤوليات الرئيسية:
  • تصميم وتنفيذ عمليات ETL لتحريك البيانات وتحويلها.
  • بناء وصيانة البنية التحتية للبيانات للتخزين والمعالجة والتحليل.
  • التعاون مع محللي البيانات والعلماء لدعم احتياجاتهم من البيانات.
  • ضمان جودة البيانات وسلامتها طوال دورة حياتها.
  • تحسين عمليات تخزين البيانات واسترجاعها من أجل الأداء.
  • توثيق تدفقات البيانات والتحويلات والتغييرات المعمارية.

المتطلبات:
  • درجة بكاليوس في علوم الكمبيوتر أو تكنولوجيا المعلومات أو مجال ذي صلة.
  • 3+ سنوات من الخبرة في دور مهندس بيانات أو دور مشابه.
  • معرفة قوية بـ SQL وتقنيات قواعد البيانات (مثل PostgreSQL، MySQL).
  • إجادة لغات البرمجة مثل بايثون، جافا، أو سكال.
  • خبرة في أدوات ETL (مثل Apache Airflow، Talend).
  • الإلمام بالمنصات السحابية (مثل AWS، Google Cloud Platform، Azure).
  • معرفة بتقنيات البيانات الكبيرة (مثل Hadoop، Spark) تعتبر ميزة إضافية.
  • اهتمام ممتاز بالتفاصيل ومهارات اتصال قوية.

لماذا تنضم إلينا؟
هذه فرصة لتشكيل مستقبلنا التقني، وتوسيع منصتنا، وتقديم تكنولوجيا تمكينية. نحن نقدم خطط خيارات الأسهم للموظفين (ESOP) ومكافآت قائمة على الأداء، مما يعزز النمو والابتكار في بيئة عمل ديناميكية.

breifcase2-5 سنة

locationالرياض

عمل عن بُعد
منذ 11 يوم