img
نوع العقدنوع العقددوام كامل
طبيعة الوظيفةطبيعة الوظيفةبالموقع
الموقعالموقعالرياض
انضم إلى شركة Total-TECH كمهندس بيانات متخصص في الأمن، DLP، تصنيف البيانات، DRM ومشاركة الملفات بشكل آمن. نحن مزود خدمات تكنولوجيا المعلومات الرائد في الشرق الأوسط، المعروف بخدمة العملاء الاستثنائية والتزامنا بتلبية احتياجات عملائنا.

المسؤوليات الرئيسية:
  • تحديد وتنفيذ وتطبيق سياسات DLP عبر نقاط النهاية والبريد الإلكتروني وتطبيقات السحابة.
  • التحقيق في محاولات تسرب البيانات والتنسيق مع وحدات الأعمال للتصحيح.
  • إجراء تقييمات مخاطر Shadow IT باستخدام Netskope.
  • إنشاء لوحات معلومات الامتثال لتتبع مؤشرات الأداء الرئيسية لحماية البيانات.
  • تقديم تقارير الحوادث الشهرية والتقارير الامتثالية لـ DLP.
  • تنفيذ سياسات تصنيف البيانات (سرية، مقيدة، إلخ) عبر Bolden James.
  • تطبيق علامات مائية رقمية على الوثائق الحساسة باستخدام Data Patrol.
  • تكوين وتطبيق سياسات التحكم في الوصول DRM عبر Seclore.
  • إدارة مشاركة الملفات بشكل آمن، والتشفير، والتحكم في الوصول، والتدقيق عبر Kiteworks.
  • إجراء تدريب على الوعي بالمستخدم حول ممارسات التعامل الآمن مع البيانات.

المؤهلات: الحد الأدنى من 3 سنوات من الخبرة في أدوار أمان البيانات. يُفضل معرفة بموفري DLP مثل Forcepoint وNetskope وبروتوكولات الأمان المرتبطة.

انضم إلينا في رحلتنا لتقديم خدمات تكنولوجيا معلومات مبتكرة وإحداث تأثير إيجابي في الصناعة.

متطلبات الوظيفة

  • تتطلب ٢-٥ سنوات خبرة

وظائف مشابهة

مهندس بيانات

📣 إعلان

نظرة مستقبلية ITC

دوام كامل
Join Future Look ITC as a Data Engineer!

We are seeking a skilled Data Engineer to design and implement scalable data pipelines that will elevate our data handling capabilities. At Future Look ITC, we partner with top innovative names to foster success with cutting-edge solutions aligned with Saudi Arabia's Vision 2030.

Key Responsibilities:
  • Design and implement scalable batch and streaming data pipelines.
  • Build and maintain data ingestion, transformation, and storage systems.
  • Ensure data quality, consistency, lineage, and reliability across pipelines.
  • Collaborate with ML and backend engineers to provide clean, usable datasets for training and inference.
  • Optimize data storage and query performance for analytical and operational workloads.
  • Implement data validation, monitoring, and alerting mechanisms.
  • Manage schema evolution, versioning, and backward compatibility.
  • Document data models, pipelines, and operational procedures.

Core Deliverables:
  • Production-grade data pipelines and ingestion workflows.
  • Curated datasets and data models for analytics and ML.
  • Data quality checks and monitoring dashboards.
  • Reliable data storage and access patterns.
  • Documentation for data architecture and pipelines.

Required Qualifications:
  • 3+ years of experience in data engineering or related roles.
  • Strong experience with Python and SQL.
  • Experience with data processing frameworks and tools.
  • Familiarity with relational and analytical databases.
  • Experience building and operating data pipelines in production environments.

Preferred Qualifications:
  • Experience with streaming platforms and real-time data processing.
  • Familiarity with data lakes, warehouses, and columnar storage formats.
  • Experience supporting ML or analytics platforms.
  • Exposure to cloud or hybrid infrastructure environments.

Success Indicators:
  • Data pipelines are stable, accurate, and scalable.
  • High data availability and low pipeline failure rates.
  • Data consumers can easily discover and trust datasets.
  • Reduced data-related incidents and manual interventions.

Working Style:
  • Strong ownership of data reliability.
  • Attention to detail and data correctness.
  • Clear documentation and communication.

breifcase2-5 سنة

locationالرياض

منذ 8 أيام

مهندس بيانات

📣 إعلان

عناصر الذكاء الاصطناعي

دوام كامل
Job Summary
We are seeking a motivated and detail-oriented Data Engineer with at least 2 years of experience in the Informatica ecosystem to design, develop, and maintain ETL processes and data pipelines. The ideal candidate will have hands-on experience with Informatica PowerCenter and strong knowledge of data integration, transformation, and optimization techniques.

Key Responsibilities
  • Design, develop, and maintain ETL workflows using Informatica PowerCenter.
  • Build and optimize data pipelines for structured and semi-structured data.
  • Perform data extraction, transformation, and loading (ETL) from multiple data sources.
  • Ensure data quality, accuracy, and consistency across systems.
  • Troubleshoot and resolve ETL and data integration issues.
  • Collaborate with data analysts, BI teams, and stakeholders to understand data requirements.
  • Optimize ETL performance and improve existing data workflows.
  • Document ETL processes, mappings, and technical designs.
  • Support deployment, monitoring, and maintenance of data integration solutions.

Required Qualifications
  • Bachelor’s degree in Computer Science, Information Systems, or a related field.
  • Minimum 2 years of hands-on experience in Informatica tools, especially PowerCenter.
  • Strong understanding of ETL concepts, data warehousing, and data modeling.
  • Experience working with relational databases (Oracle, SQL Server, MySQL, etc.).
  • Strong SQL skills for data validation and troubleshooting.
  • Familiarity with data quality and performance tuning techniques.
  • Ability to analyze and solve data-related issues effectively.

Preferred Skills (Nice to Have)
  • Experience with other Informatica products (IDMC, Informatica Cloud).
  • Knowledge of data warehousing concepts (Star/Snowflake schema).
  • Experience with large-scale or enterprise data environments.
  • Exposure to cloud platforms (Azure, AWS, GCP).
  • Basic knowledge of scripting (Python, Shell).

Skills & Competencies
  • ETL Development
  • Informatica PowerCenter
  • Data Integration & Transformation
  • SQL & Databases
  • Problem-solving & Troubleshooting
  • Attention to detail

breifcase2-5 سنة

locationالرياض

منذ 21 يوم