- Kiến thức và Kinh nghiệm Chuyên môn
o 3-5 năm kinh nghiệm trong trong lĩnh vực quản lý dữ liệu, ít nhất 3 năm vai trò quản lý về Datalake và Bigdata.
o Kinh nghiệm với hệ thống dữ liệu lớn (Big Data): Có kinh nghiệm làm việc với các hệ thống dữ liệu lớn, bao gồm việc xử lý và lưu trữ dữ liệu khối lượng lớn trong môi trường phân tán.
o Thành thạo các công cụ và nền tảng Big Data: Kỹ sư dữ liệu cần có kỹ năng với các công cụ và công nghệ như Apache Hadoop, Apache Spark, và Kafka, cũng như các dịch vụ Cloud như AWS Glue, Google BigQuery, hoặc Azure Data Lake.
o Kiến thức về cơ sở dữ liệu và ETL/ELT: Kỹ năng làm việc với cơ sở dữ liệu quan hệ (SQL, Oracle) và NoSQL (MongoDB, Cassandra) là cần thiết, cùng với kinh nghiệm xây dựng và tối ưu hóa các pipeline ETL/ELT để xử lý và chuyển đổi dữ liệu từ nhiều nguồn.
o Hiểu biết về Python hoặc Scala: Đa số các công cụ Big Data sử dụng Python hoặc Scala để phát triển và triển khai các quy trình xử lý dữ liệu.
- Kỹ năng và Khả năng Kỹ thuật
o Tích hợp dữ liệu và làm việc với API: Kỹ sư dữ liệu cần có kinh nghiệm tích hợp dữ liệu từ nhiều nguồn, bao gồm các hệ thống ngân hàng cốt lõi (Core Banking), CRM, và hệ thống quản lý tài chính.
o Kinh nghiệm với Data Lake và Data Warehouse: Hiểu biết về các mô hình lưu trữ dữ liệu như Data Lake và Data Warehouse, khả năng quản lý dữ liệu bán cấu trúc và phi cấu trúc (JSON, XML).
o Quản lý chất lượng dữ liệu và Data Governance: Có khả năng kiểm tra và quản lý chất lượng dữ liệu, hiểu biết về các khái niệm quản trị dữ liệu (Data Governance) và thực hiện các quy trình đảm bảo chất lượng.
- Yêu cầu về Bảo mật và Quy định
o Kiến thức về bảo mật dữ liệu: Do làm việc trong lĩnh vực ngân hàng, kỹ sư dữ liệu cần có hiểu biết về các quy định bảo mật và tuân thủ (như GDPR, PCI DSS) để bảo vệ dữ liệu nhạy cảm.
o Kinh nghiệm làm việc trong môi trường có quy định nghiêm ngặt: Kỹ sư dữ liệu cần quen thuộc với các yêu cầu tuân thủ trong ngành tài chính và có kinh nghiệm làm việc trong môi trường quản lý rủi ro cao.