BeJob tuyển dụng - Công nghệ Thông tin
Kênh chuyên đăng tin tuyển dụng trong ngành IT, hỗ trợ doanh nghiệp tìm kiếm nhân tài công nghệ và mang đến cơ hội việc làm hấp dẫn cho các bạn trẻ đam mê lập trình, dữ liệu, trí tuệ nhân tạo, an ninh mạng...
Hạn nộp hồ sơ: 29-04-2026 Lương: > 20 triệu Mã tin: HN20164 Lượt xem: 1
- Thiết kế kiến trúc dữ liệu end‐to‐end: ingestion zones → staging → modeling → serving (BI, dịch vụ nội bộ, API dữ liệu).
- Phối hợp với Data Integration để nhận dữ liệu đã ingest & chuẩn hoá; chuyển đổi thành mô hình phân tích.
- Xây dựng & bảo trì mô hình dữ liệu (star schema, snowflake, data vault/lightweight) cho Data Warehouse / Data Mart theo nhu cầu nghiệp vụ.
- Phát triển dbt models / SQL transform pipelines; version hoá & kiểm thử dữ liệu (tests, schema, freshness).
- Tối ưu hoá truy vấn & hiệu năng ClickHouse (partition key, primary index, TTL, materialized view, aggregation table).
- Xây dựng ứng dụng Kafka Streams / streaming enrichment để xử lý dữ liệu gần thời gian thực trước khi ghi vào kho phân tích.
- Thiết lập quy trình data quality & observability: completeness, timeliness, drift, SLA.
- Hợp tác với đội phân tích nghiệp vụ/BI/AI để đảm bảo dữ liệu chính xác, đầy đủ và dễ dùng.
- Tham gia triển khai, kiểm thử hiệu năng batch/stream, đo lường chi phí lưu trữ.
- Viết & cập nhật tài liệu kiến trúc dữ liệu, lineage, danh mục dữ liệu (data catalog / glossary).
Hãy cùng nhau xem lại chặng đường mà tập thể chúng tôi đã đi qua — hành trình của nỗ lực, khát vọng và niềm tin.
- Tốt nghiệp đại học chuyên ngành CNTT / HTTT / Khoa học máy tính / Toán tin hoặc liên quan.
- Có từ 3 năm kinh nghiệm Data Engineering / DWH / hệ thống phân tích dữ liệu lớn.
- Thành thạo SQL & PL/SQL; hiểu execution plan, tối ưu join, partition pruning, indexing chiến lược.
- Đã tham gia thiết kế / vận hành Data Warehouse hoặc Data Lakehouse ở quy mô TB.
- Kinh nghiệm với Apache Airflow hoặc NiFi cho orchestration/transformation.
- Kinh nghiệm thực tế với ClickHouse (hoặc hệ OLAP tương đương: BigQuery, Snowflake, Redshift, Druid) và tối ưu hoá hiệu năng.
- Hiểu biết về Kafka (topic design, retention, serialization Avro/Protobuf/JSON schema).
- Nắm cơ bản Spark hoặc engine phân tán tương tự để xử lý batch lớn.
- Kỹ năng phân tích yêu cầu nghiệp vụ và chuyển đổi sang mô hình dữ liệu/kho dữ liệu.
- Kỹ năng hợp tác đa phòng ban, giao tiếp và viết tài liệu kỹ thuật rõ ràng.
BeJob tuyển dụng - Công nghệ Thông tin
Kênh chuyên đăng tin tuyển dụng trong ngành IT, hỗ trợ doanh nghiệp tìm kiếm nhân tài công nghệ và mang đến cơ hội việc làm hấp dẫn cho các bạn trẻ đam mê lập trình, dữ liệu, trí tuệ nhân tạo, an ninh mạng...
Hà Nội
Hạn nộp hồ sơ: 30/11/2025
Lương: 5 - 7 triệu
Hà Nội
Hạn nộp hồ sơ: 08/12/2025
Lương: > 10 triệu
Hồ Chí Minh
Hạn nộp hồ sơ: 28/04/2026
Lương: Thỏa thuận
Đắk Lắk
Hạn nộp hồ sơ: 30/04/2026
Lương: Thỏa thuận
Hà Nội
Hạn nộp hồ sơ: 27/04/2026
Lương: Thỏa thuận
Hồ Chí Minh
Hạn nộp hồ sơ: 09/12/2025
Lương: > 10 triệu
Hà Nội
Hạn nộp hồ sơ: 20/02/2026
Lương: Thỏa thuận
Đà Nẵng
Hạn nộp hồ sơ: 28/04/2026
Lương: Thỏa thuận
Hà Nội
Hạn nộp hồ sơ: 09/12/2025
Lương: < 5 triệu
Hồ Chí Minh
Hạn nộp hồ sơ: 09/12/2025
Lương: 25 - 30 triệu