Mô Tả Công Việc
- Thiết kế, phát triển, tối ưu hóa và duy trì kiến trúc và pipeline dữ liệu, đảm bảo tuân thủ các nguyên tắc ETL và thống nhất với mục tiêu kinh doanh.
- Giải quyết các vấn đề dữ liệu có mức độ phức tạp vừa phải để cung cấp giá trị thúc đẩy kết quả kinh doanh.
- Tạo ra các sản phẩm dữ liệu để nâng cao năng suất của Chuyên viên phân tích và nhà khoa học dữ liệu.
- Hợp tác chặt chẽ với các nhà khoa học dữ liệu và đội nghiệp vụ để thiết kế các tính năng cho mục đích lập mô hình.
- Đánh giá, thực hiện và triển khai các công cụ và quy trình mới cho kỹ thuật dữ liệu phân tích nhằm nâng cao năng suất của nhóm và chất lượng dữ liệu.
- Phối hợp với các kỹ sư máy học, chuyên gia BI và kiến trúc sư giải pháp, đóng góp phát triển kiến trúc kỹ thuật cho các dự án và sáng kiến chiến lược của doanh nghiệp.
- Hướng dẫn, tư vấn cho các chuyên viên phân tích và dữ liệu khác về các tiêu chuẩn và thông lệ tốt nhất về dữ liệu.
- Liên tục mở rộng kiến thức về công nghệ máy học, khoa học dữ liệu, thị giác máy tính, trí tuệ nhân tạo, thống kê và toán ứng dụng để nâng cao hiệu quả của vai trò này.
Yêu Cầu Công Việc
Kinh nghiệm:
- Kinh nghiệm ít nhất 4 năm hoặc 1 dự án làm việc trực tiếp với vai trò DE (thiết kế và xây dựng data platform và pipeline). Thành thạo về ETL, phân tích dữ liệu, SQL và ngôn ngữ lập trình (ít nhất: Pyspark, Python, Java).
- Có kinh nghiệm vận hành, tối ưu hóa ít nhất 1 hệ thống data pipeline trong ít nhất 3 năm
- Có kinh nghiệm ít nhất 1 năm phát triển API bằng Spring boot
- Quen thuộc với các phương pháp linh hoạt (agile), có kinh nghiệm về kỹ thuật dữ liệu trong các đội agile liên chức năng là một nền móng có giá trị.
- Một số kinh nghiệm trong việc thiết kế và duy trì kho dữ liệu (data warehouse) và/hoặc hồ dữ liệu (data lake) sử dụng các công nghệ dữ liệu lớn như Hadoop, Spark hoặc cơ sở dữ liệu phân phối như Redshift và Snowflake là một điểm cộng.
- Hiểu biết cơ bản và kinh nghiệm trong việc lưu trữ, truy cập và chuyển đổi dữ liệu trong cơ sở dữ liệu quan hệ.
- Hiểu biết về mặt khái niệm liên quan đến dữ liệu và phân tích, bao gồm kiến thức cơ bản về mô hình chiều cơ bản, công cụ báo cáo, quản trị dữ liệu cũng như dữ liệu có cấu trúc và phi cấu trúc.
- Một số kinh nghiệm về các công nghệ cơ sở dữ liệu cloud (ví dụ: AWS, Azure, Google Cloud...) và kinh nghiệm cơ bản về phát triển các giải pháp về hạ tầng và dịch vụ điện toán đám mây cho hoạt động dữ liệu và phân tích.
- Nhận thức về container hóa, quản lý pipeline và microservices (như Docker, Kubernetes).
- Thành thạo việc xây dựng pipeline dữ liệu cũng như triển khai và duy trì chúng bằng các công cụ như Git và Jenkins là một điểm cộng.
- Kinh nghiệm cơ bản về các khái niệm như máy học, khoa học dữ liệu, trí tuệ nhân tạo, thống kê và/hoặc toán ứng dụng là một điểm cộng.
- Quen thuộc với hệ điều hành Linux là một điểm cộng.
- Kiến thức cơ bản về các công cụ BI như Tableau, Power BI hoặc SAP Business Objects là một điểm cộng.
- Có kinh nghiệm trước đây hoặc từng thựctập ở vị trí kỹ sư dữ liệu hoặc kiến trúc sư dữ liệu là một điểm cộng.
Bằng cấp & chứng chỉ chuyên môn:
- Bằng cử nhân về khoa học máy tính, thống kê, kỹ thuật hoặc lĩnh vực liên quan.
- Chứng chỉ đào tạo về các công cụ, hệ thống liên quan đến Data Engineer là điểm cộng
Kỹ năng khác
- Khả năng thích ứng với thay đổi trong định hướng làm việc từ nhu cầu kinh doanh
- Đạo đức nghề nghiệp tốt và chú ý đến chi tiết, đảm bảo khả năng tiếp cận và duy trì chất lượng
- Kỹ năng giao tiếp và phối hợp hiệu quả, làm việc tốt với các thành viên trong nhóm từ các lĩnh vực khác nhau
- Thái độ tích cực và tư duy chủ động, có tinh thần “thử nghiệm và học hỏi”
- Chú trọng triển khai theo Agile với sự sẵn sàng học hỏi và phát triển từ kinh nghiệm.
Hình thức
Full-Time
Quyền Lợi
- Thời gian làm việc: 8 - 17h từ thứ 2 - thứ 6
- Mức lương cạnh tranh
- Mua bảo hiểm VBI
Mức lương
Thỏa thuận
Báo cáo tin tuyển dụng: Nếu bạn thấy rằng tin tuyển dụng này không đúng hoặc có dấu hiệu lừa đảo,
hãy phản ánh với chúng tôi.